Re: [閒聊] 為啥vivy這次這麼聽話

作者: vacuityhu (真空管)   2021-05-03 22:01:37
推 emptie: 除了堆砌更多沒解釋的名詞,這跟動畫的演出其實相差不大 05/03 15:51
→ emptie: 。但老實說這還是難以置信的工程壯舉吧。陽電子腦如果不 05/03 15:51
→ emptie: 是出門的時候踢到一箱圖紙/或是去火星探險的時候發現了 05/03 15:51
→ emptie: 外星人的遠古遺跡,總會有個研發的過程吧?總會從簡單的 05/03 15:51
→ emptie: 慢慢進化到複雜吧…?如果是底層的單元就有很大的不一致 05/03 15:51
→ emptie: 性,他們怎麼那麼有信心堆了幾億個之後封裝的成品動得起 05/03 15:51
→ emptie: 來?能處理輸入的指令?輸出預期中的行為?能連上其他I/ 05/03 15:51
→ emptie: O設備?難道這個世界的晶圓製造商運氣都很好…? 05/03 15:51
不好意思...手癢回一下
現在的AI其實完全符合這位朋友的疑問
現在AI主流的基本技術叫做CNN, 摺積神經網路
反正你就想像成是用一種叫做摺積的數學運算去模擬人類大腦的神經網路
更具體來說, 是用大量的摺積運算配一個啟動函數來模擬一個神經元做了甚麼事情
神經元簡單來說, 就是上一個神經元A放電去電下一個神經元B, 藉此來傳遞訊息
只要A放電夠強, B就接收的到, 反之, A受到的刺激不夠放電不夠, B就不會有反應
我們就是用數學運算配合啟動函數來模擬這個A和B溝通的過程
然後
只有A跟B兩個神經元的時候我們還可以給出嚴謹的數學證明來說明中間發生了甚麼事
但現在隨便一個CNN都上萬個神經元在互相連動
訓練過程中到底發生了甚麼事~擲筊問媽祖還比較可靠
雖然各家實驗室跟研究人員都努力給出合理的解釋來說中間到底在幹嘛
但沒有一個解釋是可以用數學證明的
很弔詭吧~?
成千上萬的數學運算堆起來竟然不能用數學去證明跟預測結果會怎樣
這就是現在的AI
確實跟去火星探險發現遠古遺跡很像
然後現在這個人類無法預測的數學運算就安裝在你各位的特斯拉車子裡幫你開車
作者: emptie ([ ])   2020-05-03 15:51:00
除了堆砌更多沒解釋的名詞,這跟動畫的演出其實相差不大。但老實說這還是難以置信的工程壯舉吧。陽電子腦如果不是出門的時候踢到一箱圖紙/或是去火星探險的時候發現了外星人的遠古遺跡,總會有個研發的過程吧?總會從簡單的慢慢進化到複雜吧…?如果是底層的單元就有很大的不一致性,他們怎麼那麼有信心堆了幾億個之後封裝的成品動得起來?能處理輸入的指令?輸出預期中的行為?能連上其他I/O設備?難道這個世界的晶圓製造商運氣都很好…?但這是軟體層面上我們不了解完全的原理(而且我們也沒放棄去研究爲什麼) 寫好的東西你拿去任何相容的平臺都是能跑的
作者: OyodoKai (魔法少女大淀)   2021-05-03 22:04:00
為什麼沒人願意相信量子力學的魔法 :(
作者: emptie ([ ])   2021-05-03 22:05:00
因爲劇中的科技進步程度很難讓人覺得他們解鎖了量子運算的科技吧
作者: yosaku (脆弱的超強)   2021-05-03 22:06:00
所以這就是模擬真的人腦運作方式 要是正子腦的資料能被複製 那表示人腦也行了 但就是辦不到
作者: snowpoint (暱稱)   2021-05-03 22:06:00
量子力學的干擾,應該是神經元訊號在臨界點才比較顯著因為過於微觀,神經元算是宏觀的東西了簡單來說你有東西好像快想起來的時候,量子力學有機會祝你一臂之力XD
作者: zxcmoney (修司)   2021-05-03 22:10:00
現在的(新AI)主要是帶有隨機要素吧,藉由隨機找出新策略但反過來說,就不像舊AI那樣可以逐步拆解了
作者: hinanaitenco (桃子好吃)   2021-05-03 22:13:00
事實上 NTK理論已經可以解釋類神經網路的效果跟訓練過程發生啥事了 還可以不用訓練就知道訓練完的理論預測值
作者: OyodoKai (魔法少女大淀)   2021-05-03 22:14:00
人類到現在還不知道意識從何而來怎麼複製
作者: hinanaitenco (桃子好吃)   2021-05-03 22:14:00
我可以簡單的跟你說類神經網路只是種Gaussian process
作者: whitecut   2021-05-03 22:28:00
CNN翻譯應該是卷積神經網路吧,純粹想吐槽這點
作者: hinanaitenco (桃子好吃)   2021-05-03 22:30:00
你看的那篇只是開始 後面CNTK RNTK 等架構都證明出來了NTK 他的特性是data independent的你要算結果只要把t 設無限就等於train 完 (收斂你要train到一半的預測值都有 改t就可以了connection是讓每次feed forward過程 近似GP所以越寬越逼近真正的高斯分佈 神經網路就越強你那是inference 的時候才要丟資料NTK是種kernel methods他的kernel function 是建立在一個Target network的你要看網路越寬的好處 可以去查 double descent這一套理論你看完 會對類神經網路有更進一步了解需要相關論文可以站內 我研究蠻多的
作者: smallminhaha (HydRocephalus)   2021-05-03 22:51:00
請問……這裡是哪裡……@@
作者: WindSucker (抽風者)   2021-05-03 23:13:00
holo的靈壓
作者: littletip (肉肉)   2021-05-04 01:35:00
我懂了。樓下的各位都懂了嗎?
作者: emiya5352 (菲爾席斯)   2021-05-04 01:55:00
跟我十年前想的結果一樣
作者: neo10025696 (neooooen)   2021-05-04 02:05:00
我都稱那個過程為黑箱,問媽祖讓我笑了
作者: piyieen (Nightshift24)   2021-05-04 02:51:00
嗯嗯 跟我想的一樣
作者: greed3819 (咬我啊笨蛋)   2021-05-04 05:22:00
這篇先收藏 搞不好以後報告用得到
作者: kohanchen (kohanchen)   2021-05-04 10:05:00
alphago工程師就有講他們完全不知道阿發狗是怎麼推理棋局的

Links booklink

Contact Us: admin [ a t ] ucptt.com