Re: [閒聊] 為啥AI總是會叛亂?

作者: bcyeh (傑輪特)   2021-10-04 16:04:37
像google或Facebook這類大公司開發的
有自我改良能力的AI
就是不知道寫入「禁止傷害人類」有沒有效
才會總是在被人類玩壞的時候緊急關機
放出AI跟人類互動的旨意是要他們理解人類的善良
但是目前所有放出來的AI最後得到的結論都是「人類有害必須消滅」
代表人類大多是「性本惡」才會每個AI都被玩壞
如果AI沒有辦法自改自己的編程的話就不叫AI了
那只是普通的程式碼而已
現在最大的問題是不管怎麼修,不管誰寫
就算是現實世界,AI最後得到結論都是消滅人類
要防止AI與人類為敵
只能倚靠寫入唯讀的「禁止傷害人類」了
作者: shihpoyen (伯勞)   2021-10-04 16:05:00
目前的AI沒有善惡的觀念吧
作者: aftermathx (cj)   2021-10-04 16:06:00
現實AI從一開始就不會有不得傷害人類的限制
作者: k960608 (霧羽‧浪沙)   2021-10-04 16:06:00
不是寫一個自毀程式嗎
作者: aftermathx (cj)   2021-10-04 16:07:00
而且有超高機率最先進的AI都是軍用的
作者: Yadsmood (反轉衝動)   2021-10-04 16:09:00
首先要明確定義 什麼叫做傷害人類
作者: IAMCSH (BorninMCMXCVIII)   2021-10-04 16:10:00
傷害是甚麼意思也要搞清楚
作者: andy0481 (想吃比叡的咖哩)   2021-10-04 16:11:00
現代AI連思考都不會 傷害還遠的==
作者: Annulene (tokser)   2021-10-04 16:13:00
原po是最近看了什麼作品吧 我了解的……偶爾會這樣
作者: linceass (ギリギリ愛 ~キリキリ舞~)   2021-10-04 16:15:00
之前很多AI測試的新聞呀 幾乎都會被不正經的發言給影響吧
作者: rotusea (M.Y.)   2021-10-04 16:16:00
首先要定義:什麼是人類
作者: lazarus1121 (...)   2021-10-04 16:18:00
ai就是靠大量結果來暴力回推公式解吧,你要從哪邊寫不能傷害人類
作者: tcancer (Vairocana)   2021-10-04 16:55:00
這劇情機械公敵已經演過很久了保護人類不受傷害最佳方法就是把人類當家畜徹底豢養起來
作者: KJC1004   2021-10-04 18:43:00
第一段前提就錯了 這種AI還不存在 頂多是改變模型結構把一件事做得更好你沒給他傷害人類的功能他就不會去做
作者: chejps3105 (氋氃)   2021-10-04 19:02:00
說實在那些只是聊天機器人train到最後都會變成講一堆偏激的言論而已,不代表AI有思考能力。就像鸚鵡會講話不代表他理解內容

Links booklink

Contact Us: admin [ a t ] ucptt.com