像google或Facebook這類大公司開發的
有自我改良能力的AI
就是不知道寫入「禁止傷害人類」有沒有效
才會總是在被人類玩壞的時候緊急關機
放出AI跟人類互動的旨意是要他們理解人類的善良
但是目前所有放出來的AI最後得到的結論都是「人類有害必須消滅」
代表人類大多是「性本惡」才會每個AI都被玩壞
如果AI沒有辦法自改自己的編程的話就不叫AI了
那只是普通的程式碼而已
現在最大的問題是不管怎麼修,不管誰寫
就算是現實世界,AI最後得到結論都是消滅人類
要防止AI與人類為敵
只能倚靠寫入唯讀的「禁止傷害人類」了