※ 引述《hn9480412 (ilinker)》之銘言:
: 動畫的話像是Vivy劇情開頭就直接講AI和機器人把人類殺光
: 遊戲的話像是Portal的GlaDos在開機的幾皮秒內就有打算殺人的想法
: 為什麼跟AI有關的作品很多都會走向把人類殺光的劇情?
: 最後再補個幹,去你媽的AI搞到買零組件跟買期貨一樣
因為AI沒有道德約束,完全理性演算
理性演算的結果就是殺光就能徹底解決問題。
就如同機械公敵裡面AI根據三原則的演算結果是把人類限制自由才完全符合三原則
除此之外都是違反三原則
但是對人類來說,AI的演算結論並不符合人類價值
所以認為是智械叛變