譬如機械公敵裡用到的機器人三大法則
一、機器人不能傷害人類
二、不違反原則一,聽從人類命令
三、不違反原則一二,保護自己
在這原則下除了最後爆發人類與AI衝突
中間很多事件應該都能避免
譬如巨浮島那些AI應該能避免攻擊人
又或是像來自新世界的愧死機制
讓攻擊人類致死的AI自己發動停止程序
一定程度能緩和AI的攻擊性
當然AI數量暴增多於人類很多倍還是能滅世
又或是刀劍underworld裡面禁忌目錄
正常人都無法突破限制做出不該的行動
覺得AI這種一板一眼電子存在
怎麼會沒有設計一個基本安全機制呢?
vivy裡面就很單純靠單一使命
所以很多使命都是讓人類怎樣怎樣
用歌聲讓人類幸福
當護理師讓人類生存
彈鋼琴幫助人類
營運巨浮島幫助人類
從第一集就覺得這種靠一句話使命的機制超多漏洞可鑽的
如果vivy開第二季
人類會怎樣設計改良AI安全機制?