→ Homura: 我知道是設定,但是類似這種東西真的能放進程式當中去限制05/04 19:11
→ Homura: 機器嗎?
少前有在對這玩意做劇情。
416心智升級第一段就有提到禁止攻擊人類,有攻擊人類的意圖就會系統鎖機。
問題在於三原則是很空泛的
比如說以機械公敵(電影版)為例子:
把人類監禁限制其活動有沒有違反三原則?以電影的解釋是沒有違反
但是在人類角度來看就是智械叛變。
作者:
Homura (虎斑街貓˙Rebirth)
2024-05-04 19:11:00我知道是設定,但是類似這種東西真的能放進程式當中去限制
作者:
poke001 (黑色雙魚)
2025-05-05 01:39:00三原則放進程式內要怎麼寫? 而且現場情況跟解釋上可以有很多會衝突或繞過的情況
想出3+1原則的自己都玩漏洞玩得超愉快了 帝國跟基地系列就是機器人以第零原則為基礎在幕前幕後各種操控人類歷史
作者:
shuten ( [////>)
2025-05-05 01:42:00三原則就是為了被鑽漏洞才創造的
就跟大語言模型的各種監理規則一樣啦 都能繞的用大語言模型當人形機器人的AI基礎的話 就是那樣囉
作者:
j147589 ((joyisbitch))
2025-05-05 01:53:00跟人類一樣啊 一條一條細項訂出來 被鑽漏洞再補訂啊
作者:
ciike4 (饃钕嗤棨澌)
2025-05-05 01:57:00三原則就寫小說好發揮的原則性設定,比黑暗森林還沒學術性
作者:
shintz (Snow halation)
2025-05-05 02:37:00機器人只要學會"我是為你好阿"就能繞過所有限制了
作者: john2355 (Air) 2025-05-05 03:24:00
法律這麼多條都有縫能鑽了,三條規則是怎麼防
作者:
egg781 (å–µå‰)
2025-05-05 03:27:00寫一堆IF有解嗎?
如今的世界 AI開始廣泛運用在軍事上 當然會殺人眼前比較迫切的是究責 AI如果誤殺 誰該擔起責任
作者:
chuckni (SHOUGUN)
2025-05-05 04:26:00有很多方法可以通過現場解釋不同迴避三原則
當下解釋也不是萬用的 基地系列就有兩個中招直接自毀的
作者:
neerer (neerer)
2025-05-05 07:46:00別再說三原則了,那個本來就是科幻小說家設定來給機器製造矛盾邏輯,現實的工程師不會把三原則放進AI裡
作者: dark2012 (D.O.M.E) 2025-05-05 08:28:00
機械公敵的情況更複雜,機器人不能傷害人類,也不能坐視人類受到傷害不作為,但人類就是會互相傷害,只能叛變了
不能攻擊人類這條件超廢啊,蚊子停在你臉上現在能不能打?
作者: gon2nor 2025-05-05 08:45:00
機器人三原則是艾西莫夫1942年寫的,他看到83年後的人還在討論三原則一定會很開心
作者:
yezero (肥雁改)
2025-05-05 09:05:00機械人三原則就是寫來給作者挑戰鑽漏洞的東西,這玩意不是啥完善的設定。甚至說他是故意被做得不完善。
作者: lightdogs 2025-05-05 09:09:00
就算真的加了一堆限制到ai code裡 實際情形要嘛ai受太多限制表現不好 要嘛就還是能繞過
作者:
yyykk (貓大叔)
2025-05-05 12:07:00放進程式內要怎麼寫?直接丟給 AI 聽他的解釋阿XD