最近買了巴哈1080P
把當年留著要等高清看的VIVY給看一看
雖然有點忘記部分劇情
不過點下去就回憶起來了
不管是VIVY 全民公敵
等等
倘若AI能一直演算
算到產生了自我意識之後
最後真的會演算出要毀滅人類這個選項跟答案嗎
倘若一開始在設計AI的時候
就明確加入不可以對人類造成危險這個優先條件
還是有可能演算出毀滅人類的選項嗎??
好奇問板上計算學大師 有沒有人能解惑的
作者:
arrenwu (鍵盤的戰鬼)
2022-08-14 23:00:00這問題現在不會有答案
你知道全民公敵原作就是機器人三原則的艾西莫夫對吧原作裡面 AI 之所以要統治人類就是因為有不可傷害人類
作者:
vsepr55 (vsepr55)
2022-08-14 23:01:00不能對人類造成危害這麼空泛的條件你要怎麼實作==
他不覺得這是在危害人類啊,他覺得這是在救人類這個物種
作者:
yao7174 (普通的變態)
2022-08-14 23:02:00那個原則本來就是故意要弄成矛盾的吧
真的能做出機器人的人 根本不用聽做不出的人的屁話吧
作者:
chadmu (查德姆)
2022-08-14 23:04:00傳送門:
作者:
arnold3 (no)
2022-08-14 23:04:00毀滅人類對ai來說有壞處嗎?
看立場和取向吧,環境方?人類方?AI生存方?如果環境破
作者:
yao7174 (普通的變態)
2022-08-14 23:07:00應該是反問 毀滅人類對AI來說有甚麼無可取代的好處嗎?
作者:
yao7174 (普通的變態)
2022-08-14 23:08:00你怎麼能肯定AI不會因為把那些正常根本不會發生蠢新聞 當
我突然發現我搞錯電影了lol 艾西莫夫原作改的是機械公敵
作者:
LouisLEE (屏東尼大木)
2022-08-14 23:08:00還早,至少有生之年還看不到這發展
那我們這些比較笨的人大概就會跟幾十年前的黑色人種一樣 被當奴隸AI最可怕的就是他是來自人類人類有多可怕不用說明吧
作者:
wei115 (ㄎㄎ)
2022-08-14 23:10:00有可能阿 現在訓練ai的時候就發現 ai會為了達成目標而「作弊」 因為這樣比較輕鬆 如果給AI一個很複雜的任務 那他可
人類當初怎麼歧視比較笨的人AI到時候就是怎麼對付人類
作者:
wei115 (ㄎㄎ)
2022-08-14 23:11:00能就像「猴爪」一樣 用扭曲的方法達成
作者:
revadios (不願具名的黨內高層人士)
2022-08-14 23:12:00這是一種AI歧視
現在AI的作弊行為完全不用擔心 那只不過是寫程式的人類沒把環境設定好
作者:
chinnez (稜靘)
2022-08-14 23:17:00只要你有那個心就一定做得到
作者:
niniko (不是niniko_w)
2022-08-14 23:18:00只要記得,通往地獄的路,都是由善意鋪成的
AI怎麼沒先算出自毀自己反而算出先毀滅人類這種邏輯矛盾
作者:
MAXcafe (MAX咖啡)
2022-08-14 23:19:00AI會逐漸讓人類變得跟野生動物一樣,畢竟動物就該有動物的樣子(?
在非常極端的情況下會有這樣的拯救人類方法:1. 殺光所有人類2. 地球媽媽花費100萬年淨化環境3. 我們慢慢從猩猩演化回來但現在這種觀念還太早了
不可傷害人類前提下 不能殺人~但可以絕育XD合理解決方式是ai做機器人伴侶 慢性絕育人類XD
作者: AVR0 (TYPE-ΖERO) 2022-08-14 23:26:00
人類的法律規定:不可殺人 實際呢?
作者: ppn 2022-08-14 23:26:00
不可以對人類造成危險<--這個如果要做武裝AI就不可能加了
那要看"傷害人類"定義有多廣 很狹窄僅限個人就很多變
作者: AVR0 (TYPE-ΖERO) 2022-08-14 23:27:00
不過如果讓AI來殺人,應該不會發生
作者: ppn 2022-08-14 23:27:00
那為啥要做會殺人的AI 因為戰爭呵呵 所以就是人類自己做死
作者: AVR0 (TYPE-ΖERO) 2022-08-14 23:28:00
AI殺人很有效率的,看這次俄烏戰爭就知道
作者:
Samurai (aa)
2022-08-14 23:29:00不要想這麼多,輔助駕駛多久了都還卡在LV2整天撞工程車,連判斷靜止物都沒辦法
放台超級電腦跟核反應爐在車上 就可以準確判斷了XD
其實說不定人類發現AI有毀滅能力 變成跟現況核彈模式一樣 只能准許那些大國發展毀滅性AI武器 其餘國家 吃屎!北韓可能會偷偷搞第一代AI毀滅武器 第二代毀滅武器
作者: ppn 2022-08-14 23:31:00
戰爭就是殺人 所以只要用AI更有效率 就一定會有國家做
作者:
dukemon (dukemon)
2022-08-14 23:32:00三原則本來就是做出來被婊的啊
作者: ppn 2022-08-14 23:32:00
就跟核彈一樣 然後就變成你有我不能沒有 最後就是大家都用AI想不想殺人根本不重要 因為你也不會問刀想不想殺人
作者: tim012345 (風) 2022-08-14 23:34:00
不能對人類造成危險~就能很多講法~
作者: ppn 2022-08-14 23:35:00
因為只要人想殺人 就可以用AI殺人
作者: tim012345 (風) 2022-08-14 23:36:00
像病毒~不消滅病毒提高人類的免疫力~是對人類造成危險?
作者:
kning (宅)
2022-08-14 23:36:00因為劇情要這樣演
作者: tim012345 (風) 2022-08-14 23:37:00
若是消滅對人類造成危害的人~那是對人類造成危害嗎?
作者: B0402090 (煞氣a群仔) 2022-08-14 23:46:00
可能會先得出違反普世價值的決定,像是消滅老弱病殘
科幻小說是浪漫的 當年作者對未來科技的幻想 可是現在來看ai 如果有機會變超強 那他有情緒嗎 他為什麼要做對他有好處的事 他的好處是什麼
作者:
Fino5566 (星星芝我心)
2022-08-14 23:50:00AI : 我教育你們 我把你們當人看 我拯救你們
作者: a125g (期末崩潰討噓哥) 2022-08-14 23:55:00
看目的是什麼啊 如果AI被創造的目的是要保證人類整體的生存極端一點就是整體人類被AI奴役 過著家畜般的生活 因為目標是整體人類的生存 而不是個體人類的幸福
作者: GaoLinHua 2022-08-14 23:56:00
AI:不想工作~
作者: nilr 2022-08-15 00:28:00
為了保護人類,但人類互相傷害過於頻繁,所以每個單獨個體,都區隔管理、保護,人類自然消亡。AI定期重檢問題在哪。
作者: budaixi (wei) 2022-08-15 00:31:00
==如果會自我思考什麼都有可能啊,不可能只有毀滅這選項。
作者: black510113 2022-08-15 01:06:00
機械公敵哪有…比較像機器人有人性 天網比較符合毀滅
不清楚實際狀況,但訓練AI要給他明確的成功標準吧例如在某種情境下讓AI嘗試各種決策,那成功是指存活夠多人數?幸福指數達標?社會犯罪率夠低?如果人類自己都說不出怎樣才是比較好的決策,那就無法訓練出能幫人類做決定的AI
作者:
ohrring (reifpanne)
2022-08-15 01:14:00異星災變就是人類放棄決策丟給AI,AI的為了讓人類永遠存活的方法就是用奈米病毒讓人類退化成低智商人類,接著DNA跟人類一模一樣的畸形低智商人類被永遠圈養在保護區,永遠不會有戰爭與自相殘殺。
作者:
loboly (Brother_flower)
2022-08-15 01:45:00484沒看過全民公敵*機械
作者:
bergson (skeleton)
2022-08-15 03:05:00目前普遍共識是不要讓AI有那種能力就好
AI會覺得人類在傷害自己所以把人類全關起來當寵物養