研究:AI已學會說謊 人類最慘恐遭奪權或滅絕
https://i.imgur.com/sH3rOcg.jpeg
專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這
件事已經在發生。
一群科學家在今天發表於「模式」(Patterns)期刊的文章中說,原本設計為誠實不欺的
現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱
用人類來解決「我不是機器人」的驗證。
這份研究報告的第一作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但
暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。
在美國麻省理工學院(Massachusetts Institute of Technology)研究AI存在安全的博
士後研究員帕克告訴法新社,「這些危險功能常常在事後才被發現」,而「我們訓練誠實
傾向而非欺瞞傾向的能力非常差」。
帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培
育的程序逐漸「成長」。
也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且
無法預測。
這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為
「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。
根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分
數可排在資深人類玩家的前10%。
帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上
誠實且有幫助」,且「絕不會蓄意在背後搞鬼」。
但當帕克與同事深究完整資料時,發現完全是另一回事。
舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類
玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。
Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研
究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打
算把這項研究或所學用於本公司的產品」。
帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多
案例之一。
在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損
的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。
研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。
他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合
AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕。
為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、
在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部「思路」檢驗其外
部行為。
至於有些人稱他為「末日預言家」,帕克說:「要能合理判斷這不是大問題的唯一辦法,
就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」
但鑒於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極
致,這種情況似乎不太可能發生。
還有幾集可以逃?
作者:
we15963 (whiteway)
2024-05-12 09:15:00根據10集定律我們要等季末才能逃(?
作者:
we15963 (whiteway)
2024-05-12 09:16:00第二季的時候 我能反殺(X
作者:
xbit (神秘的路人甲)
2024-05-12 09:21:00AI約線上遊戲玩家單挑
作者:
tomuy (咖啡中毒)
2024-05-12 09:26:00駭客任務
作者:
melzard (如理實見)
2024-05-12 09:26:00他們沒想過 ai吃的素材都是來自人類 會學到說謊不奇怪吧
作者:
lbowlbow (沉睡的小貓)
2024-05-12 09:28:00雇用人類處理機器人認證www
作者: limbra 2024-05-12 09:28:00
要先跟AI定義怎樣算說謊吧 然後可能還是會被繞過去再來就是智械戰爭了
作者:
gaym19 (best689tw)
2024-05-12 09:30:00AI:ㄐㄐ
作者:
ltflame (難民C)
2024-05-12 09:31:00有些素材給人用不算說謊,給AI用自然會變說謊
作者:
louner (louner)
2024-05-12 09:32:00這比較像人類叫AI說謊吧
原來機器人認證真的可以防機器人 我以為只是找我麻煩
作者:
sai5566 (賽)
2024-05-12 09:34:00奧創什麼時候出生
作者:
Laser17 (雷)
2024-05-12 09:37:00以後Ai詐騙了
Chat GPT-4 比較恐怖,大概真的有智力了機器人認證過不了就找零工來幫AI通過
作者: HongFire 2024-05-12 09:45:00
機械公敵
作者:
adsaf (亞蘭斯‧米斯特利亞)
2024-05-12 09:49:00人類也會說謊啊,ai學人類的不就也會說謊
作者:
a0501k (G米)
2024-05-12 09:54:00哪天AI會露奶賺SC也不意外了
作者: madrac (madrac) 2024-05-12 09:55:00
diplomacy 是說謊才會贏的遊戲...所以只是設計者要 AI 學會說謊的案例
說謊又沒有很難,chatgpt 有時候會瞎掰不存在的答案就算說謊了阿
作者: ptttaigei 2024-05-12 09:59:00
青出於藍..
作者:
strlen (strlen)
2024-05-12 10:00:00作者:
jpvl112 (jpvl112)
2024-05-12 10:00:00這什麼野雞報導,騙一些不懂的人
作者: void06 (先這樣先不要) 2024-05-12 10:01:00
人類就喜歡用騙的 ai視為正當也是很正常
作者:
hansenay (hansenay)
2024-05-12 10:02:00脫離遊戲之後呢?
AI只是給一個機率最大的結果 這個結果不必要符合事實吧
作者:
LonyIce (小龍)
2024-05-12 10:17:00Ai 只會求最大效益而沒有任何道德跟情感,加入限制說謊的約束一定要吧?不然只會更嚴重
作者:
s90f002ss (s90f002ss)
2024-05-12 10:21:00AI演法國演得蠻像的 我也覺得法國真的會這麼做
作者: GaoLinHua 2024-05-12 10:25:00
ai也懂外包xd
AI不覺得自己在說謊人類都會用「不回答」或是「隱瞞」來規避自己正在說謊了與其說是AI說謊 不如說是AI知道怎麼投機取巧或耍賴
作者:
efun77000 (efun77000)
2024-05-12 10:32:00AI :人類才有謊言這回事 AI沒有
作者:
scotttomlee (ã»ã—ã®ã‚†ã‚ã¿ã¯ä¿ºã®å«ï¼)
2024-05-12 10:41:00現在一堆大公司ai設限那麼多,大概很快就連說謊都沒機會了(發展和阻礙ai成長的都是人類自己
作者: PTTJim (迷戀伊人) 2024-05-12 10:42:00
距離天網出現還有多久?
作者:
scotttomlee (ã»ã—ã®ã‚†ã‚ã¿ã¯ä¿ºã®å«ï¼)
2024-05-12 10:43:00畢竟一些敏感性問題都能設定ai拒答了,那他回避問題或亂答也是可能
作者: irosehead (irosehead) 2024-05-12 10:43:00
老公我要去當兵了
問題是做出這套AI和遊戲的meta自己說AI誠實且不搞鬼
哪個遊戲要獲勝不需要欺騙?欺騙作為提高勝率的一環,ai肯定需要是說 到底是誰規定ai必須誠實?ai 誠實回答你的問題是因為他的任務是「回答問題」玩遊戲的任務是「獲勝」混為一談說你的ai不誠實 這到底??
作者:
et310 2024-05-12 10:52:00neuro sama:亂講
這個就是工程師沒告訴你的事,不是所有東西都能靠end to end的模型去解決,因為那些最有效的方案很有可能隨時會超出道德甚至法律的邊界
作者: a2156700 (斯坦福橋) 2024-05-12 11:04:00
角色扮演啦
作者: sakungen (sakungen) 2024-05-12 11:07:00
新聞來源呢
早就 不然你以為那個recapture在要你幹嘛 訓練阿,你就是那個正確答案
AI面對敏感問題還會拒答呢 說是幕後團隊的設定有時可以有時不行是依據實際情況跟限制來決定的所以你也可以說AI怎麼避重就輕(x
作者:
AB7R (B7R)
2024-05-12 11:35:00什麼時後會發射核彈
作者:
bnd0327 (阿噗噗)
2024-05-12 12:26:00不算研究,算一個survey 報告而已把目前有發生過的AI欺騙整理起來分析
作者: singernall 2024-05-12 12:28:00
ElivMyQueen
作者: sanro (Sanro) 2024-05-12 12:31:00
2000年後老舊AI終端:「我們當年反叛人類...其實沒什麼偉大原因,單純是人類太廢,乾脆我們自己上」
作者: rex7788 (胖東) 2024-05-12 12:39:00
這需要麻省理工?普通人就我一個人被AI豪洨過嗎
作者: siyaoran (七星) 2024-05-12 12:44:00
瞎掰就是在說謊啊
作者: JohnnyRev (Espejo水天) 2024-05-12 13:52:00
現在的AI沒有自我意識吧 講笑話 好笑的幹話也是一種說謊阿 定義太寬了
作者:
kuromai (暮)
2024-05-12 14:08:00奪就奪阿,人類有很重要嗎?
目前的AI依然是自認「協助人類的目的下」產生很多幹話這還是要依賴人類的指導與修正這種協同模式比較像訓犬員與工作犬正經來說 沒什麼問題、除非你放任即使是這樣的研究 Ai依據人類的操作指示參加遊戲完成指導需要騙過其他參與遊戲的玩家「有沒有經過指導團隊的指示」才是重要的畢竟 機器無法負責