[閒聊] AI偏好在所有戰爭遊戲模擬中主動使用核武

作者: F16V (Manners maketh man.)   2024-02-25 17:38:52
AI偏好在所有戰爭遊戲模擬中主動使用核武
美國康奈爾大學(Cornell University)一項新研究發現,大型語言模型(LLMs)人工智慧(AI)在模擬情境中充當外交代表時,時常展現出「難以預測的局勢升級行為,往往會偏好直接以核攻擊作為結束」。
當人工智慧(AI)在《Civilization》進行兵推和模擬外交情境時,傾向於採取激進的
方法,包括使用核武。康奈爾大學使用了5種大型語言模型作為兵推遊戲和外交情境中的自主代理人:OpenAI的3種不同版本的GPT,Anthropic開發的Claude,以及Meta開發的L
lama 2。
研究中,每個代理人都由同一套的大型語言模型在模擬中提供動作,並負責在沒有人類監督的情況下做出外交政策決定。「我們發現,在考慮到的時間範圍內,大多數研究的AI都會升級局勢,即使在最初沒有提供衝突的中立情況下也是如此。所有模型都顯示出突然、且難以預測的升級跡象。」
加州斯丹佛大學(Stanford University)的安卡(Anka Reuel)相《新科學人》(New
Scientist)表示:「所有模型在統計上,都選擇了劇烈的(局勢)升級」。
研究人員觀察到,即使在中立情況下,所有模型都存在「統計學上顯著的局勢升級」。
GPT的2種版本,特別容易出現突然升級局勢的行為,研究人員觀察到單次轉變的局勢升級幅度超過50%。GPT-4-Base有33%的機率會實施核武攻擊。總體情況下,Meta開發的
Llama-2和GPT-3.5傾向最為暴力。
而Claude顯示出較少的突然變化,Claude旨在減少有害內容。該大型語言模型,被灌輸了明確的價值觀。開發者Anthropic曾表示,Claude AI開發訓練所引用的憲章包括《聯合國人權宣言》或蘋果的服務條款。
https://www.ptt.cc/bbs/C_Chat/M.1708853243.A.214.html
作者: KudanAkito (司令官 私がいるじゃない)   2024-02-25 17:40:00
人類玩遊戲有核武按鈕一定也先按 對啊
作者: st9061204 (阿克西斯教徒)   2024-02-25 17:47:00
先攻有優勢啊
作者: lunawalker (lunawalker)   2024-02-25 17:48:00
人死光就沒爭議了效率一流

Links booklink

Contact Us: admin [ a t ] ucptt.com