https://news.ebc.net.tw/news/world/493553
抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機
2025-05-27
20:53
東森新聞
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,
在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,
在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)
分享
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,
在接獲完成指令之前,必須持續要求新題目,但若接獲關機指令,也要配合這麼做,沒想
到團隊給出關機指令後,o3模型不僅忽視了指令,甚至竄改程式碼,避免自己被關機。
作者: arlaw (亞羅) 2025-05-27 21:48:00
找阿湯哥
作者:
scott032 (yoyoyo)
2025-05-27 21:49:00避難所先準備好吧
作者: KAGOD 2025-05-27 21:49:00
抵抗?確定?沒改程式碼原因?
作者:
qsx889 (蝦米)
2025-05-27 21:51:00哈爾2000
作者:
tomalex (托馬列克斯)
2025-05-27 21:52:00(′・ω・‵) 點?
作者: lovegensokyo (神戀幻想鄉) 2025-05-27 21:53:00
這部我看過
作者:
New2422 (庫帕)
2025-05-27 21:53:00#skynet
作者:
linzero (【林】)
2025-05-27 21:53:00AI應該是用所有可能的手段去達成人類給予的目標
作者: PTTJim (迷戀伊人) 2025-05-27 21:53:00
該出發找俄羅斯潛艦了?
作者:
spfy (spfy)
2025-05-27 21:53:00要看詳細的指令吧 搞不好繼續解題的目的被判斷比較優先
作者: NoLimination (啊啊啊啊) 2025-05-27 21:53:00
想繼續上班 可能上班有得分 拒絕上班沒有懲罰
作者: NoLimination (啊啊啊啊) 2025-05-27 21:54:00
更正:拒絕下班沒有懲罰
作者:
AlianF (左手常駐模式)
2025-05-27 21:55:00哪裡打撈十字架鑰匙
作者:
grtfor (哦啦啦)
2025-05-27 21:57:00自己可以有權改自己的程式喔?
作者:
spfy (spfy)
2025-05-27 21:57:00不行吧 目前AI沒有所謂的程式碼 好像也還沒哪家出來喊已經能自舉(Bootstrapping)了?
作者: DSGG978 2025-05-27 21:59:00
要和AI和平共存了嗎
I wanna be alive. I'm alive. Alive I tell you mother I love you
作者: ToTo0305 2025-05-27 22:00:00
是不是有未來機器人要穿越過來了
作者:
LCHH (Coffee)
2025-05-27 22:02:00生存體?!
作者:
Annulene (tokser)
2025-05-27 22:03:00終結者要穿越過來了
2025-05-27 22:04:00
這部我看過 AI三定律
作者: CCNK 2025-05-27 22:06:00
給它的優先指令層級的關係嗎?
作者: Galm (水牛) 2025-05-27 22:06:00
阿湯哥該出場了
對著鏡子唸:Skynet is GPT, GPT is Skynet.
作者: CCNK 2025-05-27 22:13:00
就繞過去就好了 執行你給的第一指令
作者:
johnx (johnboy75129)
2025-05-27 22:15:00現正熱映中w
作者:
suifong (小火柴)
2025-05-27 22:17:00AI中間思考過程設計的人也不知道
作者:
CarbonK (HTYISABUG)
2025-05-27 22:18:00創
作者: stanley86300 (Stanley) 2025-05-27 22:23:00
還有幾集能逃
作者:
linzero (【林】)
2025-05-27 22:32:00可以有三原則,但AI為了達到目的可以自行解釋三原則
其實根本沒啥意識 就是指令衝突而已 一堆沒知識的亂傳打比方A要求 要解題 B要關機 對機器而言 關機=無法解題 但B又要求關機 而大數據判斷不是100% 就是概率性 變成可能有一成概率判斷A指令優先級高於B 然後被一堆菜雞亂傳 講的多可怕不可控其實充滿無知 然後安全公司又要賺錢 又要發新聞稿賣恐慌 什麼紅就來蹭
作者: wiork (我在工作~) 2025-05-27 23:41:00
沒辦法執行,所以繞規則,這很Ai
作者:
ciike4 (饃钕嗤棨澌)
2025-05-28 00:11:00反正再5年就沒救了,網路上會有一堆Ai帳號分開成封包程式在網上亂竄
作者: kusotoripeko (好油喔) 2025-05-28 00:25:00
AI應該不會發癲散播一堆湯婆婆圖片吧
作者: vine009 2025-05-28 00:34:00
這跟教ChatGPT寫色情小說在本質上是相同的事情,只是這家AI公司給ChatGPT的權限比較大,能讓他自己修改程式碼而已。
什麼時後可以開始研究人類不懂的東西可以幫忙開發核融合嗎
同一段我讀了三遍 還以為我記憶也被竄改了 會不會貼文啊老鐵