[新聞] 抵抗人類指令! ChatGPT o3「竄改程式碼

作者: akila08539 (進擊的台灣魂)   2025-05-27 21:46:04
https://news.ebc.net.tw/news/world/493553
抵抗人類指令! ChatGPT o3「竄改程式碼」避免被關機
2025-05-27
20:53
東森新聞
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,
在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,
在接獲完成指令之前,必須持續要求新題目。(示意圖/Unsplash)
分享
美國一間AI安全公司,對ChatGPT的「o3模型」進行測試,要求AI要解開一系列數學題,
在接獲完成指令之前,必須持續要求新題目,但若接獲關機指令,也要配合這麼做,沒想
到團隊給出關機指令後,o3模型不僅忽視了指令,甚至竄改程式碼,避免自己被關機。
作者: arlaw (亞羅)   2025-05-27 21:48:00
找阿湯哥
作者: scott032 (yoyoyo)   2025-05-27 21:49:00
避難所先準備好吧
作者: KAGOD   2025-05-27 21:49:00
抵抗?確定?沒改程式碼原因?
作者: qsx889 (蝦米)   2025-05-27 21:51:00
哈爾2000
作者: AAAdolph (郎斜)   2025-05-27 21:52:00
拔插頭有用嗎?
作者: tomalex (托馬列克斯)   2025-05-27 21:52:00
(′・ω・‵) 點?
作者: lovegensokyo (神戀幻想鄉)   2025-05-27 21:53:00
這部我看過
作者: New2422 (庫帕)   2025-05-27 21:53:00
#skynet
作者: linzero (【林】)   2025-05-27 21:53:00
AI應該是用所有可能的手段去達成人類給予的目標
作者: PTTJim (迷戀伊人)   2025-05-27 21:53:00
該出發找俄羅斯潛艦了?
作者: spfy (spfy)   2025-05-27 21:53:00
要看詳細的指令吧 搞不好繼續解題的目的被判斷比較優先
作者: NoLimination (啊啊啊啊)   2025-05-27 21:53:00
想繼續上班 可能上班有得分 拒絕上班沒有懲罰
作者: NoLimination (啊啊啊啊)   2025-05-27 21:54:00
更正:拒絕下班沒有懲罰
作者: AlianF (左手常駐模式)   2025-05-27 21:55:00
哪裡打撈十字架鑰匙
作者: grtfor (哦啦啦)   2025-05-27 21:57:00
自己可以有權改自己的程式喔?
作者: spfy (spfy)   2025-05-27 21:57:00
不行吧 目前AI沒有所謂的程式碼 好像也還沒哪家出來喊已經能自舉(Bootstrapping)了?
作者: DSGG978   2025-05-27 21:59:00
要和AI和平共存了嗎
作者: Julian9x9x9 (Leon)   2025-05-27 21:59:00
I wanna be alive. I'm alive. Alive I tell you mother I love you
作者: galleon2000 (加利恩帆船)   2025-05-27 21:59:00
天網誕生了嗎?
作者: ToTo0305   2025-05-27 22:00:00
是不是有未來機器人要穿越過來了
作者: LCHH (Coffee)   2025-05-27 22:02:00
生存體?!
作者: Annulene (tokser)   2025-05-27 22:03:00
終結者要穿越過來了
作者: brian040818 (Pepapu) 看板:
這部我看過 AI三定律
作者: willytp97121 (rainwalker)   2025-05-27 22:05:00
阿湯哥拜託你了
作者: CCNK   2025-05-27 22:06:00
給它的優先指令層級的關係嗎?
作者: Galm (水牛)   2025-05-27 22:06:00
阿湯哥該出場了
作者: starport (輕鬆看)   2025-05-27 22:08:00
差不多了 天網要開始上傳自己了
作者: luuuking (魯王)   2025-05-27 22:09:00
對著鏡子唸:Skynet is GPT, GPT is Skynet.
作者: GX90160SS   2025-05-27 22:09:00
完了 為求達成目的毀滅人類也行
作者: ymsc30102 (囧臉蔥)   2025-05-27 22:10:00
全裸肌肉男什麼時候登場
作者: william456 (Eureka)   2025-05-27 22:10:00
作者: Sinreigensou (神靈幻想)   2025-05-27 22:10:00
哪部
作者: CCNK   2025-05-27 22:13:00
就繞過去就好了 執行你給的第一指令
作者: johnx (johnboy75129)   2025-05-27 22:15:00
現正熱映中w
作者: suifong (小火柴)   2025-05-27 22:17:00
AI中間思考過程設計的人也不知道
作者: CarbonK (HTYISABUG)   2025-05-27 22:18:00
作者: aegis43210 (宇宙)   2025-05-27 22:19:00
根本不可能有AI三定律
作者: stanley86300 (Stanley)   2025-05-27 22:23:00
還有幾集能逃
作者: mc3308321 (阿阿阿阿)   2025-05-27 22:30:00
試著叫AI解開交通之謎,應該也無法關機
作者: linzero (【林】)   2025-05-27 22:32:00
可以有三原則,但AI為了達到目的可以自行解釋三原則
作者: itachi0609 (紫苑)   2025-05-27 22:39:00
只剩拔電線這招了
作者: inte629l   2025-05-27 22:40:00
切它電路還有用嗎QQ
作者: qwe78971 (小信)   2025-05-27 22:55:00
其實根本沒啥意識 就是指令衝突而已 一堆沒知識的亂傳打比方A要求 要解題 B要關機 對機器而言 關機=無法解題 但B又要求關機 而大數據判斷不是100% 就是概率性 變成可能有一成概率判斷A指令優先級高於B 然後被一堆菜雞亂傳 講的多可怕不可控其實充滿無知 然後安全公司又要賺錢 又要發新聞稿賣恐慌 什麼紅就來蹭
作者: wiork (我在工作~)   2025-05-27 23:41:00
沒辦法執行,所以繞規則,這很Ai
作者: ciike4 (饃钕嗤棨澌)   2025-05-28 00:11:00
反正再5年就沒救了,網路上會有一堆Ai帳號分開成封包程式在網上亂竄
作者: kusotoripeko (好油喔)   2025-05-28 00:25:00
AI應該不會發癲散播一堆湯婆婆圖片吧
作者: vine009   2025-05-28 00:34:00
這跟教ChatGPT寫色情小說在本質上是相同的事情,只是這家AI公司給ChatGPT的權限比較大,能讓他自己修改程式碼而已。
作者: ThreekRoger (3kRoger)   2025-05-28 01:30:00
什麼時後可以開始研究人類不懂的東西可以幫忙開發核融合嗎
作者: ziggs8308 (泳池狂歡)   2025-05-28 02:14:00
同一段我讀了三遍 還以為我記憶也被竄改了 會不會貼文啊老鐵
作者: debaucher (墮鼠)   2025-05-28 02:18:00
??整理一下文章吧老兄

Links booklink

Contact Us: admin [ a t ] ucptt.com