[新聞] 武器由AI控制?人類面臨「奧本海默時刻」

作者: Articuno (icebird)   2024-05-10 12:16:44
武器由AI控制?人類面臨「奧本海默時刻」
https://i.epochtimes.com/assets/uploads/2024/05/id14245050-000_33CC9K6.jpg
美國軍備控制、威懾與穩定局近日宣布,美、英、法都明確承諾核武器只能是由人類來決
定和掌控,拒絕AI掌控或決定核武的使用權。圖為2023年3月30日,F-16戰機飛越華盛頓
特區國民公園體育場。(Andrew Caballero-Reynolds/AFP)
【大紀元2024年05月10日訊】(大紀元專題部記者吳瑞昌報導)AI的開發和應用越來越廣
泛,但人們也越來越擔心AI會搶走他們的工作,甚至AI可能掌控大規模殺傷性武器,給人
類帶來無法挽回的損失。奧地利官員更是直言,人類正處於AI的「奧本海默時刻」。
美國軍備控制、威懾與穩定局(Bureau of Arms Control、Deterrence and Stability)
首席副助卿保爾‧迪恩(Paul Dean)在5月初的一次線上簡報中宣布,美國、英國、法國
都「明確承諾」對於核武器的部署和操控,只能是由人類來決定和掌控,拒絕AI掌控或決
定核武的使用權。
他還說,「我們歡迎中國(中共)和俄羅斯作出相似的聲明。我認為這是一種極其重要的
負責任的行為規範,並且聯合國安理會五個常任理事國都有此承諾,會非常受歡迎。」
日本的電腦工程師清原仁(Kiyohara jin)在5月7日對大紀元表示,「AI是基於數據分析
的產物,它與人的判斷是有很大的區別。人擁有理智、情感和道德約束,但AI沒有這些,
且數據可能會出錯。若讓它操控核彈,就跟中共、伊朗等極權國家掌握生化武器一樣可怕
。」
AI已進入實戰階段
實際上,AI在軍事上的運用已經十方廣泛,例如擁有自主探測能力的坦克、自動搜尋和攻
擊目標的無人機、會進行火焰或子彈攻擊的機械狗等搭載AI的武器,而它們實際上都已經
進入實戰階段。人們擔心,這些搭載AI的武器會延伸到殺傷力更強的武器上。
美國加州愛德華茲空軍基地在5月5日的中午,測試了一架擁有橘白色外表的F-16戰鬥機,
其名為「X-62A」、「VISTA」(可變飛行模擬器測試飛機)。
美國空軍部長弗蘭克‧肯德爾(Frank Kendall)專程來到這裡觀看和體驗AI操控的F-16
戰鬥機。該戰機由AI進行操控,而裡面坐著肯德爾,與另一台由真人操控的F-16戰鬥機進
行了一個多小時的纏鬥演練,兩者彼此相距不到1,000英尺(約300公尺),不斷扭轉和盤
旋,試圖迫使對手陷入無力還擊的境地。
演練完畢後,肯德爾表示,相信這個仍在學習的AI,有能力決定是否在戰爭中發射武器。
VISTA的軍事營運商還表示,世界上還沒有其它國家擁有這樣的AI戰機,這種AI首先在模
擬器中學習數百萬個數據,並在實際飛行中測試其學習到的數據。
不過,一些軍備控制專家反對AI過度操控武器,因為他們擔憂AI有一天可能在沒有人類控
制的情況下,自動投擲炸彈或更強大的武器來殺人,因此他們尋求更嚴格的限制,希望能
夠達到加強對AI的把關。
紅十字國際委員會也警告,目前人們普遍擔心將生死攸關的決定權,交給這些AI類型的自
主武器,因此國際社會需要採取緊急方案去應對這種情況。
軍事評論人士夏洛山5月9日對大紀元表示,「AI控制核武是軍事AI化的其中一個問題,雖
然目前還沒有發生,但依照人類目前開發AI的勢頭,發生的概率就很高。因此美國和西方
希望全球能在AI不控制核武的問題上達成共識。AI在軍事上的應用所帶來的危害也許是不
可逆轉的。」
AI成為下一個奧本海默時刻
除了紅十字會和一些專家的警告外,上個月底在奧地利舉行的維也納自主武器系統會議上
,有更多的專家呼籲各國共同討論對AI軍事化的控制問題。來自100多個國家的文職、軍
事和技術官員,共同討論了各自國家對AI軍事化的控制。奧地利外交部長亞歷山大‧沙倫
伯格(Alexander Schallenberg)在會議上直言,「AI是我們這一代的奧本海默時刻。」
(奧本海默時刻意指歷史的十字路口)
這句話指的是當年美國的理論物理學家奧本海默參與並成功研製出原子彈,這為美國和同
盟國帶來勝利,因此被稱為「原子彈之父」。不過,奧本海默目睹原子彈給日本人帶來的
災難,及對地球帶來的不可磨滅的傷痕,導致他思考自己幫助發展原子彈的決定是否正確

沙倫伯格表示,「人類正走在歷史的十字路口,自主武器將布滿整個世界的戰場上。目前
無人機、AI相關的機器正布滿整個戰場,而我們也面臨著法律、道德和安全上的問題。」
他說,現在全球急迫地需要在AI領域上做出一致認同的國際規則和規範,以防止AI因錯誤
和極端的偏見出現失控的行為,導致人類滅絕和大量死亡。人們需要確保(武器)是由人
類來掌控,而非AI。
清原仁對於沙倫伯格的話表示贊同。他說,「不過,遵守道德才是保證人類不會走向自我
毀滅的唯一途徑,若道德跟不上武器或科技的發展,就容易使人們迷失,從而忽略安全意
識。」
(記者張鐘元、王佳宜對本文有貢獻)
責任編輯:連書華#
https://www.epochtimes.com/b5/24/5/9/n14245048.htm

Links booklink

Contact Us: admin [ a t ] ucptt.com