Re: [問題] 鋼彈系列中,好像都沒有以無人機為前提

作者: Seventhsky (7th空)   2017-09-08 19:49:14
※ 引述《extemjin (extemjin)》之銘言:
: 鋼彈的世界中,特別是UC,好像都沒有以無人機為前提的兵器或MS?
: 這裡指的是純AI自行操控MS的戰鬥。
: 硬要講,大概只有鋼彈W裡的桃樂絲的木偶人計畫,
: UC中更是幾乎都看不這樣概念的MS存在,即便
: MS可以自動地做出一些設定好的動作。
: 頂多只有蒼蘭系列的研究計畫..
: 另外再來就是讓哈囉駕駛或是讓"8"駕駛,但還是無法應付戰鬥,
: 頂多只能輔助。
這是不到一個月前的新聞
AI專家連署請求聯合國禁止開發殺手機器人
有來自26個國家的116名機器人或人工智慧(AI)公司的創辦人本周一(8/21)共同發表
了一封公開信,以要求聯合國(UN)儘快解決自主性致命武器(或稱殺手機器人)的問題
,同時禁止國際間使用這些AI武器。
這封信件指稱,一旦開發了自主性致命武器,它們將帶來規模空前的武裝衝突,且蔓延速
度也將超乎人們所能理解的。這些殺手機器人可能成為極其可怕的武器,讓獨裁者或恐怖
份子用來對抗無辜的民眾,或是作為其他不良用途,這個藩朵拉的盒子一旦被打開,就很
難再關上,因此呼籲聯合國應該要採取行動來保護所有人。
該信件的主要發起人之一為雪梨新南威爾士大學的AI教授Toby Walsh,,他說,幾乎每種
科技都有正反面用途,AI也不例外,它能協助解決現今社會所面臨的許多問題,像是不平
等、貧窮、氣候變遷或全球金融危機,但同樣也可被應用在自主性武器或工業戰爭。
Walsh認為,自主性武器是個非常真實的威脅,開發相關系統將是不明智也不道德的,應
該在國際上禁止。
在這份公開信上署名的還有Tesla創辦人Elon Musk、DeepMind共同創辦人Mustafa
Suleyman、Universal Robotics創辦人Esben Østergaard、打造Pepper機器人的
Aldebaran Robotics創辦人Jerome Monceaux,並於近日展開的國際人工智慧聯合會議(
International Joint Conference on Artificial Intelligence,IJCAI)上發表。
http://www.ithome.com.tw/news/116421
對於完全無人的兵器 多數人都是抱持著否定的態度
因為這種兵器"沒有人性=太有效率"所以讓人恐懼
事實上鋼彈中出現的完全無人兵器也是一樣
像00中A-Laws就使用Automaton大肆屠殺
這種東西只能拿來當反派XD
要出現在我方就一定需要某種程度的"人性"
異端的8啦 S鋼的Alice都是這樣
作者: KuBiLife (人生苦逼)   2017-09-08 19:57:00
人性(X) 會不會說話(O)
作者: iamsocool (焚琴煮鶴殺風景)   2017-09-08 19:59:00
f91的鐵甲面應該也算用無人機了吧?
作者: pinacolada (西洽的包皮饅頭很獵奇)   2017-09-08 20:00:00
ALICE
作者: stucode   2017-09-08 20:02:00
BLAME!的整個背景設定好像就是人類被武裝AI驅逐了
作者: karta273745 (karta273745)   2017-09-08 20:02:00
算追蹤性的兵器吧
作者: arcss (捷比)   2017-09-08 20:09:00
其實不要說AI,純實體的武器就一卡車禁用了,含AI被禁止開發也是正常的,只是大家都知道老美私下有搞 (喂
作者: battlecat (eastern undefeated)   2017-09-08 20:21:00
浮游炮
作者: yoyun10121 (yoyo)   2017-09-08 20:42:00
問題不只是人性, 問題是你要AI殺人就要拔掉各種限制,到時候AI就有可能發展出天網了
作者: ah122113755 (1930)   2017-09-08 21:10:00
很抱歉要告訴你 現實世界不是小說 從來沒有人對AI或機器人設各種限制 殺人機器也是各國軍武主要開發的項目 美國不搞其他國家也會做 做出來就一定會賣到黑市 殺人機器人機器人流竄已經是可以簡單被預測出來的未來
作者: kamir (小K)   2017-09-08 21:52:00
Alpha go???
作者: yoyun10121 (yoyo)   2017-09-08 23:02:00
AI怎麼可能完全不限制, 完全沒限制你演算法怎麼寫...Alpha go也是限定規則和勝利定義才有AI出來現實世界的AI就是個在一堆條件網路下找最佳解的數學過程, 現在怕的是拔掉服從殺人類型的限制條件後, 被抓出有漏洞的最佳解脫離控制, 你所想的完全沒有限制的AI才是根本不存在現實的東西
作者: ah122113755 (1930)   2017-09-09 07:01:00
從來沒人限制過AI不能殺人 那是小說的東西 只會寫要怎麼做 拔掉一堆限制這個詞本來就很奇妙

Links booklink

Contact Us: admin [ a t ] ucptt.com