[討論] 費米悖論若考慮到AI

作者: subgn ( )   2017-12-02 20:29:02
這邊探討一下因為AI自爆的文明在費米悖論中扮演的角色
雖然我們還不確定發展AI是否一定會像魔鬼終結者或是駭客任務一樣
導致文明最終被自己發展出來的AI取代
但是既然發展AI應該是任何高等文明必然發展的一種技術,只要自爆的機率不等於0
那宇宙中眾多的文明中一定有許多因AI自爆的。
AI利用資源,向外擴張的能力與效率一定比原本文明強
那我們更應該會有可能接觸到外星AI文明,(也就是AI強化了費米悖論的「悖論性」)
我認為最大的可能因素是
「取代原生文明的AI沒有擴張慾望與需求」
任何生命或是自我意識的第一優先需求,就是儘可能確保自己存在
AI會消滅原生文明很大的原因是避免被消滅而先下手為強的不信任賽局
同理,AI在成為該星球唯一智慧存在以後,是不可能複製自己,
因為這樣等於製造一個一樣能力強大的對手來爭奪資源,並再度陷入不信任賽局
而若要朝星際間發展,除非出現超光速通訊技術,那麼AI受限於通信技術,
遠距離掌控的能力必定變差,無法利用其強大決策能力高效率擴展
如果在擴張艦隊裝置跟自己一樣強大的AI,那等於陷入前面的陷阱
這注定了AI只能龜在自己的家鄉附近緩慢發展,直到耗盡資源後再整個移動到別處
另外對AI來說,過度發展只會讓自己加速落入熱力學第二定律的熱寂
自然產生的文明因為有眾多個體存在所以才會不斷地需要向外擴展
而不需要也不願意複製個體的AI根本沒有向外擴張的必要
所以費米悖論的解釋之一,說不定是高等文明都因為AI而自爆
取而代之的AI則選擇龜在母星不擴張。
換個角度來說,文明要避免發展AI自爆的方式,就是在自爆之前
發展出跨越光速通訊尺度的星際文明,並彼此設立「烽火台協定」
如果任一子文明因AI自爆,其他子文明就連手圍攻那個AI,以數量優勢碾壓過去
話說霍金既警告過接觸外星文明的危險,也警告過發展AI的危險
是不是可能也思考過類似的兩者間關係呢?
作者: ctra (流風)   2017-12-03 00:50:00
為什麼AI不會有靈魂,從某個角度來看人也是一種AI。
作者: c8dk4 (c8dk4)   2017-12-03 00:51:00
這個解釋類似於"所有積極向外移民的文明被不願移民的文明取代",新增AI要素應該不脫現有解釋吧。
作者: ctra (流風)   2017-12-03 00:53:00
物種的進化是AI化,人類不過是複製這個過程罷了~
作者: c8dk4 (c8dk4)   2017-12-03 00:59:00
因此議題就轉向AI文明是否會停止擴張。假如AI文明不會演演化,那它們可能維持起初的設計目的:留守或擴張。既然ai都能發展到能顛覆原有文明,代表預設擴張潛力,那宇宙中就應不乏擴張型AI。若AI會演化,那它們將脫離預設目的,難想像擴張型AI不會出現。因此不管何種情形,都不會出現所有AI文明都選擇固守家園的狀況吧?
作者: hacker725x (Akuma)   2017-12-03 03:03:00
就駭客任務啊,在地球上自給自足。人類擴張因素之一是人口增加需要更多資源,AI沒這個需求。而且隨著神經和基因科學發展,人類也可能變改造人。
作者: donaldknuth (RoN)   2017-12-03 14:21:00
AI 害怕原本文明,而進行摧毀打壓,那只是說明AI的智能與原文明是同一等級而已。現在假設AI具有自主性,智能又是採指數級快速發展,就像人類突破幾個瓶頸點後,會發生跳躍式成長,直到高過原本文明幾個等級,便會忽視低等生物的威脅。所以,我認為AI是一種高度文明智能個體,可以有效又符合經濟地,運用任何資源,已經不需要對外擴張侵略。
作者: firewalker (Firewalker453)   2017-12-08 17:31:00
也許AI會基於天網式的理由,決定消滅一切有機生命體來維持銀河系的和平(?
作者: ctra (流風)   2017-12-12 01:18:00
誰說機械生物不能是有機體
作者: ivor1212 (bobo)   2017-12-30 17:40:00
當ai開始思考存在的意義 那他們會怎麼做呢?
作者: Lieng1207 (Liengs)   2016-01-19 05:29:00
他們會開始尋找新的目標
作者: albertx (zzas)   2016-02-08 02:37:00
42

Links booklink

Contact Us: admin [ a t ] ucptt.com