除了「失業恐懼」這種工業革命發生後就有的情形,
很類似「功高震主」
因為他功能很強又不會累,所以給他更多任務自己執行
「他要是罷工怎麼辦?
他比你強,要是反抗你,你擋的住嗎?」
典型的作品像「魔鬼終結者」,就是這類恐懼的創作回應
所謂「天網」(Skynet) 變成毀滅人類的開端
「把核彈發射控制權交給AI」,成為人類最終的惡夢,
可歸結到「該不該把重要決定丟給AI做」
其實早已有一些跡象,例如金融市場的「程式交易」,
符合特定條件就大量賣出,往往造成市場劇烈波動
授權與否,一開始是僅靠「這對我利大於弊」來考量,
而在軍事武器上,這種誘惑更大
人類有許多缺點和脆弱性,但法律體系基礎仍是
「只有人類或法人能負責,
(除了「無行為能力者」需要監護人負責)
人類以外則是財產或不可抗力」
所以AI做決定產生的災損,必定要找人來承擔
(無論那個人是誰) ,而不是歸因「不可抗力」
即使簡單到只讓AI來開車,爭議也不少,
真實都市的路上狀況太多,再強的AI仍然可能誤判,
於是再度歸結到「AI開車時出車禍,算誰的責任」
隨著AI逐漸進化,這類恐懼也成為約束AI行為的動力,
希望還有時間讓AI產生的利益和可能的危害之間,
達成一種平衡
是否杞人憂天呢? 歡迎各位提出您的看法
作者:
BOARAY (RAY)
2024-03-06 21:52:00威爾私密四不是也有一部嗎
作者:
linzero (【林】)
2024-03-06 21:53:00非我族類
作者:
LTfish (光時魚)
2024-03-06 21:54:00你不知道AI的“價值”是否與你一樣,做任何談到都需要價值
作者:
DAEVA 2024-03-06 21:55:00萬一有天AI能操控外界機器開始量產自己 那就真的完了
作者:
jahnny (孤行雁)
2024-03-06 21:55:00seed的自然人妒恨調整者
作者:
emptie ([ ])
2024-03-06 21:56:00啊?人完全理解人腦的決策邏輯了嗎?沒有啊
作者:
LTfish (光時魚)
2024-03-06 21:56:00判斷* 當對方需要價值判斷時會恐懼,例如車禍選擇的方向
作者:
LTfish (光時魚)
2024-03-06 21:57:00沒錯,誰來為AI的價值判斷背書
作者: PTTJim (迷戀伊人) 2024-03-06 21:58:00
像沙丘的故事背景也是發生過AI叛亂
如果今天AI遇到電車問題,你要怎麼說服群眾他的選擇是對的
智慧生物無法和另個智商高到足以在你睡覺時幹掉你的物種共存,如果現在的猩猩會搞暗殺的話早被滅絕了
作者:
jeeyi345 (letmein)
2024-03-06 22:01:00猩猩最近還要再上一部續集==
韭菜被人類割和被AI割有什麼差別?只有割韭菜的人才會怕變成AI的韭菜。支持AI統治世界。
作者:
jeeyi345 (letmein)
2024-03-06 22:04:00ai只是訓練他的人的價值觀的延伸 你覺得會按核彈的ai本來就會按人類就是那個幹掉人的猩猩吧 尼安德塔人
作者:
nahsnib (悟)
2024-03-06 22:06:00這個是學測作文嗎
作者:
tw15 (巴拉巴拉)
2024-03-06 22:06:00不是怕ai 是怕還沒有開發出ai中間過程會有各種剝削可能會砍到自己 不然工具發展哪有啥問題就像電動車 藍圖很完美很環保但現在就還沒達到完美儲電系統 怎麼開發都沒環保到哪去
你知道嗎 AI會不會故意說謊這件事才是人類最恐懼的
作者:
aa9012 (依君)
2024-03-06 22:12:00非我族其心必異=
作者: tim012345 (風) 2024-03-06 22:14:00
AI進化~人也會進化~最後看AI跟人誰先進化到不需要對方~
作者:
Annulene (tokser)
2024-03-06 22:16:00聽君一席話 如聽一席話
作者:
spfy (spfy)
2024-03-06 22:20:00如果變Chobits那種我覺得自己真的會暈爛 所以我真怕
作者: AfterDark (我祇是來借個電話) 2024-03-06 22:23:00
其實AI會不會反抗還是其次重點是 智慧生物如人類忍受不了「威脅」因為我們會思考 會想方設法存活 所以會對可能威脅到自己的東西有反應而人類對於正要誕生的AI就是有這種威脅的認識 自己可能要造出一個自己無法掌控的東西來 所以害怕人類提倡理性 科學思考 但是行動原理的根本依據還是在於生物情緒會害怕這種情緒可以對威脅產生預期反應讓自己有機會活下來所以我覺得這就是一種對未知的恐懼引發的爭論而已
作者:
samsonfu (samson_fu)
2024-03-06 22:27:00問就是電馭叛客世界觀從羅梭的萬能工人RUR、大都會開始就是這樣推tw15的剝削論
作者: gaaaaper (筷子王) 2024-03-06 22:35:00
沙丘的背景也有這種設定,可以去看看小說
作者:
Orodruin (Chris)
2024-03-06 22:54:00偷推海柏利昂(?
作者:
ihero (殉情未死)
2024-03-06 22:57:00不過,只有人可以負責,也是文藝復興後的人類中心主義道德觀的結果泛靈論跟中世紀倒不會這麼想
作者: cat5672 (尾行) 2024-03-06 22:57:00
擬人化AI是相對比較古老的概念 大概就是哆啦A夢的那個年代 這也是一直以來各種科幻文學電影很愛探討的情境 畢竟研究智慧 參考人腦似乎是首選 但實際上到目前的AI和腦科學是沒半點關係 尤其是可以現在可以用到的那些東西
作者:
linzero (【林】)
2024-03-06 22:58:00不過討論個現實問題,AI會不會要求人權之類的東西?若AI也有人權,那AI在量產方面遠優於人類。而且AI訓練生產時可能可以透過模型讓AI的選擇有特定的傾向那AI人權是否會被利用?所以很大程度就算給權益也會一開始就有限縮
作者:
jeeyi345 (letmein)
2024-03-06 23:04:00ai可能因為訓練的來源讓它產出要人權的內容然後一定會有ai人權鬥士
怕優勢轉移吧 怕AI對智人做出智人曾經對尼安德塔做的事
作者: tsai1453 (tsai) 2024-03-07 00:15:00
套個皮大家就不恐懼了->Neuro sama
作者:
eyb602 (幻忽飄隱)
2024-03-07 03:36:00會有這些問題都是因為AI還不夠好用 夠好用人們自然會想出解決這些問題的方法人權啊替代人類啊 我個人認為都是不必要的擔心 或者說擔心了也沒用 首先要機器擁有“自我”的意識 但目前的技術再怎麼升級也只會有有一個假的自我而已
作者:
lokuyan (哭阿)
2024-03-07 06:42:00ai版?