Re: [新聞] ChatGPT的「幻覺」根本無法解

作者: xa9277178 (楓曦)   2023-08-10 10:25:36
※ 引述《breeze0817 ()》之銘言:
: 原文標題:
: 技術專家:ChatGPT的「幻覺」根本無法解決
: 原文連結:
: https://reurl.cc/N0KRy6
: 發布時間:
: 2023/08/09 15:58
: 記者署名:
: 鉅亨網新聞中心
: 原文內容:
: 掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或
: 誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「
: 幻覺」受到技術與需求之間的限制,根本無法被解決。
: 財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發
: 現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編
: 造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命
: 的問題。
: 聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒
: 有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞,
: 因此模型肯定會有一定的錯誤率。
: 包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者
: 都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠
: 的可靠性。
: 不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問
: 題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」
: Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美
: 聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A
: I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這
: 將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。
: 心得/評論:
: chatGPT訪問量一再下滑
: 一窩蜂投資ai伺服器去訓練語言模型的
: 越來越有元宇宙的fu糗了
: 散戶:這次不一樣!!
純論AI的話 這個問題是一定可以被解決的
討論chatGPT肯定是無解 頂多提升準確度 提升到你認知不到「錯覺」
我自己是覺得用錯覺這個詞來闡述這個問題 好像滿奇怪的
簡單思考一下就知道了
假設AI是個人 他肯定會有他自己的認知
他的認知來自於他的資料庫
但誰能保證資料庫裡面的資料100%是對的?
畢竟資料庫的資料也是人為產出,或是他的開發者灌入的
最終都會限縮於:「什麼是對的」的這個命題
並且有一個很弔詭的事情是這樣的
「你憑什麼認為AI給出的答案是錯的,便稱作幻覺,難道就是基於人類的共同認知嗎?」
這個東西討論到後面就變成哲學問題了,所以不贅述。
但核心概念是這樣
一個人,老師,教授,都會有認知錯誤,都會出錯,為什麼人工智能不會
基於什麼樣的原因,你覺得他能掌握100%的真理,這樣想想不就知道了
但是基於網速科技提升,資料處理能力加強,程序優化肯定能再進步
回歸前面所說的,只要把AI的範圍侷限性拉大,就能提升正確率阿
比如你設定這個AI就叫做金融投資機器人,甚至叫做台灣金融投資機器人
並且串聯所有台灣銀行、投資平台、各大當鋪的內部資料
那肯定是強的沒話說。
你期待一個AI機器人,能貫通世界上所有領域的事情,給你都是正確的答案
那肯定是不切實際。
更何況一定一堆人是這樣:「請給我一個完美的python程序。」
「幹,你這個根本不完美」
你自己都定義不出來,都不知道什麼叫做完美了,AI怎麼可能會知道
你怎麼連話都說不清楚~
我自己是覺得AI很神啦,沒有戰文組的意思,但對於邏輯思考,表述能力不好的人來說
可能不好用
我在某平台上面,買了好幾次程式課,每次都沒有耐心看完,把作業做完。
chatgpt用了兩三天,已經弄出了兩個簡單的小程式,改善我工作上面的需求
平心而論,我就算認真把課程都上完,自己寫,寫個1個月,大概都弄不出來。
AI最強大的,就是他給你的資訊裡面,是有一定程度的正確率的,
你本來就要能分辨,什麼東西對你有用,然後再引導他幫助你,給出更多有用的資訊,
最後幫助你完成你的目標。
作者: herculus6502 (金麟豈是池中物)   2023-08-10 10:54:00
光要分辨哪裏有錯就搞死你,自動產生程式根本科科
作者: leo125160909 (中興黃藥師)   2023-08-10 11:07:00
公三小
作者: benjamin8312 (Zuo)   2023-08-10 12:35:00
AI 跟 公式推導本身就是不一樣的東西,AIV出來的東西就不是100%一樣,是一個信心度的問題,現在就是AI對原資料做了未知的剖析,根本不是參照資料有沒有假的問題
作者: sharline1013 (Sharline)   2023-08-10 12:35:00
我是拿我自己整好的資料請他減少冗句和分段,就會發現他完全誤解其中一段的主題然後亂湊,但別人乍看真的看不出來
作者: niburger1001 (妮妮漢堡)   2023-08-10 12:43:00
gigo
作者: SapiensChang (Sapiens~)   2023-08-10 14:30:00
能夠輔助人類使用的ai大概需要客製化啦但必須要說 能夠達到輔助人類使用 覺得很堪用到有龐大的商業價值 大概至少5年內不會發生 但我認為是10年內 再來覺得幻覺能夠被解決這件事 就是外行人的幻想而已我發現很多ai迷信者都會在那堅信ai有天什麼事都會被解決 但說真的就跟外星人被發現一樣現在就是莫名其妙的低能論調舉例來說 ai現在都無法判讀人類文字情緒了 連那麼基本的事 ai都做不到 是要怎麼克服後面根本稍微難 但對人類大概是呼吸等級的事

Links booklink

Contact Us: admin [ a t ] ucptt.com