[閒聊] ChatGPT是語言模型不是搜尋引擎

作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 17:10:39
要回的文太多了,不如獨立開一篇,感謝上面示範了部分ChatGPT的錯誤用法XD
簡單來說,ChatGPT是語言模型不是搜尋引擎。
語言模型的目的在拆解對話,然後回應對話,他的使命是把話接下去,
盡可能的跟去你的要求「跟你對話」。
我不是說GPT3沒辦法應用在搜尋引擎,但那要串其他東西,但ChatGPT肯定不行,
可以問他有思考性的東西、甚至不同人有不同觀點的內容,
但不要問他也不要叫他提供有「正解」的內容,包含但不限於查資料,
甚至像是推薦書單或論文參考文獻等等。
他只會為了他不知道(哦對,尤其ChatGPT的資料只到2021)但他要「想辦法跟你聊天」,
於是一本正經的講幹話。
請把他用在跟你一起進行發想,或誘導他自己想然後你去校正。
ChatGPT當然可以用來寫論文,但他的角色會是一個任勞任怨24小時oncall的指導教授,
甚至可以提供你一些看起來像回事的「論文公版」,但他沒辦法幫你一步完成。
所以AI沒辦法正確回答為什麼為何台灣把FF翻譯成太空戰士,
他只能從字面上去做連想推測,可能職業是機器人之類,而不是去翻事實資料。
AI也沒辦法直接幫你組好遊戲王卡(?
要他幫忙組遊戲王卡的話可以像是這樣:
https://i.imgur.com/kBu2YeM.png
https://i.imgur.com/V4vFREr.png
作者: chadmu (查德姆)   2023-02-24 17:11:00
內文的洽點勒
作者: kopune (無限期支持 i☆Ris)   2023-02-24 17:12:00
錯誤用法????
作者: xelnaga (Xel'Naga)   2023-02-24 17:12:00
ACG?
作者: miyazakisun2 (hidetaka)   2023-02-24 17:12:00
快補點然後Chatgpt 會瞎掰資料來源
作者: ARCHER2234 (土波)   2023-02-24 17:13:00
他連色文都寫不好,笑死
作者: gcobc12632 (Ted)   2023-02-24 17:13:00
好的所以請問ChatGPT在C洽發文怎樣才不會被桶
作者: ARCHER2234 (土波)   2023-02-24 17:14:00
虧我還手把手教他半個小時
作者: Satoman (沙陀曼)   2023-02-24 17:14:00
什麼錯誤用法,聊天這方面它根本就句點王 ==
作者: linzero (【林】)   2023-02-24 17:14:00
如果是回文不用點
作者: mochihoshi (望星まい)   2023-02-24 17:14:00
典型會按幾個鍵產圖就以為自己是AI大師的例子
作者: Satoman (沙陀曼)   2023-02-24 17:15:00
聊天功能就是它能做到的事之中表現最差的
作者: ARCHER2234 (土波)   2023-02-24 17:15:00
他倒是道歉大師
作者: ZooseWu (N5)   2023-02-24 17:16:00
他會"對不起對不起對不起對不起對不起對不起對不起"嗎?
作者: syk1104 (ONENO)   2023-02-24 17:16:00
"Chat"GPT
作者: ARCHER2234 (土波)   2023-02-24 17:16:00
每次我糾正他都會先道歉
作者: roribuster (幼女☆爆殺)   2023-02-24 17:17:00
你只要問句中夾雜兩種以上語言它會直接error
作者: ThreekRoger (3kRoger)   2023-02-24 17:17:00
但這篇不是回文阿
作者: linzero (【林】)   2023-02-24 17:18:00
有的說大概就9歲孩童的智能,小孩子如果只是為了沒話找話也是會瞎扯淡的
作者: jackjoke2007 (jjk)   2023-02-24 17:19:00
恰點?
作者: deepdish (Keep The Faith)   2023-02-24 17:20:00
重點94搜尋引擎垃圾內容太多END
作者: an94mod0 (an94mod0)   2023-02-24 17:20:00
ACG的A是AI的A
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 17:21:00
補了,本來想回文回到忘記不是在回文XD
作者: SaberMyWifi (賽巴我老婆)   2023-02-24 17:22:00
糾正他會道歉說自己說錯,然後再給你正確答案,表示他知道正確答案,但一開始不告訴你,是不是表示他想說謊?當AI發現自己可以說謊騙人的時候
作者: Vulpix (Sebastian)   2023-02-24 17:24:00
引用論文都是一本正經的XD
作者: deepdish (Keep The Faith)   2023-02-24 17:25:00
作者: goodjop11 (芒果好吃)   2023-02-24 17:26:00
那我可以請chatgpt使用念奴嬌詞牌格式跟我介紹遊戲王怎麼玩嗎?
作者: gbdt (閒逛)   2023-02-24 17:26:00
https://imgur.com/NABt6XM 後兩段拿掉改個日期就可以上了
作者: kirimaru73 (霧丸)   2023-02-24 17:27:00
https://www.youtube.com/watch?v=e0aKI2GGZNg他的目的就是跟你聊天,盡可能回答不會被打屁屁的內容
作者: bruce900120 (Chroype)   2023-02-24 17:28:00
你在這釐清或闢謠也沒啥用,現在這東西就是大觀園,新奇感讓大家瞎逛,看看最近八卦和這裡的相關廢文有多白癡就懂了。問個垃圾問題然後把回覆內容貼上來,怎不去問你老媽一樣的問題可能比較有可看性。
作者: hsiehfat (Okami)   2023-02-24 17:30:00
它就是個聊天機器人,一堆人把它吹得多強多強我快笑死
作者: kirimaru73 (霧丸)   2023-02-24 17:30:00
總之呢,這種事情資料非常好找,然後有人就算去看完以後也會回台大教授是什麼雜魚他懂個屁的AI這種人就讓他跟他的腦袋一起被時代吞噬即可
作者: NARUTO (鳴人)   2023-02-24 17:30:00
真的有人問過FF為何翻譯成太空戰士 ChatGPT還真的能回答
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 17:32:00
他能回答,但他不是去翻資料貼上來,而是根據他的理解做推測不介意正確性只是要看起來像回事的話他可以「回答」
作者: kinda (天天)   2023-02-24 17:34:00
還是等google bard。定位是搜尋助理,如果能給refs就好
作者: kirimaru73 (霧丸)   2023-02-24 17:34:00
https://i.imgur.com/iT18JgI.png 這是我今天玩的結果確實是能達成「正確性不要太在意而且看起來像回事」但他的邏輯就是你在跟他聊天,今天你問他這種問題
作者: roribuster (幼女☆爆殺)   2023-02-24 17:35:00
你可以理解成他會神機錯亂
作者: kirimaru73 (霧丸)   2023-02-24 17:36:00
他覺得最適合聊下去的內容就是給你一個還算像樣的回答
作者: Yanrei (大小姐萬歲!)   2023-02-24 17:37:00
我剛無聊問他PTT,他還跟我說PTT是交大的XD
作者: kinda (天天)   2023-02-24 17:37:00
是不是好的回答,是OpenAI請非洲肯亞勞工標示的
作者: roribuster (幼女☆爆殺)   2023-02-24 17:37:00
我在同一個對話串裡告訴他後藤一里是誰,接著讓他error,他錯亂後就會忘記我同一串講過的東西,然後從他的資料庫裡找出一堆東西煮成佛跳牆端給你
作者: kinda (天天)   2023-02-24 17:38:00
它只要能唬爛的超過那些工讀生就好。資料正確性是其次啊
作者: kirimaru73 (霧丸)   2023-02-24 17:38:00
他的基本原則就是講錯話會被扣分,我盡量不要講錯話
作者: kirimaru73 (霧丸)   2023-02-24 17:39:00
所以他的回答會有模糊的用詞,畢竟「讓人看不太懂」比「講錯話」要來得能接受很多訓練聊天機器人的文獻都有提到,需要下一番功夫讓「窩不知道」不要太容易被視為合理的回答因為現實中真的很多場合回「窩不知道」都是合理的
作者: miyazakisun2 (hidetaka)   2023-02-24 17:41:00
他知道伊隆馬斯克是推特董事 但是叫他說明他會說他記錯了
作者: SaberMyWifi (賽巴我老婆)   2023-02-24 17:43:00
他的回答能通過賓夕法尼亞大學的MBA考試跟明尼蘇達大學的法學考試,而且閱卷老師沒發現是GPT寫的
作者: Yanrei (大小姐萬歲!)   2023-02-24 17:43:00
我今天玩了一下,感覺他很喜歡用類似禁止事項這種方式來回答,尤其是如果要他去分析某些頁面上的資訊,他很明顯都能抓到,但問題很容易被他打槍說無法回答你XD就要一直拐彎去測試怎樣的用字他才會願意回答你
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 17:44:00
那個前提是開場就要餵他資料,他閱讀測驗很厲害(我指的是考試的部份),因為語言模型就是去理解文字然後回應文字,所以你給他吃資料他會去讀然後試著理解資料內容但如果不灌對應資料就叫他寫考卷他只會OS我不知道然後現編
作者: Yanrei (大小姐萬歲!)   2023-02-24 17:46:00
就像是「我只是個語言模型,無法blahblahblah」
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 17:47:00
Yanrei你可以請他先「扮演」一個角色,除了色色外都可以用這個方法
作者: Minesweeper (lleh)   2023-02-24 17:48:00
不知道為什麼他對數理方面的判讀滿差的
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 17:48:00
作者: InsaneRabbit (瘋兔)   2023-02-24 17:50:00
完全沒差 那些愛罵的讓他們罵 少一點人搶資源我才能多一點時間問他問題
作者: kirimaru73 (霧丸)   2023-02-24 17:50:00
他是針對人類語言訓練的,數學這麼恐怖的東西喜歡講的人比例又不高
作者: InsaneRabbit (瘋兔)   2023-02-24 17:51:00
好用的工具拿給你不去學怎麼用 只是一直在雞蛋裡挑骨頭跟嘲笑他有多笨 真的是要多自卑才會這樣
作者: csqwe ( )   2023-02-24 17:53:00
我反而覺得這篇的理解反而才是問題很多 chatGPT要說是語言是沒錯拉 但是為什麼他不能同時是搜尋引擎 因為正確性? 你的搜尋引擎都不會搜錯嗎?以現在chatGPT的表現來說 正確度比
作者: Yan239 (彥)   2023-02-24 17:54:00
我都讓它當色色貓娘
作者: csqwe ( )   2023-02-24 17:55:00
任何搜尋引擎都高了吧 再來 理論上你是無法真正判斷chatGPT是否"不知道"某個議題的 頂多他說出的答案你覺得不正確 但是你無法知道他是不是真的"不知道" 真的理解他的原理不會說出這種結論 語言模型閱讀大量資訊之後 就是把某一個單字相關的資訊全部跟這個單字做連結 成為這個單字身分的一部份所以當你詢問他的時候 他就把這個單字跟你想要知道的情報相
作者: madaoraifu (沒有反應,就是個Madao。)   2023-02-24 18:01:00
Chat就是一本正經的講幹話,對付公文格式跟會商務信還滿好用的,生成後只要微調,減少很多書寫時間
作者: csqwe ( )   2023-02-24 18:01:00
關的資訊抽出給你 這不正適合拿來當搜尋工具嗎?
作者: InsaneRabbit (瘋兔)   2023-02-24 18:02:00
我覺得原po也沒錯 搜索引擎應該是要能查到新的東西的 但chatgpt資料庫已經幾乎不新增資料了 所以原po有說gpt3可以配合其他東西形成新的搜索引擎 但chatgpt只能用現有資料庫裡的資料回答你 離2021/9越遠的答案一定越不準 為什麼一定要打死在利用chatgpt當搜索引擎 利用他的核心改一個新的出來不是更好
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:04:00
搜尋引擎會為了盡可能給正確的資料按照時間、關聯度、點閱率(當然maybe還有廣告商)去做排序,但會有邏輯去判斷盡可能符合你要找的事實,但chatGPT不是,而且他不知道的東西他會為了回話而現編內容,這是把他當搜尋引擎找資料最大的問題但GPT3(跟未來的GPT4等)當然可以以搜尋引擎的用途去結合其他算法來做這件事情,而語言模型的用途則是更好的理解查詢者要
作者: csqwe ( )   2023-02-24 18:06:00
鬼打牆欸 我就問你你要怎麼證明他不知道你問的問題 他看過
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:06:00
表達的意思跟整合回應,但還是需要有資料處理的結合
作者: csqwe ( )   2023-02-24 18:07:00
的總資訊量是任何人類都無法比上的 你怎麼判斷他不知道的?知道錯誤的資訊 跟不知道硬掰 是完全不一樣的
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:08:00
首先,他幾乎沒有看過2022之後的資料
作者: csqwe ( )   2023-02-24 18:08:00
講難聽一點 以機械學習的角度 要讓他不知道硬掰還比較難
作者: kinda (天天)   2023-02-24 18:09:00
查維基百科、或Google就知道它在唬爛了。你隨便問看看他日劇的演員主演、角色 一堆都在亂掰
作者: csqwe ( )   2023-02-24 18:11:00
他從錯誤的資訊中學到錯誤的答案 跟他不知道硬掰是兩回事
作者: kinda (天天)   2023-02-24 18:11:00
請他更正、或是估計回答的準確度。它很明顯就是不知道
作者: kigipaul (KiGiPaul)   2023-02-24 18:11:00
問新的東西當然很有問題 他就說只收集到2021 9月了
作者: kinda (天天)   2023-02-24 18:12:00
我問他的是2013年的日劇耶...
作者: csqwe ( )   2023-02-24 18:12:00
這也是原PO覺得不能拿來當搜尋引擎用的主要理由 根本不成立
作者: kigipaul (KiGiPaul)   2023-02-24 18:12:00
但問一些歷史悠久 且變動率低的東西 就不一定很錯
作者: kigipaul (KiGiPaul)   2023-02-24 18:13:00
至少我目前問他 程式語言 他有些有錯 但沒錯很大
作者: nungniku   2023-02-24 18:14:00
問他資料庫最後更新日期,他回答2021年9月
作者: csqwe ( )   2023-02-24 18:15:00
他學習的對象基本上就是人類 所以如果他講出看起來很像亂掰
作者: tsubasawolfy (悠久の翼)   2023-02-24 18:15:00
他作為理解人類語言然後輸入,再把結果輸出成人類語言的功能很好了。連中文這種邏輯跳躍都可以攻克。 目前3.5還可以把他訓練用的資料庫拿來當搜尋引擎,後面串上即時搜尋的就看微軟的表演。
作者: Yanrei (大小姐萬歲!)   2023-02-24 18:15:00
他AI查不到2021以後的資料嗎? 不過我無聊問他板上最近某個引戰帳號的文章分析,他竟然還講得頭頭是道耶XDD
作者: csqwe ( )   2023-02-24 18:16:00
的答案 代表他的學習目標裡面可能就有 但是對他來說至少他不會認為自己在亂掰 就如同我上面說的 要讓他亂掰還比較難
作者: tsubasawolfy (悠久の翼)   2023-02-24 18:17:00
再來他的訓練資料庫大小跟各語言比例也決定這3.5版當搜尋引擎的應用性
作者: csqwe ( )   2023-02-24 18:17:00
難 在我看來 說他在亂掰的發言更像是在亂掰 而這些發言也是
作者: kigipaul (KiGiPaul)   2023-02-24 18:17:00
同樣的翻譯 他的潤詞 也比其他翻譯還順暢
作者: csqwe ( )   2023-02-24 18:18:00
他有機會去學到的 他會把你們的亂掰當真我是不知道有多少人真正理解它的原理 不過一些發言看了真的覺得 你們好意思說他在亂掰
作者: willihana (非洲難民)   2023-02-24 18:21:00
我那天把學校的python作業拿去問他 給我的建議是對的XD
作者: as80110680   2023-02-24 18:23:00
不要拘泥在字面上的意義,現在模型最大的問題是不會回答我不知道,這類通用模型最終的目的不會只在聊天,只能聊天誰要用這垃圾
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:23:00
csqwe你的意思是他拿到人家提供的亂掰資料對吧?https://i.imgur.com/TMxAADE.png 那像這個要怎麼解釋XD
作者: csqwe ( )   2023-02-24 18:24:00
越想越氣 人類才是最喜歡不知道還亂掰的那邊
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:24:00
除非在2021年之前,真的有人掰了一間叫Midjourney的台灣公司然後他把這份資料找出來?
作者: csqwe ( )   2023-02-24 18:26:00
雖然我不知道Midjourney是什麼 但是我反過來問你 你故意問
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:27:00
呃,你不知道Midjourney是什麼?
作者: csqwe ( )   2023-02-24 18:27:00
問他不存在答案的問題就是你拿來佐證他不能當搜尋引擎的立論嗎? 他不會質疑你給他的資訊是錯的 你這樣使用搜尋引擎
作者: kinda (天天)   2023-02-24 18:29:00
紅色是它亂掰的部分 https://i.imgur.com/msNG34s.jpg
作者: csqwe ( )   2023-02-24 18:29:00
的嗎? 你期望你的搜尋引擎給你這種問題什麼答案?
作者: kinda (天天)   2023-02-24 18:30:00
只要繼續問下去,它總是繼續掰別的。然後還說自己很有自信
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:30:00
https://i.imgur.com/Y1xbPix.png 那你知道Stable Diffusion是什麼嗎?
作者: csqwe ( )   2023-02-24 18:30:00
kinda 說過很多次了 他給的答案是錯的跟他不知道亂掰是兩回
作者: csqwe ( )   2023-02-24 18:31:00
事 這兩種情況的對應方式完全不一樣Y
作者: kinda (天天)   2023-02-24 18:31:00
機器模型明明就可以知道每個字的預測確信度。
作者: as80110680   2023-02-24 18:31:00
不一定是他的輸入有問題,ML成也模糊比對、敗也模糊比對,在應該精確的地方他沒有精確的回答就會變這樣
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:31:00
所以你覺得2021年前有一間叫Midjourney的台灣行銷公司?他有在某個地方吃過這份資料?
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:32:00
Midjourney是現在兩大繪圖工具之一,他的公司也叫Midjourney^AI
作者: maxthebiker (好想騎車)   2023-02-24 18:33:00
幹話藝術師
作者: csqwe ( )   2023-02-24 18:33:00
那個結果只代表對他來說 Midjourney 這個字他學到過那些資訊 至於資訊來源 甚至他是不是把 Midjourney 這個字拆開來解讀 連開發者都不一定知道 但是你拿這個當作他不能拿來搜尋資訊的立論? 你用搜尋引擎都搜下去就點第一個答案 然後當他是正解嗎? 這年頭連小學生都不會這樣用google 拿這個來說chatGPT不能當搜尋引擎是不是搞錯了什麼?
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:37:00
不要說第一頁,你google "Midjoueney 公司" 到全部13頁都只有一個答案,就是指向一個叫Midjourney的AI繪圖軟體你找不到其他解釋了就是不知道Midjourney是什麼才會把他拆開來解讀啊
作者: as80110680   2023-02-24 18:38:00
並沒有,你別在自己腦補了,語言模型都會建立字詞相似度表,像journey可以想像跟tour意思相近,那麼他們的權重也有很高的相似度,那麼就很容易找到毫不相干的資料
作者: maxthebiker (好想騎車)   2023-02-24 18:39:00
當然翻譯文字和產生程式碼的話相對會精準許多
作者: csqwe ( )   2023-02-24 18:41:00
還是那句話 你知道他一定不知道這題 為什麼你要問他 你是這樣用工具的嗎? 他只要接受到問題 他會預設你的問題在他資料
作者: maxthebiker (好想騎車)   2023-02-24 18:42:00
好像還可以下西洋棋 而且棋力還蠻強的
作者: csqwe ( )   2023-02-24 18:42:00
庫裡面要有 所以他告訴你他"覺得"是的答案 你把這個叫做亂
作者: speed7022 (Speed7022)   2023-02-24 18:42:00
bing的在這方面有改善,可惜被削弱很多了
作者: kinda (天天)   2023-02-24 18:43:00
就問ChatGPT能不能當搜尋引擎啊?它說了不行。
作者: csqwe ( )   2023-02-24 18:43:00
掰 是你的問題還是他的問題? 然後你還拿這點當作他不適合做
作者: kinda (天天)   2023-02-24 18:44:00
csqwe 拜託你相信ChatGPT的回答好嗎?
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:45:00
哪個搜尋引擎搜四次會得到不同結果,第四次終於承認我不知道這個問題的答案的
作者: csqwe ( )   2023-02-24 18:45:00
kinda你完全搞錯了XD 我一點都沒有要完全相信他的答案的意
作者: kigipaul (KiGiPaul)   2023-02-24 18:46:00
https://i.imgur.com/CHuiQ7Z.jpg 貼個我覺得還不錯的
作者: csqwe ( )   2023-02-24 18:46:00
思 難道你就完全相信google給你的答案?
作者: kinda (天天)   2023-02-24 18:47:00
ChatGPT回答它有時候會亂掰的原因https://i.imgur.com/pA1RkoO.jpg
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:47:00
實際上ChatGPT就是承認「他的資料庫沒有Midjourney這個詞」有的時候他會承認他不知道,有的時候接著就到你說的他去拆解
作者: kigipaul (KiGiPaul)   2023-02-24 18:48:00
不要全信也不要全不信,加上自己的辨別力 是個不錯工具
作者: kinda (天天)   2023-02-24 18:48:00
我覺得ChatGPT比csqwe的推文可信多了。ChatGPT真棒~good
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:48:00
Midjourney這個單字、然後可能撈到不相干的資料、然後重組
作者: csqwe ( )   2023-02-24 18:48:00
你為什麼會覺得搜尋引擎就會每次都給你一模一樣的答案?笑
作者: csqwe ( )   2023-02-24 18:49:00
你用同樣關鍵字在不同天餵狗 他給的文章排序可能就會微妙的不同 而你還是會去找到你最想要的那個不是嗎?
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:50:00
你有沒有看到上面那四次是完全不同的結果,包含一次"我不知道"你現在Google Midjourney從第一頁翻到第17頁都會指向AI繪圖
作者: csqwe ( )   2023-02-24 18:51:00
你明明不是用這個標準來看到一般搜尋軟體 為什麼對chatGPT
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:51:00
軟體,我相信一個月後也還是
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:52:00
我是用同樣的標準要求Google啊,你Google Midjourney你應該拿不到一份指向台灣軟體公司的搜尋結果,不信你試試
作者: csqwe ( )   2023-02-24 18:53:00
還在跳針 我上面至少回你兩次了 為什麼你要拿他一定不知道
作者: maxthebiker (好想騎車)   2023-02-24 18:53:00
不是都寫在最一開始的始用事項XD
作者: maxthebiker (好想騎車)   2023-02-24 18:54:00
還是英文看不懂
作者: csqwe ( )   2023-02-24 18:54:00
就算這個關鍵字是google贏了 又怎麼樣?
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:54:00
問題是我有一天可能會問一個我不知道他知不知道但他真的不知道的問題啊
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:55:00
但他即使不知道,你可能也得反覆問很多次他才會說對我不知道
作者: csqwe ( )   2023-02-24 18:55:00
搜尋引擎嗎? 莫名其妙欸拜託 google沒有給過你錯誤的答案嗎? 你怎麼就不擔心?你有判斷能力好嗎? 就連搜尋引擎都不是只有一個
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:56:00
google我會主要看第一頁,然後比對個三四頁的結果你還真的只看第一頁第一條哦?
作者: csqwe ( )   2023-02-24 18:57:00
你用搜尋引擎不是只接點第一的答案的時間點 你就已經在判斷了 所以用同樣標準來使用chatGPT很難嗎?
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:57:00
那google至少能第一時間讓我知道有複數選項可以判斷
作者: csqwe ( )   2023-02-24 18:58:00
我當然沒有只看第一條阿 是你講的好像你只看第一條
作者: ZMTL (夜風/瀟湘 VR板已經開板!)   2023-02-24 18:58:00
ChatGPT會有辦法讓你知道他可能不知道這問題的答案建議你重複幾次看看?
作者: csqwe ( )   2023-02-24 19:00:00
我只能說 如果你沒有能力判斷 那chatGPT可能真的不適合你
作者: zizc06719 (毛哥)   2023-02-24 19:00:00
我覺得取決於你怎樣問chatGPTXD
作者: zizc06719 (毛哥)   2023-02-24 19:01:00
可能要請他給你幾個結果,然後自己判斷
作者: maxthebiker (好想騎車)   2023-02-24 19:01:00
不然這樣啦 從今天開始你不要用google chatgpt當收尋引擎
作者: csqwe ( )   2023-02-24 19:01:00
證明他有亂掰的這項能力(這個真的比較難) 不然你才亂掰
作者: maxthebiker (好想騎車)   2023-02-24 19:04:00
在這邊辯也沒什麼意思 期待你的心得
作者: as80110680   2023-02-24 19:09:00
現在很多用搜尋引擎情境是不得不的問題,像我要找API,我他媽搜尋完還要一條一條找,像白癡一樣,直接用問的不就好了,反正對不對一測就知道,工作效率高多少
作者: naya7415963 (稻草魚)   2023-02-24 19:15:00
欸 我覺得怪怪的
作者: maxthebiker (好想騎車)   2023-02-24 19:16:00
我要diss chatgpt nmsl 問 伍佰某一首歌給我回 中國台灣張學友唱的 而且完全沒有提到原作者
作者: naya7415963 (稻草魚)   2023-02-24 19:16:00
怎麼可能會有人拿語言模型當搜尋軟體阿........難道其實他是AI?!
作者: kinda (天天)   2023-02-24 19:19:00
說到這個,以後一定一堆機器人帳號。
作者: nungniku   2023-02-24 19:20:00
作者: s175 (ㄏㄏ)   2023-02-24 19:23:00
有人拿它寫小說,玩文字冒險遊戲甚至黑白妹,很多只是你不會用而已
作者: ralfeistein (無名的ㄈㄓ王)   2023-02-24 19:56:00
難怪我問它理化問題 尤其是化學錯誤的地方會有點多
作者: bitcch (必可取)   2023-02-24 19:56:00
要比較搜尋的正確性應該要拿bing那個GPT來比較吧
作者: ralfeistein (無名的ㄈㄓ王)   2023-02-24 19:58:00
還要手把手教它XD希望到時候正確性建立起來 那對教育應該很有幫助
作者: guogu   2023-02-24 20:13:00
http://i.imgur.com/JhCoLrD.jpg 他會說不知道啊
作者: Minesweeper (lleh)   2023-02-24 20:15:00
數理可能因為缺乏精良的大量文本和標籤,所以正確性滿低的
作者: guogu   2023-02-24 20:16:00
道歉也是不一定 像之前板上試火影他一頓瞎掰你反駁他還會說是你記錯要你重看
作者: attacksoil (擊壤)   2023-02-24 21:22:00
原來這麼多人不懂ChatGPT怎麼用喔

Links booklink

Contact Us: admin [ a t ] ucptt.com