作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 17:10:39要回的文太多了,不如獨立開一篇,感謝上面示範了部分ChatGPT的錯誤用法XD
簡單來說,ChatGPT是語言模型不是搜尋引擎。
語言模型的目的在拆解對話,然後回應對話,他的使命是把話接下去,
盡可能的跟去你的要求「跟你對話」。
我不是說GPT3沒辦法應用在搜尋引擎,但那要串其他東西,但ChatGPT肯定不行,
可以問他有思考性的東西、甚至不同人有不同觀點的內容,
但不要問他也不要叫他提供有「正解」的內容,包含但不限於查資料,
甚至像是推薦書單或論文參考文獻等等。
他只會為了他不知道(哦對,尤其ChatGPT的資料只到2021)但他要「想辦法跟你聊天」,
於是一本正經的講幹話。
請把他用在跟你一起進行發想,或誘導他自己想然後你去校正。
ChatGPT當然可以用來寫論文,但他的角色會是一個任勞任怨24小時oncall的指導教授,
甚至可以提供你一些看起來像回事的「論文公版」,但他沒辦法幫你一步完成。
所以AI沒辦法正確回答為什麼為何台灣把FF翻譯成太空戰士,
他只能從字面上去做連想推測,可能職業是機器人之類,而不是去翻事實資料。
AI也沒辦法直接幫你組好遊戲王卡(?
要他幫忙組遊戲王卡的話可以像是這樣:
https://i.imgur.com/kBu2YeM.png
https://i.imgur.com/V4vFREr.png
作者:
chadmu (查德姆)
2023-02-24 17:11:00內文的洽點勒
作者:
kopune (ç„¡é™æœŸæ”¯æŒ i☆Ris)
2023-02-24 17:12:00錯誤用法????
作者:
xelnaga (Xel'Naga)
2023-02-24 17:12:00ACG?
好的所以請問ChatGPT在C洽發文怎樣才不會被桶
作者:
Satoman (沙陀曼)
2023-02-24 17:14:00什麼錯誤用法,聊天這方面它根本就句點王 ==
作者:
linzero (【林】)
2023-02-24 17:14:00如果是回文不用點
作者:
Satoman (沙陀曼)
2023-02-24 17:15:00聊天功能就是它能做到的事之中表現最差的
作者:
ZooseWu (N5)
2023-02-24 17:16:00他會"對不起對不起對不起對不起對不起對不起對不起"嗎?
作者: syk1104 (ONENO) 2023-02-24 17:16:00
"Chat"GPT
作者:
linzero (【林】)
2023-02-24 17:18:00有的說大概就9歲孩童的智能,小孩子如果只是為了沒話找話也是會瞎扯淡的
作者:
deepdish (Keep The Faith)
2023-02-24 17:20:00重點94搜尋引擎垃圾內容太多END
作者:
an94mod0 (an94mod0)
2023-02-24 17:20:00ACG的A是AI的A
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 17:21:00補了,本來想回文回到忘記不是在回文XD
糾正他會道歉說自己說錯,然後再給你正確答案,表示他知道正確答案,但一開始不告訴你,是不是表示他想說謊?當AI發現自己可以說謊騙人的時候
作者:
Vulpix (Sebastian)
2023-02-24 17:24:00引用論文都是一本正經的XD
作者:
deepdish (Keep The Faith)
2023-02-24 17:25:00那我可以請chatgpt使用念奴嬌詞牌格式跟我介紹遊戲王怎麼玩嗎?
作者:
gbdt (閒逛)
2023-02-24 17:26:00作者: bruce900120 (Chroype) 2023-02-24 17:28:00
你在這釐清或闢謠也沒啥用,現在這東西就是大觀園,新奇感讓大家瞎逛,看看最近八卦和這裡的相關廢文有多白癡就懂了。問個垃圾問題然後把回覆內容貼上來,怎不去問你老媽一樣的問題可能比較有可看性。
作者:
hsiehfat (Okami)
2023-02-24 17:30:00它就是個聊天機器人,一堆人把它吹得多強多強我快笑死
總之呢,這種事情資料非常好找,然後有人就算去看完以後也會回台大教授是什麼雜魚他懂個屁的AI這種人就讓他跟他的腦袋一起被時代吞噬即可
作者:
NARUTO (鳴人)
2023-02-24 17:30:00真的有人問過FF為何翻譯成太空戰士 ChatGPT還真的能回答
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 17:32:00他能回答,但他不是去翻資料貼上來,而是根據他的理解做推測不介意正確性只是要看起來像回事的話他可以「回答」
作者:
kinda (天天)
2023-02-24 17:34:00還是等google bard。定位是搜尋助理,如果能給refs就好
他覺得最適合聊下去的內容就是給你一個還算像樣的回答
作者:
Yanrei (大å°å§è¬æ²ï¼)
2023-02-24 17:37:00我剛無聊問他PTT,他還跟我說PTT是交大的XD
作者:
kinda (天天)
2023-02-24 17:37:00是不是好的回答,是OpenAI請非洲肯亞勞工標示的
我在同一個對話串裡告訴他後藤一里是誰,接著讓他error,他錯亂後就會忘記我同一串講過的東西,然後從他的資料庫裡找出一堆東西煮成佛跳牆端給你
作者:
kinda (天天)
2023-02-24 17:38:00它只要能唬爛的超過那些工讀生就好。資料正確性是其次啊
所以他的回答會有模糊的用詞,畢竟「讓人看不太懂」比「講錯話」要來得能接受很多訓練聊天機器人的文獻都有提到,需要下一番功夫讓「窩不知道」不要太容易被視為合理的回答因為現實中真的很多場合回「窩不知道」都是合理的
他知道伊隆馬斯克是推特董事 但是叫他說明他會說他記錯了
他的回答能通過賓夕法尼亞大學的MBA考試跟明尼蘇達大學的法學考試,而且閱卷老師沒發現是GPT寫的
作者:
Yanrei (大å°å§è¬æ²ï¼)
2023-02-24 17:43:00我今天玩了一下,感覺他很喜歡用類似禁止事項這種方式來回答,尤其是如果要他去分析某些頁面上的資訊,他很明顯都能抓到,但問題很容易被他打槍說無法回答你XD就要一直拐彎去測試怎樣的用字他才會願意回答你
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 17:44:00那個前提是開場就要餵他資料,他閱讀測驗很厲害(我指的是考試的部份),因為語言模型就是去理解文字然後回應文字,所以你給他吃資料他會去讀然後試著理解資料內容但如果不灌對應資料就叫他寫考卷他只會OS我不知道然後現編
作者:
Yanrei (大å°å§è¬æ²ï¼)
2023-02-24 17:46:00就像是「我只是個語言模型,無法blahblahblah」
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 17:47:00Yanrei你可以請他先「扮演」一個角色,除了色色外都可以用這個方法
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 17:48:00完全沒差 那些愛罵的讓他們罵 少一點人搶資源我才能多一點時間問他問題
他是針對人類語言訓練的,數學這麼恐怖的東西喜歡講的人比例又不高
好用的工具拿給你不去學怎麼用 只是一直在雞蛋裡挑骨頭跟嘲笑他有多笨 真的是要多自卑才會這樣
作者:
csqwe ( )
2023-02-24 17:53:00我反而覺得這篇的理解反而才是問題很多 chatGPT要說是語言是沒錯拉 但是為什麼他不能同時是搜尋引擎 因為正確性? 你的搜尋引擎都不會搜錯嗎?以現在chatGPT的表現來說 正確度比
作者:
Yan239 (彥)
2023-02-24 17:54:00我都讓它當色色貓娘
作者:
csqwe ( )
2023-02-24 17:55:00任何搜尋引擎都高了吧 再來 理論上你是無法真正判斷chatGPT是否"不知道"某個議題的 頂多他說出的答案你覺得不正確 但是你無法知道他是不是真的"不知道" 真的理解他的原理不會說出這種結論 語言模型閱讀大量資訊之後 就是把某一個單字相關的資訊全部跟這個單字做連結 成為這個單字身分的一部份所以當你詢問他的時候 他就把這個單字跟你想要知道的情報相
作者:
madaoraifu (沒有反應,就是個Madao。)
2023-02-24 18:01:00Chat就是一本正經的講幹話,對付公文格式跟會商務信還滿好用的,生成後只要微調,減少很多書寫時間
作者:
csqwe ( )
2023-02-24 18:01:00關的資訊抽出給你 這不正適合拿來當搜尋工具嗎?
我覺得原po也沒錯 搜索引擎應該是要能查到新的東西的 但chatgpt資料庫已經幾乎不新增資料了 所以原po有說gpt3可以配合其他東西形成新的搜索引擎 但chatgpt只能用現有資料庫裡的資料回答你 離2021/9越遠的答案一定越不準 為什麼一定要打死在利用chatgpt當搜索引擎 利用他的核心改一個新的出來不是更好
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:04:00搜尋引擎會為了盡可能給正確的資料按照時間、關聯度、點閱率(當然maybe還有廣告商)去做排序,但會有邏輯去判斷盡可能符合你要找的事實,但chatGPT不是,而且他不知道的東西他會為了回話而現編內容,這是把他當搜尋引擎找資料最大的問題但GPT3(跟未來的GPT4等)當然可以以搜尋引擎的用途去結合其他算法來做這件事情,而語言模型的用途則是更好的理解查詢者要
作者:
csqwe ( )
2023-02-24 18:06:00鬼打牆欸 我就問你你要怎麼證明他不知道你問的問題 他看過
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:06:00表達的意思跟整合回應,但還是需要有資料處理的結合
作者:
csqwe ( )
2023-02-24 18:07:00的總資訊量是任何人類都無法比上的 你怎麼判斷他不知道的?知道錯誤的資訊 跟不知道硬掰 是完全不一樣的
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:08:00首先,他幾乎沒有看過2022之後的資料
作者:
csqwe ( )
2023-02-24 18:08:00講難聽一點 以機械學習的角度 要讓他不知道硬掰還比較難
作者:
kinda (天天)
2023-02-24 18:09:00查維基百科、或Google就知道它在唬爛了。你隨便問看看他日劇的演員主演、角色 一堆都在亂掰
作者:
csqwe ( )
2023-02-24 18:11:00他從錯誤的資訊中學到錯誤的答案 跟他不知道硬掰是兩回事
作者:
kinda (天天)
2023-02-24 18:11:00請他更正、或是估計回答的準確度。它很明顯就是不知道
作者:
kigipaul (KiGiPaul)
2023-02-24 18:11:00問新的東西當然很有問題 他就說只收集到2021 9月了
作者:
kinda (天天)
2023-02-24 18:12:00我問他的是2013年的日劇耶...
作者:
csqwe ( )
2023-02-24 18:12:00這也是原PO覺得不能拿來當搜尋引擎用的主要理由 根本不成立
作者:
kigipaul (KiGiPaul)
2023-02-24 18:12:00但問一些歷史悠久 且變動率低的東西 就不一定很錯
作者:
kigipaul (KiGiPaul)
2023-02-24 18:13:00至少我目前問他 程式語言 他有些有錯 但沒錯很大
作者: nungniku 2023-02-24 18:14:00
問他資料庫最後更新日期,他回答2021年9月
作者:
csqwe ( )
2023-02-24 18:15:00他學習的對象基本上就是人類 所以如果他講出看起來很像亂掰
他作為理解人類語言然後輸入,再把結果輸出成人類語言的功能很好了。連中文這種邏輯跳躍都可以攻克。 目前3.5還可以把他訓練用的資料庫拿來當搜尋引擎,後面串上即時搜尋的就看微軟的表演。
作者:
Yanrei (大å°å§è¬æ²ï¼)
2023-02-24 18:15:00他AI查不到2021以後的資料嗎? 不過我無聊問他板上最近某個引戰帳號的文章分析,他竟然還講得頭頭是道耶XDD
作者:
csqwe ( )
2023-02-24 18:16:00的答案 代表他的學習目標裡面可能就有 但是對他來說至少他不會認為自己在亂掰 就如同我上面說的 要讓他亂掰還比較難
再來他的訓練資料庫大小跟各語言比例也決定這3.5版當搜尋引擎的應用性
作者:
csqwe ( )
2023-02-24 18:17:00難 在我看來 說他在亂掰的發言更像是在亂掰 而這些發言也是
作者:
kigipaul (KiGiPaul)
2023-02-24 18:17:00同樣的翻譯 他的潤詞 也比其他翻譯還順暢
作者:
csqwe ( )
2023-02-24 18:18:00他有機會去學到的 他會把你們的亂掰當真我是不知道有多少人真正理解它的原理 不過一些發言看了真的覺得 你們好意思說他在亂掰
我那天把學校的python作業拿去問他 給我的建議是對的XD
作者: as80110680 2023-02-24 18:23:00
不要拘泥在字面上的意義,現在模型最大的問題是不會回答我不知道,這類通用模型最終的目的不會只在聊天,只能聊天誰要用這垃圾
作者:
csqwe ( )
2023-02-24 18:24:00越想越氣 人類才是最喜歡不知道還亂掰的那邊
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:24:00除非在2021年之前,真的有人掰了一間叫Midjourney的台灣公司然後他把這份資料找出來?
作者:
csqwe ( )
2023-02-24 18:26:00雖然我不知道Midjourney是什麼 但是我反過來問你 你故意問
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:27:00呃,你不知道Midjourney是什麼?
作者:
csqwe ( )
2023-02-24 18:27:00問他不存在答案的問題就是你拿來佐證他不能當搜尋引擎的立論嗎? 他不會質疑你給他的資訊是錯的 你這樣使用搜尋引擎
作者:
kinda (天天)
2023-02-24 18:29:00作者:
csqwe ( )
2023-02-24 18:29:00的嗎? 你期望你的搜尋引擎給你這種問題什麼答案?
作者:
kinda (天天)
2023-02-24 18:30:00只要繼續問下去,它總是繼續掰別的。然後還說自己很有自信
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:30:00作者:
csqwe ( )
2023-02-24 18:30:00kinda 說過很多次了 他給的答案是錯的跟他不知道亂掰是兩回
作者:
csqwe ( )
2023-02-24 18:31:00事 這兩種情況的對應方式完全不一樣Y
作者:
kinda (天天)
2023-02-24 18:31:00機器模型明明就可以知道每個字的預測確信度。
作者: as80110680 2023-02-24 18:31:00
不一定是他的輸入有問題,ML成也模糊比對、敗也模糊比對,在應該精確的地方他沒有精確的回答就會變這樣
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:31:00所以你覺得2021年前有一間叫Midjourney的台灣行銷公司?他有在某個地方吃過這份資料?
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:32:00Midjourney是現在兩大繪圖工具之一,他的公司也叫Midjourney^AI
作者:
csqwe ( )
2023-02-24 18:33:00那個結果只代表對他來說 Midjourney 這個字他學到過那些資訊 至於資訊來源 甚至他是不是把 Midjourney 這個字拆開來解讀 連開發者都不一定知道 但是你拿這個當作他不能拿來搜尋資訊的立論? 你用搜尋引擎都搜下去就點第一個答案 然後當他是正解嗎? 這年頭連小學生都不會這樣用google 拿這個來說chatGPT不能當搜尋引擎是不是搞錯了什麼?
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:37:00不要說第一頁,你google "Midjoueney 公司" 到全部13頁都只有一個答案,就是指向一個叫Midjourney的AI繪圖軟體你找不到其他解釋了就是不知道Midjourney是什麼才會把他拆開來解讀啊
作者: as80110680 2023-02-24 18:38:00
並沒有,你別在自己腦補了,語言模型都會建立字詞相似度表,像journey可以想像跟tour意思相近,那麼他們的權重也有很高的相似度,那麼就很容易找到毫不相干的資料
作者:
csqwe ( )
2023-02-24 18:41:00還是那句話 你知道他一定不知道這題 為什麼你要問他 你是這樣用工具的嗎? 他只要接受到問題 他會預設你的問題在他資料
作者:
csqwe ( )
2023-02-24 18:42:00庫裡面要有 所以他告訴你他"覺得"是的答案 你把這個叫做亂
作者:
speed7022 (Speed7022)
2023-02-24 18:42:00bing的在這方面有改善,可惜被削弱很多了
作者:
kinda (天天)
2023-02-24 18:43:00就問ChatGPT能不能當搜尋引擎啊?它說了不行。
作者:
csqwe ( )
2023-02-24 18:43:00掰 是你的問題還是他的問題? 然後你還拿這點當作他不適合做
作者:
kinda (天天)
2023-02-24 18:44:00csqwe 拜託你相信ChatGPT的回答好嗎?
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:45:00哪個搜尋引擎搜四次會得到不同結果,第四次終於承認我不知道這個問題的答案的
作者:
csqwe ( )
2023-02-24 18:45:00kinda你完全搞錯了XD 我一點都沒有要完全相信他的答案的意
作者:
kigipaul (KiGiPaul)
2023-02-24 18:46:00作者:
csqwe ( )
2023-02-24 18:46:00思 難道你就完全相信google給你的答案?
作者:
kinda (天天)
2023-02-24 18:47:00作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:47:00實際上ChatGPT就是承認「他的資料庫沒有Midjourney這個詞」有的時候他會承認他不知道,有的時候接著就到你說的他去拆解
作者:
kigipaul (KiGiPaul)
2023-02-24 18:48:00不要全信也不要全不信,加上自己的辨別力 是個不錯工具
作者:
kinda (天天)
2023-02-24 18:48:00我覺得ChatGPT比csqwe的推文可信多了。ChatGPT真棒~good
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:48:00Midjourney這個單字、然後可能撈到不相干的資料、然後重組
作者:
csqwe ( )
2023-02-24 18:48:00你為什麼會覺得搜尋引擎就會每次都給你一模一樣的答案?笑
作者:
csqwe ( )
2023-02-24 18:49:00你用同樣關鍵字在不同天餵狗 他給的文章排序可能就會微妙的不同 而你還是會去找到你最想要的那個不是嗎?
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:50:00你有沒有看到上面那四次是完全不同的結果,包含一次"我不知道"你現在Google Midjourney從第一頁翻到第17頁都會指向AI繪圖
作者:
csqwe ( )
2023-02-24 18:51:00你明明不是用這個標準來看到一般搜尋軟體 為什麼對chatGPT
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:51:00軟體,我相信一個月後也還是
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:52:00我是用同樣的標準要求Google啊,你Google Midjourney你應該拿不到一份指向台灣軟體公司的搜尋結果,不信你試試
作者:
csqwe ( )
2023-02-24 18:53:00還在跳針 我上面至少回你兩次了 為什麼你要拿他一定不知道
作者:
csqwe ( )
2023-02-24 18:54:00就算這個關鍵字是google贏了 又怎麼樣?
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:54:00問題是我有一天可能會問一個我不知道他知不知道但他真的不知道的問題啊
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:55:00但他即使不知道,你可能也得反覆問很多次他才會說對我不知道
作者:
csqwe ( )
2023-02-24 18:55:00搜尋引擎嗎? 莫名其妙欸拜託 google沒有給過你錯誤的答案嗎? 你怎麼就不擔心?你有判斷能力好嗎? 就連搜尋引擎都不是只有一個
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:56:00google我會主要看第一頁,然後比對個三四頁的結果你還真的只看第一頁第一條哦?
作者:
csqwe ( )
2023-02-24 18:57:00你用搜尋引擎不是只接點第一的答案的時間點 你就已經在判斷了 所以用同樣標準來使用chatGPT很難嗎?
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:57:00那google至少能第一時間讓我知道有複數選項可以判斷
作者:
csqwe ( )
2023-02-24 18:58:00我當然沒有只看第一條阿 是你講的好像你只看第一條
作者:
ZMTL (夜風/瀟湘 VR板已經開板!)
2023-02-24 18:58:00ChatGPT會有辦法讓你知道他可能不知道這問題的答案建議你重複幾次看看?
作者:
csqwe ( )
2023-02-24 19:00:00我只能說 如果你沒有能力判斷 那chatGPT可能真的不適合你
不然這樣啦 從今天開始你不要用google chatgpt當收尋引擎
作者:
csqwe ( )
2023-02-24 19:01:00證明他有亂掰的這項能力(這個真的比較難) 不然你才亂掰
作者: as80110680 2023-02-24 19:09:00
現在很多用搜尋引擎情境是不得不的問題,像我要找API,我他媽搜尋完還要一條一條找,像白癡一樣,直接用問的不就好了,反正對不對一測就知道,工作效率高多少
我要diss chatgpt nmsl 問 伍佰某一首歌給我回 中國台灣張學友唱的 而且完全沒有提到原作者
怎麼可能會有人拿語言模型當搜尋軟體阿........難道其實他是AI?!
作者:
kinda (天天)
2023-02-24 19:19:00說到這個,以後一定一堆機器人帳號。
作者: nungniku 2023-02-24 19:20:00
作者:
s175 (ㄏㄏ)
2023-02-24 19:23:00有人拿它寫小說,玩文字冒險遊戲甚至黑白妹,很多只是你不會用而已
作者:
bitcch (必可取)
2023-02-24 19:56:00要比較搜尋的正確性應該要拿bing那個GPT來比較吧
還要手把手教它XD希望到時候正確性建立起來 那對教育應該很有幫助
作者:
guogu 2023-02-24 20:13:00數理可能因為缺乏精良的大量文本和標籤,所以正確性滿低的
作者:
guogu 2023-02-24 20:16:00道歉也是不一定 像之前板上試火影他一頓瞎掰你反駁他還會說是你記錯要你重看