Fw: [新聞] 還在用ChatGPT寫作業?!教授曝露餡3大敗筆

作者: zkow (逍遙山水憶秋年)   2023-08-13 20:48:25
※ [本文轉錄自 AfterPhD 看板 #1asD3lxW ]
作者: zkow (逍遙山水憶秋年) 看板: AfterPhD
標題: [新聞] 還在用ChatGPT寫作業?!教授曝露餡3大敗
時間: Sun Aug 13 20:47:40 2023
還在用ChatGPT寫作業?! 教授曝露餡「3大敗筆」
台視新聞
2023.08.11 21:49
ChatGPT今年爆紅,許多人開始將它應用在工作或生活中,提升效率,不過卻有學生動歪
腦筋,利用ChatGPT寫作業,自己只要複製貼上就能輕鬆交差。不過教授們直言,其實他
們一看就知道,內容是不是出自學生本人,也點出以AI完成的作業,最容易露餡的三大敗
筆。
AI產出內容乏味 零錯誤、沒活力「像50歲律師」
AI是現代人的重要幫手,卻有大學生利用ChatGPT寫作業,交差了事,以為神通廣大,殊
不知都被教授一眼識破。就有網友表示,自己班上有半數同學被抓包,教授們也公開,
ChatGPT寫出來的作業,最容易露餡的三大敗筆。
阿巴拉契亞州立大學哲學系教授克里斯多福‧巴托就說,AI產出的內容不會有錯,但很機
械、很乏味,不會有人這樣說話,「AI作業看起來作者像是一位很聰明,但沒上過我的課
的人」。
文章中完全不見錯誤,反而不符合人性,字裡行間也沒有學生的影子,明顯就是出自機器
人之手。
普林斯頓大學講師史提夫‧克爾特斯也表示,「ChatGPT內建的語氣,就像一名50歲的合
格律師,似乎少了活力,缺乏真實學生的語氣跟經驗」。
有說服力但卻是錯誤內容 「AI幻覺」難辨真假
而最大問題是人工智慧幻覺,AI會產出看似很有說服力,但卻是錯誤的內容。北密西根州
大學哲學系教授安東尼‧歐曼指出,AI會用完美的文法寫出明顯是錯誤的內容,因為它無
法分辨事實和虛構,也無法分辨資訊和假資訊。
也有教授坦言,有時AI產出的錯誤內容,逼真到連學者都沒把握誰對誰錯,同時也提醒,
以ChatGPT代勞,不僅會喪失思考機會,對學習更是一大損失。
國際中心/劉人豪 編譯 責任編輯/林均
https://news.ttv.com.tw/news/11208110041600M
作者: qwe123456460 (寂寞不寂寞)   2023-08-13 22:42:00
找文獻用別的比較好,gpt不會給連結

Links booklink

Contact Us: admin [ a t ] ucptt.com