※ 引述《JQK2 (ACE)》之銘言:
: https://i.imgur.com/nwvtEo3.jpeg
: https://i.imgur.com/atZBLQ1.png
: OpenAI 已於 10 月 29 日更新了 ChatGPT 的使用政策,禁止其在某些原本被認為最具價值
: 的應用領域提供服務 —— 例如解讀醫學影像、協助醫療診斷,以及提供法律或財務建議。
: 此舉旨在防止 ChatGPT(以及其他任何 OpenAI 模型)輸出可能被視作專業性、受託性或具
: 有法律約束力的建議,以符合歐盟《人工智能法案》(EU AI Act)和美國食品藥品監督管
: 理局(FDA)的相關指導要求。
: 簡而言之,這項政策調整相當於為醫生、律師和金融顧問等專業人士設立了一道「職業防護
: 盾」。今後,當用戶尋求專業建議時,ChatGPT 將引導他們諮詢人類專家,而非自行提供建
: 議。
: https://portal.sina.com.hk/technology/sina/2025/11/02/1365150/
GPT 出的答案其實很多情況是不可靠的,但是樹大有枯枝,人多就有白痴
美國男聽信ChatGPT飲食建議 三個月後精神失常送醫
https://www.ettoday.net/news/20250811/3012818.htm
美國一名60歲男子因向ChatGPT詢問飲食建議,並嚴格遵循其建議三個月,最終
罹患罕見的「溴中毒綜合症」,甚至出現偏執與幻覺症狀,被送進急診並接受
精神科強制留院。
被抓包ChatGPT生成「不存在案例」 美國律師挨罰道歉
https://www.ettoday.net/news/20250601/2970378.htm
美國猶他州上訴法院5月對一名律師進行懲處,原因是他提交的訴狀包含由ChatGPT
生成的虛假引證,甚至出現不存在的案例。此人事後坦承疏失並道歉,如今須支付
所有相關律師費用、退還向客戶收取的費用,並向非營利性質的法律組織捐款1000
美元(約新台幣3萬元)。
正常、具有資格且稱職的執業人士雖然沒有能力追到所有最新的業內資訊,
但他有判斷力可以懷疑一個說法可不可行並做確認,
但是 AI 沒有,因為它的回答基本上跟丟銅板來的差不多.
所以如果問 GPT 的是個懶人、意志薄弱的人,問一問搞一搞去自殺了,出了錯鬧出人命,
或者其實美國人本質上也不怎麼在意人命,但他們非常在意帳有沒有錯(錢變少了),
你讓他的收到的錢變少或讓他的繳給政府的稅變少,那你下場可能會很杯具...