[請問] 對大型語言模型神經網路的理解這樣對嗎

作者: zzedm (edm)   2025-06-24 14:05:41
https://reurl.cc/o8lgn5
https://reurl.cc/4LEaZD
哪個解釋較正確
有人知道嗎?
謝謝
作者: bajiqa (多爾)   2025-06-24 15:16:00
請google,除非你期望ask版有這樣專業的人才能回答
作者: StellaNe (凍結的大地)   2025-06-24 15:40:00
都對 但前者只說明了資源來源 後者比較接近運作的本質
作者: s0914714 (YA)   2025-06-24 22:25:00
LLM不能爬網路資料 LLM單純就是預測下一個token
作者: yeeouo (林翔)   2025-06-25 12:01:00
可以把它們的回答拿去問對方讓他們互相解釋和討論另外可以問的深入一點例如可以問transformer架構和多頭注意力可以幫助了解主流大語言模型的本質
作者: yunf   2025-06-26 00:52:00
參考參考就好 他這個就是一個很不自然的答案就像一張扭曲的照片

Links booklink

Contact Us: admin [ a t ] ucptt.com