Re: [問卦] 為什麼AI 這2-3年進步這麼神速?

作者: DarkerDuck (達克鴨)   2024-02-17 17:19:33
我剛好研究所讀資工領域的。
你應該知道在這次AI大模型震撼世人之前,電腦科學界在炒啥嗎??
就是Big Data,大數據,資料探勘。
但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。
譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可紅的。
就是用一些通用數學演算法把資料分群分類,但也就這樣。
並不能"生成"。
這個時候Deep learning的基礎原理其實十年前就已經有了,說到更早的多層神經網路,
其實甚至是50年前的事情,那為什麼現在才爆發,其實也就是硬體總算跟上了。
量變產生質變,大力出奇蹟,自我加速迭代改進。
你看一下他們的參數是如何巨量成長的:
GPT-1:
發布於2018年,約有1.17億個參數。
GPT-2:
發布於2019年,提供了不同版本的模型,其中最大的版本有15億個參數。
GPT-3:
發布於2020年,具有1750億個參數,是當時最大的語言模型之一。
ChatGPT:
發布於2022年,將GPT語言模型用強化學習回饋訓練成人類喜好的聊天機器人。
GPT-4:
發布於2023年,據說有1.8兆個參數。
這就是量變產生質變,大力出奇蹟的威力。
也要歸功於老黃的GPU才能讓"大數據"變成"AI大模型"
這次的sora其實也差不多,用的是Diffusion Model為基礎,去年也都有網站公開展示了。
http://tinyurl.com/78tezvev
但OpenAI啥沒有,算力最多,我用更大的算力去處理數據,
OpenAI還有什麼?GPT-4,我用GPT-4把影像的tag的訓練集,
"生成"能更仔細描述影片的長文,甚至用生成的影片再訓練。
這也就是AI的自我加速迭代改進,也就是一些AI加速主義者,奇點的成因。
所以現在能夠抵擋AI指數成長的限制器大概就剩下GPU與能源了。
大家好自為之。
====
反觀區塊鏈的Blockstream不用GPU與能源,自己用blocksize把自己限制住。
真是幹他媽的。

Links booklink

Contact Us: admin [ a t ] ucptt.com