GPT本質為用文字去計算機率以及最有可能的輸出
並非邏輯理解, 且有token數目上限.
由於是用大量data + fine-tuning, 應用在生成code上面, 生成的code能不能用取決於:
1. 功能是否常見
2. 使用的語言(language), 函式庫(libraries), Framework是否open source且常用
3. 你所提供的query是否足夠精確
4. 你的codebase是否有特殊的patterns
即便是簡單的CRUD仔, 如果公司有自己的內部framework, 內部tools,
想要讓GPT產生還ok的回答你必須要提供更多的context, 就很容易超過token上限.
而LLM的training一次可是幾百萬美金在燒的.
所以反而工人智慧比GPT便宜得多.
在我眼中GPT只是一個好一點的stackoverflow跟GitHub issue搜尋器而已.
隨著時間工作越久其實花在這些issue上面的搜尋時間並不太多.
大部分都在搜公司內部的訊息或是理解客戶需求.
而這些東西都沒辦法透過GPT來解決
而GPT train完就不會再進步了
初階工程師取決於個人造化但至少還有可能舉一反三
如果你有試著跟GPT pair programming個一天應該就不會覺得初階工程師會被取代