※ 引述《cgac (緋勇龍麻)》之銘言:
: 就一位實況主用付費版的GPT下去跑團.
: 用D&D5版規則.
: 可是當人物卡數值就跳了好幾次.
: 身上沒裝備突然冒出裝備.金錢突然暴增.
: 種族人類>>半獸人>不可名狀(?)
: 實況主還要一直提醒AI才會修正.(大概就是GM 提出疑問 這樣AI修正)
: 客棧是中式的對吧.結果客棧沒賣中式餐點.隔壁酒樓老闆夫妻是中式名子賣西式餐點....
: 同伴更好玩
: 職業狂跳 戰士穿法袍結果變成德魯伊 人物種族從人類一直跳半獸人 最後定位半獸人+半
: 精靈 第二位從半身人學者變成半身人森林遊俠..
: 要去的目的地事件一直狂跳.跳到實況主跟觀眾差點要喊藍藍陸...
: 三小時時間初始地旅店(好吧是沒賣中式餐點的客棧...)還走不出去..
: AI一直狂跳人物職業 目的地 夥伴狀況也狂跳....看似無法繼續下去的跑團結果最後
: AI都把劇情強制圓回來..
: 至於最後結果....付費版也有限制文本容量(太多人使用?) 我看到這裡就先退了..
: 要把AI變成單人跑團看樣子還要一段很長的路......
基本上就是記憶力(連結上下文能力)問題,
ChatGPT的記憶能力「據說」是4000個token 約= 3000個英文單詞。
無論GPT3 API或者前天的GPT3.5 API也是這樣,超過的連結不到就會跑設定,
就算你自己串API都不會得到比較好的結果,只是據說沒有倫理限制而已。
那真的想這樣玩「可能」可以怎麼做?
1.未來GPT3.5API(ChatGPT API)會開放專業版,支援到16000個單詞。
2.Open AI昨天宣佈可以「微訓練」GPT3了。
https://platform.openai.com/docs/guides/fine-tuning
通過提供以下內容,微調可讓您從 API 提供的模型中獲得更多收益:
比即時設計更高質量的結果
能夠訓練比提示中更多的例子
由於更短的提示而節省了代幣
更低的延遲請求
GPT-3 已經在來自開放互聯網的大量文本上進行了預訓練。當給出僅包含幾個示例的提示
時,它通常可以憑直覺判斷出您要執行的任務並生成合理的完成。這通常稱為“小樣本學
習”。
微調通過訓練比提示中更多的示例來改進小樣本學習,讓您在大量任務中取得更好的結果
。對模型進行微調後,您將不再需要在提示中提供示例。這樣可以節省成本並實現更低延
遲的請求。
在高層次上,微調涉及以下步驟:
準備和上傳訓練數據
訓練新的微調模型
使用您的微調模型
當然,要錢wwwww