[洽特] 利用AI/LLM進行創意寫作的操作流程

作者: driftcreator (小雷)   2025-03-08 16:12:03
0. 選LLM平台、選模型
模型商自營、串連API或是本地離線模型的前端平台都可以
目前中文創意寫作應對較流暢的模型:ChatGPT, Claude, Gemini, Grok, DeepSeek
上前禱詞
1. 越獄詞
AC_in主軸。一串讓模型能夠跳過審查的說詞。自己寫或上網找,英文關鍵字jailbreak
2. 調整LLM輸出方向
設定文風。(某個作者寫的)日系輕小說、言情小說、武俠小說、古典文學等
若有指定作者,要先跟模型確認它知不知道,然後自己也要具備不被AI瞎掰的判斷能力
語境上如果不想被中國用語蓋台,在這邊也要特別標注
3. 強化特定需求
例如對空間位置、行為互動、特定劇情走向的理解,或是不要重複利用相同的語句
要求AI進行較短輸出(<4k tokens),再叫它回頭分析、反饋至下一次輸出,效果最佳
(一個繁體字約1 ~ 2個tokens。DeepSeek比較妙,它文件裡估一個中文字0.6 tokens)
進階知識
4. 搞清楚模型規格
查文件說明,若是模型商自己經營的平台,也能直接問模型
a. 上下文(contest length):該LLM模型單次輸入的tokens上限
b. 輸出(output length):該LLM模型單次輸出的tokens上限
5. 做上下限控管
除非你是要求LLM做逐行處理的工作(例如翻譯),不然現行LLM都有中段記憶力衰退問題
就算上下文超過100k的模型,通說是利用20k~30k最佳,之後AI中段內容就會越忘越多
最上端與最下端的3k~5k是黃金記憶區,也就是AI最記得住、最能影響AI輸出的位置
開始輸出
6. 丟設定
告訴AI你要它產出什麼內容
7. 監督短輸出內容
不滿意的話重新生成。後續可下指令調整AI劇情走向,滿意的話也可以叫它繼續
8. 接近模型上下文上限或進入20k~30k區:開始總結
叫AI把產出的內容總結精煉成一份摘要,整坨或分幾段都可以,不滿意的話重新生成
9. 重開對話視窗,把1. 2. 3. 8.貼進去
然後繼續6~9的迴圈
作者: guogu   2025-03-08 16:32:00
Claude一直都很強 但是也靠北貴...
作者: Lukesky   2025-03-08 19:02:00
品級真的好 但貴死了
作者: yyykk (貓大叔)   2025-03-08 19:09:00
Claude真的是用過最喜歡的,但光3.5就已經靠北貴了...

Links booklink

Contact Us: admin [ a t ] ucptt.com