[轉錄]AI必定成為設計/行銷/繪圖/美編業的標配

作者: medama ( )   2023-05-25 23:52:02
轉錄自FB生活中的城市
建議可以看FB 有各步驟參考教學圖
例:修動漫圖片的兔耳

https://www.facebook.com/CodeInLife
如果你最近有在發囉 AI 繪圖,我可以告訴你 Stable Diffusion 未來必定成為設計/行銷/
繪圖/美編業的標配
要用 Stable Diffusion,硬體部分官方沒有建議的最低需求,但個人認為至少要有以下規
格比較好:
作業系統:Windows 10以上
記憶體:16G以上
顯示卡記憶體:12G以上
Nvidia >>>> AMD
入門建議 RTX 3060,現在一張二手價大約 6000元,便宜經濟實惠;要出大圖可以選有 24G
記憶體的二手 RTX 3090,現在一張約兩萬出頭。
安裝過程
(1) 安裝Git
(2) Git下載Stable Diffusion WebUI:https://github.com/AUTOMATIC1111/stable-diffu
sion-webui.git
(3) 安裝Python 3.10.6
(4) 啟動SD WebUI
(4-1) 開啟cmd,進到專案目錄後執行「webui-user.bat」
(4-2) 執行成功就會看到URL的資訊
(4-3) 保留終端機開啟,打開瀏覽器進入「http://127.0.0.1:7860」
一定要會的技能:
(1) 文生圖:
輸入 Prompt 就可以生成圖片,有正向也有負向提詞。
(2) 圖生圖
可以將上傳後的圖片加工、調整、合成或局部繪製,可以幫圖片中的人物換場景、髮型、背
景或將畫壞的部分修正。
有非常多參數可以調整,包含算圖的取樣方式、輸出圖片尺寸、輸出圖片與 Prompt 的匹配
程度,都會影響繪圖效果
(3) 多種預訓練模型可以選擇:
除了SD預設的模型,網路上還有許多其他創作者訓練的模型,每個模型擅長的風格不同,可
以在Civitai和Huggingface自行下載安裝
A. https://huggingface.co/
B. https://civitai.com/
(4) 各種模型輔助微調效果:
由預訓練模型生成圖片通常不會一次到位,所以還有非常多模型輔助在預訓練模型的產出結
果上微調,像是人物的動作、背景、光影、色調等等,來達到理想的效果
(5) 自訂圖片的風格:
如果你想繪製的風格已經有一系列圖片可以參考,可以使用 Textual Inversion,從這些圖
片中學習風格後套用在指定物件,或是用 Hypernetwork、LoRA 直接套用喜歡的風格
(6) 自訂圖片的構圖:
ControlNet是一種神經網絡模型,主要用來控制構圖,例如人物動作、場景,也有非常多模
型可以使用,Openpose、canny、scribe幾乎是AI繪圖師必備工具
A. Openpose、3D openpose:可以自行指定人物的骨架來調整動作,或是從圖片解析出的人
物的骨架圖
B. 手部經常崩壞的問題大多也能透過ControlNet的模型解決,例如可以用Canny先人工繪製
線稿再重繪手部
C. Muti-ControlNet:可以使用多個controlnet模型來調整構圖,例如可以下載辨識場景配
置的模組,加上人物動作、手勢的模組
(7) 生成自己的模型:
A. 融合模型:可將至多三個模型融合,產生獨特風格的預訓練模型
B. 自訓練模型:準備好訓練用的圖片資料也可以訓練自己的模型,包含Textual Inversion
、Hypernetwork、LoRA、DreamBooth
(8) 製作動畫:可以透過 gif2gif 或 mov2mov,直接轉 GIF 圖片或影片,另一種方式是用
Multi frame render 將要製作成影片的每一幀圖片重繪後輸出成動畫影片
作者: fakeMaskRide (FMR)   2023-05-25 23:57:00
好文感謝
作者: Arminius (奇怪的歐吉桑)   2023-05-26 01:06:00
異世界必定成為人類解決人口問題的標配。理由:不~用方式:1.卡車轉生 2.過勞轉生 3.御宅轉生 4.捅肚轉生5…
作者: strlen (strlen)   2023-05-26 07:47:00
老黃發大財
作者: stopstopit (waterbuffaloly)   2023-05-26 08:01:00

Links booklink

Contact Us: admin [ a t ] ucptt.com