現在Ai繪圖已經發展一段時間了,有沒有公司開始發展Ai動畫??
都能生成圖畫了,那麼再多給一些咒語讓圖畫動起來應該也是一個發展方向
要多高的解析度跟FPS都可以靠Ai算出來
應該最快被取代的就是18禁動畫,因為他們預算普遍偏低,畫面品質也普遍不高
直接用Ai作畫的話,成本就可以超級壓縮
連配音也不用找了,直接用Ai
作者:
Owada (大和田)
2023-03-30 17:56:00已經有了
吹的會跟你說很快啦 一兩年啦之類毫無建設性的幻想假設
作者:
eva05s (◎)
2023-03-30 17:57:00已經有了,記得已經可以把真人畫面直接轉動畫
作者:
Owada (大和田)
2023-03-30 17:57:00看上去很怪是很怪 但是要論有沒有是有的
現在ai動畫的邏輯大部分是批次處理影格加上濾鏡式的方式
txt2video學術進度上的確是約落後1-2年左右
除非有新的處理方式 不然這個方法要做你平常看的那種動畫 工太繁瑣了
作者:
astinky (此方のことが大好きだ!)
2023-03-30 17:58:00現在就是動新聞水準的程度
Corridor Crew有在實作diffusion based的動畫短片剛講完就有人貼了 那我就不贅述了
純粹的txt2video可以追meta和google的進展這兩家走最前面
不是 就是要嘛實拍影片 要嘛3d動畫 只靠分鏡他是不會動的
作者:
astinky (此方のことが大好きだ!)
2023-03-30 18:04:00原始的檔案就是指已經完成的動畫影片,丟給AI過個水就叫AI製作的動畫這樣
舉例來說你用戀活的骨架擺出一個短片後用diffusion渲染
如果你想要的是 寫一個劇本大綱 然後自動生成影片 這類的還在低解析度發展 google前陣子的dev會議有展示
但認真來說這個方向要創作新內容我覺得完全是脫褲子放屁
不過韓國條漫感覺有些像AI做的,劇情、畫面都怪怪的
用controlnet線稿還是骨架也能做但他會亂生圖
Google展示的一段敘述文章 然後產生約一分鐘的影片 解析度跟openai的初代dalle差不多 初代到今年約兩年 當時dalle剛出時完全沒人料想到解析度和品質的進展會如此爆速所以要我推估的話 未來一到兩年的確可能出現初具雛形的可用txt2video 而不是現在的拼接渲染歪路因為這技術是已經存在且有持續在發展的在txt2video解析度提升至可用前 應該是controlnet base的作法會先支配領域一陣子分鏡稿的方向就跟現在controlnet style比較接近兩大路線之爭 img2video 還是txt2video都有機構在做現在純img2video已經可以做到類似哈利波特裡報紙的那種感覺機構展示上像是讓名畫動起來
作者:
arsl400 (dark hatter)
2023-03-30 18:34:00不要瞎掰好嗎?影像處理領先語言處理幾十年,什麼突然出來
作者:
qq320 (QQ糖)
2023-03-30 19:17:00推特上有一些專門在研究調教AI寫實影片的 正以明顯的速度在進步中 目前寫實的K-pop跳舞短片 已經可以做到幾乎沒有跳圖接縫的程度 但是很耗功夫調教跟吃背景(不能太複雜)而且這還是處在土法煉鋼的現階段 等未來更多插件或工具開發出來 做出好成品的門檻一定會愈來越低
作者: SALEENS7LM (我愛我婆,更愛你的) 2023-03-30 19:26:00
做可以啊,阿就爛又麻煩就是
現在ai動畫真的要很好看的話,差不多跟直接拿mmd做一樣麻煩,節省的也只是渲染環節,而mmd的渲染早就有一堆大佬弄好新手灌一灌就有80分。ai動畫還是初期,再等兩個月再回來問看看吧