Re: [問卦] 以後影片外流是不是都可以說deepfake?

作者: iammatrix   2021-10-19 01:12:55
※ 引述《arrenwu (不是綿芽的錯)》之銘言:
: 因為DeepFake沒有這麼強
: 至少之前艾瑪華生那一大堆的DeepFake的影片是你仔細看就看得出頭跟身體接起來有問題
: 這個東西當作好玩或科學研究都不錯,
: 想達到「以假亂真」...還有滿大段的距離。
: 會說DeepFake影片是本人的,除非是白癡,不然可以肯定是故意亂扯的
https://www.youtube.com/watch?v=ERQlaJ_czHU
https://www.youtube.com/watch?v=vW6PKX5KD-U
看要作到甚麼程度,要付出多少時間跟金錢。
那種一看就假的DEEPFAKE,讓AI學習跑的時間可能半小時就合成了
真的要作好一點的,讓顯卡跑個一個禮拜起跳都是基本的,
這些訓練出來的動態合成資料庫、臉部遮罩數據都能夠累積起來。
那現在主要的麻煩點在於,很多都是拿日本拍好的AV影片來DEEPFAKE
所以在後製上比較會出現問題。
未來的AV產業,應該會有一種臉部已經被挖掉的DEEPFAKE KIT,
從拍攝的角度、縮放鏡頭,拍攝腳本,都是針對DEEPFAKE去最佳化的。
強制連網,購買登記會有紀錄,想做壞事也沒那麼容易。
所以你買回來,可以讓你用特定軟體去套你想要的人的臉,
不管是你小學暗戀對象、同事、前女友、老師、鄰居之類的,
前提是如果你有這些人的影像資料的話。
輸出的話一定會有強制浮水印追蹤,後果自行負責就是了。
看你要甚麼身材的、要甚麼膚色的,任君挑選。
以現在顯卡的進步速度,之後的4系列算圖應該更快,
這種KIT出現也不足為奇了。

Links booklink

Contact Us: admin [ a t ] ucptt.com