[閒聊] AI語音翻唱與詐騙

作者: joker8881 (終夜)   2023-09-26 15:17:09
自己其實就有在研究AI語音這一塊,目前以大家就能輕易接觸到RVC,是已經可以唯妙唯肖
的模仿本人的聲音,我自己也用朋友的聲音互相訓練過,只要音源夠乾淨(基本上電話的聲
音就非常乾淨)就能用不到三分鐘的素材模仿出對方的聲音(高音氣音基本上都不太有破綻
)。甚至有些AI網站服務不需要到十秒的素材,就能合成出相對接近的聲音。
對岸很多文章跟演示有興趣可以去看,YT上也有不少Vtuber合成語音唱歌的影片,這邊就貼
一個gura的就好。
https://www.youtube.com/watch?v=4cHtSuHmOlE
然後最近一段時間美國就有用模仿語音的詐騙,以台灣的技術來說應該是早就在實用階段了
我猜,但目前還沒遇過。
https://www.bnext.com.tw/article/75442/ai-usa-scam
雖然說不知道詐騙會不會特別去鎖定個人來用語音詐騙對方的家人,但是或許有機會還是要
跟家中長輩提一下類似的事情,都要記得打電話求證確認避免被詐騙。
作者: zsp9081a (驀然回首)   2023-09-26 15:19:00
ai模仿在現在還是得要有足夠資料去跑學習吧
作者: kinosband (キノ)   2023-09-26 15:19:00
這是可以色色的嗎
作者: starsheep013 (星絨綿羊)   2023-09-26 15:19:00
丁丁點燈
作者: zsp9081a (驀然回首)   2023-09-26 15:20:00
是說B站前段時間很流行ai孫燕姿,幾乎各種歌曲都有了
作者: kirimaru73 (霧丸)   2023-09-26 15:22:00
AI訓練你聲音詐騙的前提是你是素材很多的公眾人物所以不用擔心,AI頂多用來產生逼真的毆打哀號聲音(但這種騙法也根本不需要AI,自己練還比較快)
作者: bpq302302 (Anabebe)   2023-09-26 15:23:00
死神,馬
作者: a2156700 (斯坦福橋)   2023-09-26 15:24:00
https://i.imgur.com/QG4faO4.png 以後可以換成語音版
作者: kimokimocom (A creative way)   2023-09-26 15:28:00
之前常接到甚麼桃園房屋公司 就很像是AI在應對
作者: GaoLinHua   2023-09-26 15:43:00
慘了 園區仔要失業了
作者: llabswollag (宅宅很可怕)   2023-09-26 18:15:00
話說像柯南變聲器那樣即時轉換的技術已經有了嗎

Links booklink

Contact Us: admin [ a t ] ucptt.com