※ 引述《gundamx7812 (亞洲空幹王)》之銘言:
: 就是在作品圖中加入人類肉眼難以辨識的雜訊
: https://i.imgur.com/PBBbNRA.jpg
: https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE
: Zg&s=19
: 不過回覆裡也有人說有技術可以克服雜訊問題就是了
: 延伸閱讀:如何欺騙AI
: https://youtu.be/YXy6oX1iNoA
先講結論 這沒屁用==
這根本就像是拿FGO的職階去談碧藍檔案的相剋
題目內容完全不同是在比啥
首先先貼李宏毅教授的影片
https://www.youtube.com/watch?v=xGQKhbjrFRk
https://www.youtube.com/watch?v=z-Q9ia5H2Ig
我真的覺得李弘毅教授的影片真的該列為必修
不然有些真的雲得太誇張
一般雜訊攻擊是加在""""Input"""去干擾一個已經訓練好的Model的Inference
結果這篇加在Training Data上 那是在搞笑嗎
https://youtu.be/WeHM2xpYQpw?t=1044
時間幫忙標好了
一般常見的解OverFitting的方法就是在Training Data上面加上Augmentation
常用Augment方法可以自己上網查一下就不贅述
而Adversarial Attack最簡單的對抗方式
就是在Training Data上面加上雜訊Augment來抵抗這種攻擊
所以說在Training Data上面加上雜訊根本不是攻擊他
而是幫他強化Model穩定性來對抗這種攻擊
另外推文說加個Filter就可以搞定的
實際上這種根本不需要加Filter 甚至有些時候還會在Train的時候自己加入雜訊
或者改變色階呢... 這只是幫他豐富資料而已
我直接講個真的對AI比較實際有傷的啦
我先假設Danbooru這種的Tagging是靠爬蟲爬來的
看那數量感覺不是真的人手動標得
所以你要攻擊他最簡單的方法就是畫個金髮角色然後標褐髮
畫個精靈然後標矮人
畫個中岡標山田
搞亂Tagging對他傷害才真的大
這樣在Trainging時 同一張金髮的圖片可能Tag會是金髮或者褐髮
那他就很難學說哪個才是真正的金髮
結論 : 汙染Tag比汙染圖片實際多了
AI工程師大概有超過一半的時間是在和Data Cleaning奮鬥...
作者:
medama ( )
2022-10-07 20:18:00李宏毅幾班?大金
作者:
ayuhb (ayuhb)
2022-10-07 20:18:00污染tag某族群很擅長
作者:
andy0481 (想吃比叡的咖哩)
2022-10-07 20:18:00沒錯 發一堆甲圖打上大奶tag 直接廢掉你這個AI
作者:
waitan (微糖兒>////<)
2022-10-07 20:19:00李弘毅幾班?
作者:
CorkiN (柯基)
2022-10-07 20:21:00李宏毅的課真的該列為必修 不然一堆人都對現在在講的AI有過度的幻想==
作者:
qxpbyd (qxpbyd)
2022-10-07 20:22:00可是都練好了 現在去弄tag也來不及了吧 更何況那邊應該不少人在維護
作者:
qxpbyd (qxpbyd)
2022-10-07 20:23:00Danbooru我不知道 不過我知道另一個Tag網站 管理員會管的你大量亂搞被發現直接BAN IP
作者: jqp050502 (YaYa) 2022-10-07 20:42:00
推李弘毅老師的課,可以學到很多
作者:
nalthax (書蟲一枚)
2022-10-07 21:37:00這招人類在資訊政戰裡用很久啦
作者: lucky0417 (L.W) 2022-10-07 22:08:00
打上小美人魚的tag裡面畫的是黑人鯰魚算不算一種污染tag
作者:
iamnotgm (ä¼½è—之黑)
2022-10-07 22:30:00推
作者: longlongint (華哥爾) 2022-10-08 00:59:00
李宏毅…. ㄐ 沒事覺得簡單版的AI/大數據要做成通識課比較好QQ不然看一堆路人留言我頭超痛
作者:
shuncheng (shuncheng)
2022-10-08 02:20:00A恭喜 樓上你頭就繼續痛 就算做成通識一樣不會改善現況