Re: [問卦] 美軍陸戰隊學《潛龍諜影》紙箱潛行戰術,

作者: sxy67230 (charlesgg)   2023-01-21 10:45:41
※ 引述《teeheehee (軟尾拋拋翔(′・ω・`))》之銘言
: 美軍陸戰隊學《潛龍諜影》紙箱潛行戰術,成功騙過AI偵測機器人
: 自《死亡擱淺》上市到疫情爆發以來,遊戲社群都讚揚小島秀夫的發想宛如先知,
: 如今又有一款他的作品成為了現實發生的事,
: 《潛龍諜影》(Metal Gear)的「紙箱潛行」真的有用,只不過不是對人,而是對 AI 人
: 工智慧。
阿肥外商碼農阿肥啦!
其實這在機器學習/深度學習領域當前還是一個資安攻防戰的大問哉,尤其是圖像領域其實
從攝影機取得的數據,其實如果熟知數位訊號的話,其實對於機器取得的訊號只是256個數
值(對應PC的256色彩度)加上一個通道數量的三維數據,歸一化以後可以把數值256變成0到1
之間的浮點數,這樣問題就來了,現實世界人眼其實對浮點數差0.001不到的變化是很難察
覺的,人眼對於色彩的變化度其實非常不靈敏,對於光流反而比較敏感,甚至可以自我補全
合理化物體運動軌跡,這是當前類比數位訊號很難表達出人眼數據結構的問題。
像這種對抗例攻擊(adversarisal example attack)的問題,當前業界學界主要是用一些傳
統濾波器幫忙過濾有毒訊號在餵給AI或是調整決策邊界來避免某些特殊訊號被AI放大影響分
類決策信心度,像這種紙箱也不是隨便一種紙箱,駭客通常可以用你的模型API來協助他訓
練一個更強的對抗模型生成可以騙過你機器的一張圖片,同時這張圖片還要看不出來他是被
竄改過素相彩度的圖片,人眼外觀看起來是紙箱但機器一旦辨識就不太識別的出來的那種,
這種就有點資安攻防的概念,道高一尺魔高一丈,一旦研究員發現到被攻擊可能會微調模型
或是加上濾波器防堵,駭客也還是用這種方式我在來找你的模型漏洞生成圖片無限下去。
我覺得阿肥長年作為研究者其實有很大程度也是發現到真正的原因是因為圖像數據表達格式
的問題跟人眼讀取影像的方式差異很大,像自然語言識別因為輸入是文字塊就不太會出現這
樣的麻煩,不過文字因為涉及抽象思考概念這部分當前AI很難理解人類大腦背後的世界模型
也是需要研究的地方,所以整個領域都還有成長進步的空間啦!
大過年就不講太複雜的東西了,差不多4醬

Links booklink

Contact Us: admin [ a t ] ucptt.com