Re: [IWIN] 再說一次,不是 "訂一個能接受的標準"

作者: peterturtle (peter_turtle2000)   2024-02-04 21:24:59
AI就是計算機學,計算機學有個特性就是,輸入變數一樣輸出就應該一樣
理論上只要記下每個使用過的亂數與輸入資料,
就理應可以訓練出完全一樣的模型,或是畫出一個像素都不差的結果。
所以只要模型製作者有保存訓練用圖庫,並提供使用者參考亂數,
AI產圖「絕對」可以自證清白,這可比什麼破影響力還是可能性科學簡單多了。
作者: chrisjohn214 (咪咪獎)   2024-02-04 21:26:00
為了避免大人不開心,大家正在自我審查,你別攪和
作者: wahaha99 (此方不可長)   2024-02-04 21:26:00
沒錯,只是事情大概會變成這樣:你為了訓練出蘿感, 找了一堆偽蘿圖來訓練,接下來除非是大眾熟悉的AV女優,不然你得證實那是偽蘿幹嘛搞自己
作者: moswu (蚊子)   2024-02-04 21:28:00
聽起來他媽超複雜
作者: forever9801 (憶影)   2024-02-04 21:28:00
AI擬真圖最大問題就是你少一個立足點可以抗辯2次元你可以說這跟真人根本沒辦法產生連結 正常判斷能力的人都不會認為這是真人擬真圖過幾年你只能以太完美來覺得他是假的執法單位要怎麼判斷這是AI還是真人圖?以兒少大旗來講超級逆風 除非你找的到幾個不分區立委願意自殺去挺 不然真的難
作者: HanadaIru (花田伊露)   2024-02-04 21:32:00
簡單說支持AI擬真的基本上就是真的戀童癖無誤了這種就是專門在拖後腿的
作者: forever9801 (憶影)   2024-02-04 21:34:00
反正你要打完全創作自由大旗 基本上就是不太可能連日本這麼挺二次元的 很多網站這個都自肅禁了
作者: moswu (蚊子)   2024-02-04 21:35:00
你都說爭議物品了,官府一定覺得我還放出來自找麻煩
作者: Satoman (沙陀曼)   2024-02-04 21:37:00
不行,我同樣的dataset同樣的設定兩次會現不同的結果
作者: moswu (蚊子)   2024-02-04 21:37:00
推這個出去砍頭是影響最小的,要100%當兒福聯盟吃素的?
作者: Satoman (沙陀曼)   2024-02-04 21:39:00
而且目前的訓練機制是完全可以隱藏dataset的
作者: headender (大大大大ㄚㄚㄚㄚ )   2024-02-04 21:39:00
戀童癖都被定義成精神病了 最好還是跟戀童癖切割 看二次元還能說現實沒人長這樣 看擬真的兒少色情圖很難說服別人自己不是戀童癖吧
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:40:00
還有個問題是是使用工具的有責任還是開發模型的有責任
作者: Satoman (沙陀曼)   2024-02-04 21:40:00
AI生成不可能被保護,因為SD的訓練圖庫本身就有問題
作者: forever9801 (憶影)   2024-02-04 21:41:00
AI本身在創作上就已經是頗逆風的東西了 有著作權爭議
作者: moswu (蚊子)   2024-02-04 21:43:00
老美最近在燒泰勒絲AI圖,看看有什麼結果
作者: forever9801 (憶影)   2024-02-04 21:44:00
你要挺AI擬真幾乎只有"存在發洩管道"可降低現實犯罪
作者: x2159679 ((● ω ●))   2024-02-04 21:44:00
人不幫模型負責誰要負責?講白了我現在看到一堆人都想把責任推到模型身上
作者: Zzell (n/a)   2024-02-04 21:44:00
是說大家知道美國最高法院20年前就判取締虛擬兒色違憲了嗎
作者: Zzell (n/a)   2024-02-04 21:45:00
所以美國現在明文上虛擬(非擬真)兒色是合法的
作者: dieorrun (Tide)   2024-02-04 21:45:00
AI你就算是用完全合法的兒童寫真 你拿來生色圖當然是
作者: forever9801 (憶影)   2024-02-04 21:45:00
這一套說法 但這連數據都沒有喔(非一般R18/二次元)
作者: Satoman (沙陀曼)   2024-02-04 21:45:00
美國那邊違憲,但是議會又搞了一個新的法來限制
作者: forever9801 (憶影)   2024-02-04 21:46:00
而且挺這個幾乎可以直接被貼標戀童癖了
作者: Satoman (沙陀曼)   2024-02-04 21:46:00
所以美國那邊會歸類到灰色地帶去
作者: Zzell (n/a)   2024-02-04 21:47:00
從頭到尾每個人的底線就是合法性 社會觀感從來不是重點吧
作者: nisioisin (nemurubaka)   2024-02-04 21:47:00
現在就是有罪推論呀
作者: Satoman (沙陀曼)   2024-02-04 21:47:00
SD是底模本身就有問題,你是要怎麼証明?
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:47:00
所以這是灰色地帶甚至可以說需要一個新定義的領域
作者: forever9801 (憶影)   2024-02-04 21:47:00
法律一大部分就是社會觀感的代議士創造出來的喔
作者: x2159679 ((● ω ●))   2024-02-04 21:48:00
所以歐美那邊才想搞訓練來源公開化啊
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:48:00
AI擬真的虛擬性和二次元圖像的虛擬性應該區分嗎?
作者: forever9801 (憶影)   2024-02-04 21:48:00
用符合社會利益禁掉這部分立場是絕對100%充足
作者: Zzell (n/a)   2024-02-04 21:48:00
美國明面上就算合法但也沒有人敢碰兒色 但他還是合法代表你可以偷偷看 在私人論壇分享不會被抓被下架若真的被起訴還有違憲判例可以拿來吵
作者: nisioisin (nemurubaka)   2024-02-04 21:49:00
現在是都講「你又不能證明你的訓練來源沒有問題呵呵」
作者: YaKiSaBa (鹽烤鯖魚)   2024-02-04 21:49:00
主觀認定你要怎麼自證清白
作者: Satoman (沙陀曼)   2024-02-04 21:49:00
當然不能證明,SD底模本身就來路不明了
作者: x2159679 ((● ω ●))   2024-02-04 21:50:00
所以誰要負責任?
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:50:00
zero-shot的生成技術就不見得會真的用到實際存在圖像
作者: Satoman (沙陀曼)   2024-02-04 21:50:00
現在二次元模形用的NAI底模更來路不明
作者: Satoman (沙陀曼)   2024-02-04 21:51:00
不可能抓啊,除非有人真的掀了SD、NAI你知道SD和NAI這兩個底模訓練成本多高嗎 ==
作者: nisioisin (nemurubaka)   2024-02-04 21:52:00
不知道 可以科普一下嗎?
作者: forever9801 (憶影)   2024-02-04 21:52:00
反正現實就是這個不切出去妥協 一定全盤皆輸
作者: x2159679 ((● ω ●))   2024-02-04 21:52:00
不知道 求科普
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:52:00
而且現在有些訓練模型只是拿來預訓練 借用別人參數
作者: moswu (蚊子)   2024-02-04 21:52:00
在台灣只要上檯面就要有跟兒福家長團體纏鬥的準備
作者: Satoman (沙陀曼)   2024-02-04 21:52:00
對使用者來說不可能換,因為那不是個人能訓練出來的東西
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:53:00
這種情況下是不需要原始訓練圖像的
作者: forever9801 (憶影)   2024-02-04 21:53:00
人家用二次元能引導三次元犯罪 你可以用超不像來抗辯
作者: moswu (蚊子)   2024-02-04 21:53:00
結果大家只想要動司長
作者: julianscorpi (各打五十大板流 免許皆傳)   2024-02-04 21:54:00
其實司長已經快要突破事務官臨界點了 很多這個LEVEL的都會被抓去當政務官培養
作者: moswu (蚊子)   2024-02-04 21:54:00
抗辯很簡單啊,版友示範過了:你有證據嗎哼哼
作者: Satoman (沙陀曼)   2024-02-04 21:54:00
60萬美元,這是SD底模的成本
作者: Hyouri (表裏)   2024-02-04 21:54:00
我覺得拿虛擬引導現實出來就是在唬爛 數據也這麼顯示
作者: moswu (蚊子)   2024-02-04 21:55:00
結果就是兒福聯盟推動立法全禁,科科
作者: Hyouri (表裏)   2024-02-04 21:55:00
但執法判斷困難 還滿合理的
作者: Satoman (沙陀曼)   2024-02-04 21:55:00
NAI成本不知道,但是理論上也不是什麼便宜玩意兒某種程度上SD還比較有公信力,NAI天殺的誰知道那是怎麼練出來的
作者: nisioisin (nemurubaka)   2024-02-04 21:57:00
其實禁擬真大部分人都能接受吧!只是會有跟一般動漫一樣的問題?怎麼計算擬真度?不然擬真度10% 20% 是不是又打到動漫了?
作者: Zzell (n/a)   2024-02-04 21:57:00
聊天悲觀就算了 實際上先進國家都有守住最後言論自由的底線
作者: Satoman (沙陀曼)   2024-02-04 21:57:00
但二次元AI社群實際就是靠NAI這個訓練集不明的東西在生圖英國就沒有,除非你認為英國不算先進
作者: dieorrun (Tide)   2024-02-04 21:58:00
我只能說擬真這條比什麼幼態實際多了
作者: Satoman (沙陀曼)   2024-02-04 21:58:00
現在衛道團體和保護司就是用英國當先進國家標準在搞
作者: Zzell (n/a)   2024-02-04 21:58:00
台灣最愛跟的美國直接做出違憲判例 歐美保守派也很兇捏
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:58:00
對 禁擬真的問題點就是在又要定義怎麼樣的擬真出局
作者: oasis404 (綠洲404)   2024-02-04 21:58:00
韓國也沒有啊,甚至都蓋網路長城了
作者: Peurintesa (芙琳泰沙)   2024-02-04 21:59:00
我印象換臉法案能處理是因為真的像到某人而侵犯權益
作者: oasis404 (綠洲404)   2024-02-04 21:59:00
算了,還是不要先自行妥協好了,這篇看起來驗證方法還算可行
作者: macocu (傻傻的匿名)   2024-02-04 21:59:00
擬真切割了,某方面就自相矛盾了,然後界線也有問題
作者: Zzell (n/a)   2024-02-04 21:59:00
其實那個保護司官員很明顯就是暴走等級的個人言論
作者: nisioisin (nemurubaka)   2024-02-04 21:59:00
除非國際普遍立法要公開訓練來源 要不然永遠都會有問題
作者: Satoman (沙陀曼)   2024-02-04 21:59:00
這次就是小玉換臉和之前某次偷拍論壇讓修法加速
作者: Zzell (n/a)   2024-02-04 22:00:00
這種法界可以吵很久的東西他一句話不會有太大影響
作者: oasis404 (綠洲404)   2024-02-04 22:00:00
可是人家是司長耶不是小咖
作者: Satoman (沙陀曼)   2024-02-04 22:00:00
然後二次元創作被掃到颱風尾+偷襲
作者: moswu (蚊子)   2024-02-04 22:00:00
生成幼女色情就下去啊,然後問題回到什麼是色情
作者: macocu (傻傻的匿名)   2024-02-04 22:01:00
舉例來講,A片降低性犯罪,那擬真蘿也應同理
作者: oasis404 (綠洲404)   2024-02-04 22:01:00
就看看會不會引起反對虛擬入罪的學者注意吧
作者: macocu (傻傻的匿名)   2024-02-04 22:02:00
但是擬真,就暗示的那人確實對現實形象人物會有性慾
作者: moswu (蚊子)   2024-02-04 22:02:00
A片降低犯罪,那除罪化肯定沒問題吧現實就不是這樣運作的更不用講還扯上幼女
作者: forever9801 (憶影)   2024-02-04 22:04:00
我只能說 歐美法庭片有看過吧 你認罪關2年不認罪關25
作者: rabbit61677 (rabbits)   2024-02-04 22:05:00
這沒什麼好爭的,成人色清是合法的,兒童色情不合法
作者: forever9801 (憶影)   2024-02-04 22:05:00
不認罪就是拿那個擬真AI舉言論自由大旗要擋洪水陪審團不會有人採信你的說詞的
作者: macocu (傻傻的匿名)   2024-02-04 22:06:00
阿確實,回歸原則,兒色不合法
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:07:00
應該說 AI擬真/AI二次元生成圖像/二次元繪圖 這三項他們應該綁一起看 還是AI直接再分一區?
作者: rabbit61677 (rabbits)   2024-02-04 22:08:00
所以用成人片來舉例不對,本來就不能有兒少色情片
作者: forever9801 (憶影)   2024-02-04 22:08:00
這項目說到底其實沒有什麼AI不AI 重點是擬不擬真AI只是達到擬真最容易的手段
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:08:00
再來就是要用什麼論述去區分它們或是歸為一類
作者: rabbit61677 (rabbits)   2024-02-04 22:09:00
而且兒少色情在社會倫理道德上絕對是不行的
作者: forever9801 (憶影)   2024-02-04 22:09:00
擬真就是最接近兒少38條的圖畫
作者: moswu (蚊子)   2024-02-04 22:09:00
結果搞到最後擬不擬真還是得靠iwin就好笑了
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:09:00
我會覺得AI可能要再分一類是因為擬真度會高到起爭議的
作者: rabbit61677 (rabbits)   2024-02-04 22:10:00
就以前根本沒擬真AI圖,所以沒人說要管虛擬頂多是猥褻物色情,現在已經造成執法困難才開始管
作者: x2159679 ((● ω ●))   2024-02-04 22:10:00
倒不如說擬真反而要證明這張不是用拍的吧?證明的責任在擬真那邊啊
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:10:00
所以AI會導致虛擬和真實分開的論述變的很難成立
作者: dieorrun (Tide)   2024-02-04 22:11:00
就說了擬真這條線比討論至今所有的標準明確多了
作者: forever9801 (憶影)   2024-02-04 22:11:00
你就算上法庭也是法官自由心證判定這算不算
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:11:00
證明一個不存在的東西不存在 我還真想不到怎麼證明==
作者: rabbit61677 (rabbits)   2024-02-04 22:12:00
其實雙方都很難證明什麼,AI擬真也可能變成類似deepfake的案件,如果剛好有人跟AI圖長很像
作者: dieorrun (Tide)   2024-02-04 22:12:00
就算還是有心證的空間 至少偏差太多大家看的出來
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:13:00
deepfake還找的到很像的人 如果這個人不存在怎麼處理?
作者: x2159679 ((● ω ●))   2024-02-04 22:13:00
這種當事人都會把責任推到ai上啊
作者: rabbit61677 (rabbits)   2024-02-04 22:14:00
即使美系你都不會覺得是真人,日系更不用說
作者: forever9801 (憶影)   2024-02-04 22:14:00
反正 理想就是底線壓在擬真度 用一些擬真度百分比的
作者: x2159679 ((● ω ●))   2024-02-04 22:14:00
你說,這個人不存在是因為ai能產生不存在的東西
作者: cloudwolf (狼)   2024-02-04 22:14:00
用虛擬傷害人,還用不到"擬真"。只要把特色表現出來,
作者: x2159679 ((● ω ●))   2024-02-04 22:15:00
現在大家都是把責任推到「ai的能力」上
作者: moswu (蚊子)   2024-02-04 22:15:00
你要我證明這張很像照片的照片是假的,憑什麼?
作者: cloudwolf (狼)   2024-02-04 22:15:00
就可以辦到。比如在設計一個禿頭的議員,就算畫的不像
作者: peterturtle (peter_turtle2000)   2024-02-04 22:16:00
所以不是說了嗎,算圖必然有重複性,同樣的輸入必有同樣的輸出,你要保留自己無罪的證據啊。然後不給重複輸出的模型就別用,用了結果上法庭就自己吞吧,食神不就是栽在有一批牛肉好便宜上的。
作者: Hyouri (表裏)   2024-02-04 22:16:00
「虛擬創作導致現實犯罪」這絕對是狗屁 再真都一樣但說太真導致執法困難不知道這真的還假的 那有可能
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:16:00
擬真是個方向 但又高機率回到心證 因為擬真也有程度
作者: x2159679 ((● ω ●))   2024-02-04 22:17:00
對啊就是這樣,使用者有能力證明生成過程就可以啊
作者: cloudwolf (狼)   2024-02-04 22:17:00
提出質疑者提出證明是原則,實務上有時會將舉證責任改
作者: dieorrun (Tide)   2024-02-04 22:17:00
絕對不可能沒有心證這件事啦
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:18:00
對 但心證的前提還是會有個標準 唉 真的頭很痛==
作者: x2159679 ((● ω ●))   2024-02-04 22:18:00
「提出質疑者提出證明是原則」這點實務上不可能行得通
作者: peterturtle (peter_turtle2000)   2024-02-04 22:18:00
大原則就是舉證責任在輕鬆的那邊
作者: rabbit61677 (rabbits)   2024-02-04 22:18:00
重點是如果幾年後AI畫出來真的跟照片一模一樣而且你也分辨不出來,警方要如何舉證,這是社會問題
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:19:00
問題我前面提過 如何證明不存在的東西不存在?
作者: moswu (蚊子)   2024-02-04 22:19:00
保證最後還是回到心證啦,first time?
作者: x2159679 ((● ω ●))   2024-02-04 22:19:00
這會變成社會問題,所以到時候就會是管ai這也是這次議題必須切割ai的原因
作者: rabbit61677 (rabbits)   2024-02-04 22:19:00
當AI圖跟照片完全分不出來的時代到來,從前會被定罪的真實兒少罪犯,變成拿他們沒有辦法的話
作者: x2159679 ((● ω ●))   2024-02-04 22:20:00
AI擬真已經踩到社會不可能容許的那條線了
作者: peterturtle (peter_turtle2000)   2024-02-04 22:20:00
所以才說算圖有重複性,你真的是用算出來的話同樣的數據灌下去一個像素的RGB都不會有任何差別,兩張圖相減一定是一片零,這就是沒犯罪的證據,反之做不到就是有罪
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:21:00
踩線是因為過於真實 但還是不存在實際對象
作者: moswu (蚊子)   2024-02-04 22:21:00
官府怕麻煩,最後還是個換名iwin來處理
作者: rabbit61677 (rabbits)   2024-02-04 22:21:00
那網路傳播存起來的人呢?兒少不是只抓作者
作者: dieorrun (Tide)   2024-02-04 22:21:00
你用AI產兒色 至少會真人兒童的圖吧 就算那張圖是合法的你產成色圖實際上不就在剝削那名兒童
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:22:00
以最新的技術來說還真不見得需要真實兒少圖像就能生成
作者: peterturtle (peter_turtle2000)   2024-02-04 22:22:00
你說呢,使用來路不明的管制藥物有沒有罪?
作者: rabbit61677 (rabbits)   2024-02-04 22:22:00
如果真實犯罪者說他是網路抓的圖,除非AI圖有不可竄改的證明,但說到底有機制就會有人破解
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:23:00
生成圖像的技術也在進步的 要抓訓練來源更難抓
作者: peterturtle (peter_turtle2000)   2024-02-04 22:23:00
要自行破壞證據怪我囉
作者: dieorrun (Tide)   2024-02-04 22:24:00
既然很難判斷要馬像模型槍有規定 要馬就禁掉 不就這樣
作者: rabbit61677 (rabbits)   2024-02-04 22:24:00
如果真的要從技術上說產圖沒罪,但散播絕對是有罪的
作者: peterturtle (peter_turtle2000)   2024-02-04 22:25:00
就像你主張這片地是你的、又沒有地契、在政府那邊也沒有文件,你覺得法院會放你過嗎?
作者: rabbit61677 (rabbits)   2024-02-04 22:26:00
雖然有道德瑕疵,但你自己私底下不管做什麼只要全世界沒有人知道,基本上就沒有法律會制裁
作者: leptoneta (台湾高山族自治区书记)   2024-02-04 22:27:00
所以那個衍算法是犯罪工具囉 更慘
作者: rabbit61677 (rabbits)   2024-02-04 22:28:00
可是就這個問題來看,就變成你是源頭無罪,散播出去拿到的人有罪,所以作者即使產圖無罪卻不可能無罪只是會有其他法條去辦而已,而且絕對是社會共識
作者: dbr623 (高機動鋼球)   2024-02-04 22:28:00
AI 應用現在就是未定灰色地帶了,各國都還沒明顯定論二次元宅泥菩薩過江還要多渡個 AI 是嫌通關難度太低嗎
作者: peterturtle (peter_turtle2000)   2024-02-04 22:29:00
人家就能證明自己無罪啊,看證據說話
作者: clarkyoona (clarkyoonazang)   2024-02-04 22:30:00
來了一個不懂transformer模型的
作者: leptoneta (台湾高山族自治区书记)   2024-02-04 22:30:00
檢察官拿一個兒少色圖 經由不明AI算出類似的圖就夠了
作者: rabbit61677 (rabbits)   2024-02-04 22:31:00
假設像你講的產圖無罪,那就像是你有持槍證合法持槍但是你把槍提供給沒有持槍證的人,那你還是有罪只是犯的不是非法持槍而已,而且說到底如果沒有散播出去,本來就沒有需要什麼證明好嗎
作者: dbr623 (高機動鋼球)   2024-02-04 22:33:00
連訓練資料庫都沒公開是要證明什麼,源頭就黑盒子
作者: Peurintesa (芙琳泰沙)   2024-02-04 22:33:00
二次元這次搞不好就是因為AI生成才掃到颱風尾勒==
作者: totomo168 (桃子)   2024-02-04 23:42:00
誰能論述一個人電腦裡有幾T的AI真人蘿天天對的AI真人蘿打槍,大家支持我創作自由<<誰??還有誰支持????<<硬要撞死在這上??不要騙自己電腦裡沒事生幾千張ai真人蘿圖是純欣賞啊,騙誰??誰會買單??怎麼有人就要一頭撞死在這上面??當然你自己關起來誰也不真的沒事,那被抓就是有扯到散播,那更out了直接爆破

Links booklink

Contact Us: admin [ a t ] ucptt.com