[情報] 蘋果iPhone擬偵測兒童色情圖像 引發隱私

作者: BlueSat (BlueSat)   2021-08-06 09:44:08
標題:
蘋果iPhone擬偵測兒童色情圖像 引發隱私保護爭議
內文:
詳情請見新聞內文
https://money.udn.com/money/story/5599/5654300
簡述:
蘋果表示,該系統運用新的密碼技術與人工智慧,在用戶使用iCloud Photos儲存功能時,辨別出兒童色情材料。一旦偵測到特定數量(蘋果不透露具體數字)的這類圖像,只限圖片不包括影片,被上傳到iCloud Photos,就會啟動圖像檢視機制,檢查其是否違法,然後通報給私人非營利組織「國家失蹤及被剝削兒童中心」。
蘋果強調,iPhone的加密系統不會受到這項偵查功能的影響,在iPhone裝置內的資料完全保持私密。用戶只要不把圖像上傳到iCloud Photos,就不會啟動偵查系統。
心得:
嗯.... 隱私跟兒童保護的trade off??
目前預計只在美國啟用
作者: YanYain (炎魔幻武 燄)   2021-08-06 10:11:00
未來就把領域管到ACG,結果角色設定超過18歲。歐美人認為是兒童就是兒童。自認為自己的標準就是國際的標準。
作者: xcycl (XOO)   2021-08-06 11:21:00
文中說的是 Photos 是拍照,文中講的是拍攝兒童色情滑坡到二次元圖片也太快
作者: YanYain (炎魔幻武 燄)   2021-08-06 11:38:00
隱私本身就自打臉了,自於ACG我也說了哪知道未來有沒有可能。歐美做這種事情不是一天兩天的事了。
作者: kyleJ (資工人)   2021-08-06 11:41:00
#1W_UluK6 (Gossiping)Google超前部署了,有在iPhone裡用Google相簿備份的人可能早就被看過一輪
作者: tgyhum (vinc)   2021-08-06 12:13:00
其實這也是因為歐美有立法儲存在你伺服器的資料不能有未成年色情(歐美兒童指的是未成年)有的話會罰伺服器持有者,另外歐美是把非實在未成年當成實在未成年管,這也是為什麼ex要逃難
作者: cityport (馬路不平避震故障)   2021-08-06 12:28:00
小嬰兒露雞雞也會被認定兒童色情喔,臉書已經發生過
作者: ZnOnZ (最亮的星)   2021-08-06 12:59:00
Google又再抄蘋果了
作者: neomaster (Nelson)   2021-08-06 13:04:00
相片影片還是放在自己的儲存設備安全
作者: milkBK (blitzkrieg)   2021-08-06 13:45:00
自拍小GG會不會被惡童偵測
作者: Luos (Soul)   2021-08-06 15:30:00
還好我全丟Google Photos 已經不用在擔心了
作者: rockmanx52 (ゴミ丼 わがんりんにゃれ)   2021-08-06 15:47:00
Google Photos早就開始了 雖然最早是SkyDrive
作者: maplefff (maplefff)   2021-08-06 17:42:00
幹你娘,居然跟魔頭Google變同路人
作者: Xperia (X霹靂鴨)   2021-08-06 19:13:00
看到仙子爆氣覺得好笑
作者: guanting886 (Guanting)   2021-08-06 19:17:00
google ai:這人雖然存了不少很變態的色情內容,但都已成年,嗯沒問題,他是一個合法的變態,立即呼叫google ad推送更多地方媽媽給他,欠騙
作者: nimab (你媽比讚!)   2021-08-06 20:47:00
信蘋果真的會重視隱私的人真的蠢 行銷噱頭而已當認真?當初這麼有信仰的相信 現在就乖乖吞吧未來蘋果還會更打自己的臉的 消費者只不過是他的斂財工具而已 包括隱私也是
作者: MonkeyCL (猴總召)   2021-08-07 12:41:00
謝謝蘋果加持為使用者隱私
作者: yahappy4u (yo ya ha)   2021-08-09 05:42:00
可憐哪;消費者只有當肥羊的份,雖然兒童安全也很重要就是,但應該可以用別的方法吧
作者: yao03911 (Max)   2021-08-09 19:38:00
如果是貧乳臉又幼會被誤判嗎 哈哈
作者: neil25 (neil)   2021-08-11 09:31:00
蘋果不是真心在處理這些問題 感覺是某種實驗或測試

Links booklink

Contact Us: admin [ a t ] ucptt.com