標題:
蘋果iPhone擬偵測兒童色情圖像 引發隱私保護爭議
內文:
詳情請見新聞內文
https://money.udn.com/money/story/5599/5654300
簡述:
蘋果表示,該系統運用新的密碼技術與人工智慧,在用戶使用iCloud Photos儲存功能時,辨別出兒童色情材料。一旦偵測到特定數量(蘋果不透露具體數字)的這類圖像,只限圖片不包括影片,被上傳到iCloud Photos,就會啟動圖像檢視機制,檢查其是否違法,然後通報給私人非營利組織「國家失蹤及被剝削兒童中心」。
蘋果強調,iPhone的加密系統不會受到這項偵查功能的影響,在iPhone裝置內的資料完全保持私密。用戶只要不把圖像上傳到iCloud Photos,就不會啟動偵查系統。
心得:
嗯.... 隱私跟兒童保護的trade off??
目前預計只在美國啟用