蘋果證實前年起掃描用戶iCloud郵件 稱為查兒童色情內容
08月24日
事件源於蘋果與電子遊戲公司Epic Games今年一場訴訟案,蘋果代表上庭時,曾提到蘋果注重用戶私隱,但令蘋果成為散布兒童色情的最佳平台。
9To5Mac取得法庭文件後,便就上述證詞向蘋果追問,查詢蘋果究竟是如何知道自家平台會散布兒童色情。最後蘋果便作出有關回應,揭發事件。
本月初,蘋果已宣佈,計劃在iPhone加入具備偵測兒童色情圖像功能,將用戶照片庫中照片,與已知兒童色情圖像匹配,一旦匹配數目超過30張,便會觸發警報並人工審查,引發私隱保障爭議。
9To5Mac其後追查,向蘋果查詢關於兒童色情政策,並好奇為何蘋果會知道自家渠道成為散布兒童色情的最佳平台。
在9To5Mac追問下,蘋果向其證實該企自2019年起,就開始掃描用戶iCloud Mail的附加檔案是否包含CSAM(child sexual abuse material兒童色情材料)。而蘋果更坦承,除iCloud Mail外,他們更掃描了其他資料,但就強調不包含iCloud備份。