蘋果公司向科技傳媒「9to5Mac」證實,已從2019年開始,掃描用戶iCloud的郵件,並解釋有關行動是為了調查用戶是否牽涉兒童色情性侵內容。蘋果強調,他們並未將有關措施,套用至iCloud內的用戶照片和備份資料。

事件源於蘋果與電子遊戲公司Epic Games今年一場訴訟案,蘋果代表上庭時,曾提到蘋果注重用戶私隱,但令蘋果成為散布兒童色情的最佳平台。

9To5Mac取得法庭文件後,便就上述證詞向蘋果追問,查詢蘋果究竟是如何知道自家平台會散布兒童色情。最後蘋果便作出有關回應,揭發事件。

本月初,蘋果已宣佈,計劃在iPhone加入具備偵測兒童色情圖像功能,將用戶照片庫中照片,與已知兒童色情圖像匹配,一旦匹配數目超過30張,便會觸發警報並人工審查,引發私隱保障爭議。

9To5Mac其後追查,向蘋果查詢關於兒童色情政策,並好奇為何蘋果會知道自家渠道成為散布兒童色情的最佳平台。

在9To5Mac追問下,蘋果向其證實該企自2019年起,就開始掃描用戶iCloud Mail的附加檔案是否包含CSAM(child sexual abuse material兒童色情材料)。而蘋果更坦承,除iCloud Mail外,他們更掃描了其他資料,但就強調不包含iCloud備份。