蘋果擬檢測iPhone有否兒童色情圖像 引發私隱爭議
08月06日
蘋果還沒有正式宣布這項新舉措,據《華爾街日報》報道,蘋果此舉旨在調節多年來分歧的兩個領域,公司用戶私隱保障,以及執法機關意圖了解iPhone上發生的違法行為。
蘋果尚未對這項計畫發表評論,有報道指這套監控系統一開始只會在美國應用,將納入預定下個月要發表的iOS 15的新增功能。
蘋果表示,該系統運用新的密碼技術與人工智慧,在用戶使用iCloud Photos儲存功能時,辨別出兒童色情材料。一旦偵測到特定數量的這類圖像,只限圖片不包括影片,被上傳到iCloud Photos,就會啟動圖像檢視機制,檢查其是否違法,然後通報給私人非營利組織「國家失蹤及被剝削兒童中心」。該組織是由美國國會授權於1984年成立的受虐兒童通報機構。
「國家失蹤及被剝削兒童中心」總裁兼執行長John Clark讚揚蘋果這項新功能,他說:「蘋果加強對兒童的保護,是個改變遊戲規則者。事實上,隱私和保護兒童是可以並存的。」
蘋果強調,iPhone的加密系統不會受到這項偵查功能的影響,在iPhone裝置內的資料完全保持私密。用戶只要不把圖像上傳到iCloud Photos,就不會啟動偵查系統。
然而,密碼學和安全專家Matthew Green指出,當中的哈希算法並非萬無一失,可能會出現誤報。如果蘋果公司允許政府控制指紋內容數據庫,那麼他們也許可以利用該系統來檢測明顯非法的兒童內容以外的圖片,比如壓制政治議題。