爲打擊兒童性虐待犯罪,蘋果公司宣佈將對用戶設備掃描審覈

新浪數碼訊 8月16日上午消息,蘋果公司近日推出了三條打擊兒童性犯罪的和性侵害的功能,但這些也引發了人們對隱私保護的擔憂,對此,負責軟件工程的高級副總裁克雷格·費德里吉(Craig Federighi)發言稱解釋了相關問題。

這三條保護政策在十天之前宣佈,包括:機器篩查Messages信息,當孩子收到色情圖片時,圖片會變得模糊,並且Messages應用程序會顯示一條警告;兒童性虐待內容(簡稱CSAM)檢測,該功能讓蘋果檢測存儲在iCloud雲端照片中的這類圖像特徵信息,如果確定有此類圖像,蘋果會向執法部門報告;Siri和搜索功能改進,人們可詢問Siri如何報告兒童性虐待內容或性剝削,Siri將告訴用戶在哪可以彙報給有關部門。

其中引發爭議的主要是第一二條,費德里吉在接受《華爾街日報》採訪時說:“我們希望每個人都能更清楚地瞭解這一點,因爲我們對自己正在做的事情感到非常積極,而我們看到它被廣泛誤解了。”

“事後看來,我承認,同時引入這兩個功能是造成這種混亂的一個緣由,”他繼續道。 “很明顯,很多信息都被嚴重地混淆了。我相信早期傳出的聲音是,‘天哪,蘋果正在掃描我的手機以獲取圖像。——但這不是事實。”

費德里吉隨後沒事了iCloud掃描上傳的CSAM圖像所涉及的過程,以及當通過消息向孩子發送此類圖像時會發生什麼。

對這些功能的批評集中在蘋果正在分析用戶iPhone照片的看法上。 “這是一個常見但非常深刻的誤解,”費德里吉說。

“這個過程作爲將某些內容存儲在雲中的過程的一部分來應用,而不是對您存儲在Messages信息的圖像進行某些處理……或者您正在通過網絡瀏覽的內容。這實際上是在iCloud中存儲圖像的管道的一部分。”

他想說的是,蘋果公司是在分析圖像是否與國家失蹤和受虐兒童中心提供的已知CSAM圖像數據庫匹配,而不是分析圖片本身。他們將國家失蹤和受虐兒童中心的數據庫轉換爲一組不可讀的哈希函數(將一段較長的數據映射爲較短的數據),之後進行對比。一旦匹配程度達到某個閾值,蘋果公司將手動審查確認匹配,然後禁用用戶的帳戶,並向國家失蹤和受虐兒童中心發送報告。

當被問及現在是否有發佈此功能的壓力時,費德里吉說沒有。

“不,我們想通了,”他說。 “我們本來就想做點什麼,但此前一直不願意部署涉及掃描所有客戶數據的解決方案。”

相關文章