Skip to content

對抗兒童情色 蘋果重拳排查個人手機上圖片的是與非

蘋果公司宣布在美國的手機用戶上排查兒童性虐材料(child sexual abuse material
,簡稱CSAM)新係統的細節。在圖片被儲存在雲端圖片庫之前,這項技術將能搜尋與已知的CSAM圖片匹配。

早在2020年1月,蘋果高級隱私官員簡·霍瓦特(Jane
Horvath)就證實,蘋果將掃描用戶上傳到雲端的照片,尋找兒童性侵圖片。

蘋果表示,一旦發現兒童色虐圖片,將把它交給後台的評審人員進行審核,然後把該手機用戶上報給執法機關。

已經有人對擔心這項技術可侵犯隱私權。一些專家甚至擔心,這種技術有可能被集權政府用來監視其公民。他們擔心技術可以被擴展到掃描一些保密的手機任容,甚至政治言論等。

蘋果表示,將於晚些時候推出的iOS 和
iPadOS(平板電腦)新版操作係統將擁有“新的加密軟件,以幫助限製CSAM的在線傳播,同時其設計也考慮了保護用戶隱私”。

工作原理

BBC北美科技事務記者詹姆斯‧克萊頓(James Clayton)說,該係統的工作原理是將用戶手機的圖片與美國國家失蹤和受虐兒童中心(
US National Center for Missing and Exploited Children
簡稱NCMEC)以及其他兒童安全組織匯總的已知兒童性虐圖片數據庫相比較。

這些圖像然後被轉換成散列(hashes,也有音譯為哈希或雜湊)形式,即可以與蘋果設備上圖像“匹配”的數字代碼。

蘋果表示,該技術還將能捕捉到經過編輯、但相似版本的原圖。

“準確度高”

蘋果說,在圖片被存儲到雲端之前,這種技術會自動把圖片與已知的CSAM散列進行掃描處理對比。據悉,這一技術的準確性極高,並確保每一客戶賬戶的出錯率每年不超過萬億分之一。

蘋果表示,如果發現匹配他們將人工手動審核每一份報告,給與證實。之後將采取措施關閉有問題客戶的賬號,並報告給法律部門處理。據介紹,同現有技術相比,新技術提供了“顯著的”隱私優勢。

蘋果表示,隻有當用戶雲端圖片賬戶中有多張已知CSAM圖片時才會引起關注,而這樣做是為了更好的保護兒童。

另據報道,包括微軟、穀歌和臉書在內的其他科技公司也分享了已知的兒童性侵圖片的散列清單。

隱私擔憂

盡管這樣,一些隱私專家仍對此發聲表示擔憂。

美國約翰霍普金斯大學安全研究員格林表示,不論蘋果的長遠計劃是什麽,他們都發出了一個明確信號,即他們認為建立一個監測和掃描用戶手機中違禁內容係統是安全的。

他還表示,至於最後結果是對還是錯幾乎無關緊要。關鍵是這將打開閘門 – 各國政府將會要求每個人都這樣做。

華客新聞 | 時事與歷史:對抗兒童情色 蘋果重拳排查個人手機上圖片的是與非