蘋果公司刪除兒童性虐待內容檢測方案 但他們表示次計劃仍在繼續
新浪數碼訊 12月16日上午消息,蘋果公司在一夜之間從其網站上刪掉了之前公布過的兒童保護方案的相關信息,但他們明確表示該計劃仍在進行中。
今年8月,蘋果公司宣布一系列兒童保護政策,包括:機器篩查Messages信息,當孩子收到色情圖片時,圖片會變得模糊,并且Messages應用程序會顯示一條警告;兒童性虐待內容(簡稱CSAM)檢測,該功能讓蘋果檢測存儲在iCloud云端照片中的這類圖像特征信息,如果確定有此類圖像,蘋果會向執法部門報告;Siri和搜索功能改進,人們可詢問Siri如何報告兒童性虐待內容或性剝削,Siri將告訴用戶在哪可以匯報給有關部門?! ?/p>
這些引發巨大爭議,世界各地90多個政策和權利團體發表一封公開信,敦促蘋果放棄掃描兒童信息中的裸體內容和成人手機中的兒童性虐待圖片的計劃。
這些團體在事先透露給路透社的信中寫道:“雖然這些功能是為了保護兒童和減少兒童性虐待材料的傳播,但我們擔心它們會被用來審查受保護的言論,威脅到全世界人民的隱私和安全,并對許多兒童產生災難性的后果?!?/p>
在前幾天,12月10日前后,相關方案的參考資料從頁面上被清除。
蘋果公司完全刪除其無法向公眾發布信息是相當不尋常的,外界認為,這樣的行動可以被視為蘋果放棄該功能,盡管未來的第二次嘗試總是合理的。
其實,這方案一些功能已經實施,例如旨在保護年輕用戶不會在iMessage中看到或發送色情照片。第三個增加了對 Siri 和搜索的更新,提供了額外的資源和指導。
而CSAM檢測的部分,而且還刪除了該頁面介紹、Siri和搜索指南中的引用,以及一個提供解釋和評估其CSAM過程的PDF鏈接的部分。
周三下午,外媒The Verge 被告知蘋果的計劃沒有改變,暫停仍然只是暫時的延遲。
專注蘋果新聞報道,每日推送最新蘋果資訊。掃描下方二維碼關注蘋果匯官方微信(或微信中搜:appleinc2012)。
文章關鍵詞: 蘋果
已收藏!
您可通過新浪首頁(www.sina.com.cn)頂部 “我的收藏”, 查看所有收藏過的文章。
知道了