首页 国产 亚洲 小说图片,337p人体粉嫩胞高清视频,久久精品国产72国产精,国产乱理伦片在线观看

設為書簽 Ctrl+D將本頁面保存為書簽,全面了解最新資訊,方便快捷。 您也可下載桌面快捷方式。點擊下載 | 新浪科技 | 新浪首頁 | 新浪導航

蘋果掃描iPhone所有照片,發現問題還要報警:全新“保護”計劃惹眾怒

2021-08-06 13:14:37    創事記 微博 作者: 機器之心   

  歡迎關注“新浪科技”的微信訂閱號:techsina 

  來源:機器之心  

  這種叫做 neuralMatch 的系統將會實時掃描你手機里的所有照片,傳上云端進行比對。如有非法則聯系執法部門。

  眾所周知,iPhone 雖然貴但很好用。人們選擇 iPhone 的一大理由就是信息安全:不論是手機上物理存在的“安全飛地”,還是蘋果公司面對 FBI 解鎖嫌犯手機需求寧愿打官司也不從的態度,這家公司對于個人隱私的保護一直為人稱道。

  然而就在最近,蘋果突然改變態度的消息傳出,讓人大為驚訝。

  《金融時報》等媒體爆出,蘋果計劃掃描所有存儲在 iPhone 和 iCloud 上的照片,以找出兒童色情圖片。新系統將能夠幫助執法部門進行刑事調查,但可能會導致法律和政府對用戶數據的需求增加。

  據外媒報道,該系統名為 neuralMatch,一旦檢測到非法圖像,將主動提醒一組人工審核人員。如果經驗證“違法內容”屬實,公司將聯系執法部門。

  neuralMatch 系統使用來自美國國家失蹤與受剝削兒童保護中心(National Center for Missing & Exploited Children)的 20 萬張圖像進行訓練。該系統將率先在美國推出,用戶存儲的照片將被掃描并與已知的兒童虐待圖像數據庫進行比較。

  這還不是全部,蘋果還有一個新功能會掃描兒童賬號登陸的 iPhone,系統會掃描發送和接收到的所有 iMessage 圖像,以查找色情內容,如果兒童年齡在限制以下,則出現違規圖像時會通知父母。父母可以選擇打開或關閉這個功能。

  據介紹,蘋果的掃描是全方位的:這些新功能將會在今年晚些時候作為 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的特性在更新時推出,也就是說大概率會在 9 到 10 月份上線。

  從 iPhone 本地開始掃描

在今天的金融時報上,蘋果的照片掃描計劃被正式曝光。在今天的金融時報上,蘋果的照片掃描計劃被正式曝光。

  知情人士透露:之后在美國每張上傳到 iCloud 的照片都會得到一份“安全憑證”,來說明是否可疑。一旦一定數量的照片被標記為可疑,蘋果就會對所有這些可疑的照片進行解密和人工審查,如果涉及違法行為,蘋果會將其轉交給相關法律部門。

  具體來說,蘋果掃描照片的方式有點類似于微軟的 PhotoDNA,不過蘋果的掃描主要是在設備端進行的,處理過的圖像會被轉換為機器學習所需的參數,在云端與數據集進行匹配,設備端不會知道是否找到了匹配項。這意味著當新功能推出時,NCMEC CSAM 數據庫的一個版本將下載到每部 iPhone 中。

  不論這套技術中的隱私和安全保護是如何實現的,上傳到 iCloud 的所有照片都將被掃描。

  蘋果的第二個新功能是基于 iMessage 發送或接收的掃描照片的敏感內容通知。為了實現這種功能,其將推出一個設備端機器學習分類器,旨在檢測“色情圖片”。蘋果稱這些功能(在發布時)僅限于已注冊家庭帳戶的 18 歲以下美國用戶。在新流程中,如果 13 歲以下兒童持有的帳戶希望發送設備上機器學習分類器判定為色情圖片的圖像,則會彈出通知,告訴父母會接到通知。

  如果兒童仍然選擇發送內容,則系統將通知家長,且圖像將不可撤銷地發送至手機的家長控制部分,供家長稍后查看。對于 13 至 17 歲的用戶,會彈出類似的警告通知,但沒有家長通知。

  類似地,如果 13 歲以下兒童收到 iMessage 認為“色情”的圖片,在被允許查看照片之前會彈出一個通知,告訴兒童他們的父母將收到通知。如果用戶決定接收圖像,則會通知父母并將圖像保存到手機中。13 至 17 歲的用戶同樣會收到警告,但不會將有關此操作的通知發送到其父母的設備。

  無論是發送還是接收此類內容,未成年用戶都可以選擇在不通知父母的情況下中斷發送或接收。盡管如此,蘋果無疑是在監視用戶手機內容的道路上向前走了一步。

  是安全保護還是隱私侵犯?

  霍普金斯大學教授、密碼學家 Matthew Green 對這種系統表示擔憂。Green 說:“這種工具能夠可以幫助查找手機中的兒童色情內容,但想象一下,如果掌握權力的公司或機構獲得了這種系統,會發生什么?”

  他表示:“即使你認為蘋果不會允許這些工具被濫用,仍然有很多值得關注的地方,這些系統依賴于一些可能存在問題的數據庫,而普通消費者卻無法查看這些數據。”

  來自約翰霍普金斯大學教授密碼學的計算機科學副教授 Matthew Green 對此事表示了擔憂。

  此外,有研究人員表示,雖然該系統目前經過訓練可以發現兒童性虐待,但它也具備掃描任何其他有針對性的圖像和文本的潛力,例如恐怖斬首等暴力場景。蘋果的這種行為可能增加其他科技公司使用類似技術的壓力。

  曾在 Facebook 和 Deliveroo 工作的安全研究員和隱私活動家 Alec Muffett 表示:“蘋果這一舉動是將讓個人隱私領域倒退一大步。”

  與其他基于云的照片存儲系統和社交網站一樣,蘋果此前已經根據已知的虐待兒童圖像檢查了 iCloud 的文件。但當試圖訪問存儲在個人設備上的數據時,這個過程就變得更加復雜了。neuralMatch 的新系統則更加激進,允許機器學習系統對本地存儲的數據進行訪問。

  不過也有專家認為,蘋果的監控方式已經很大程度上保護了隱私。薩里大學計算機安全教授 Alan Woodward 表示:“蘋果系統的侵入性較小,因為篩選是在手機上完成的,并且只有在可疑信息匹配時才會向搜索者發送通知。只有采用這種去中心化方法,才是蘋果新系統保護隱私的最佳選擇。”

  目前尚未有更多關于該系統的細節,不過除了《金融時報》,蘋果開啟 neuralMatch 計劃的消息也已被其他多個消息源證實。知情人士透露:蘋果最快可能在本周宣布更多有關該系統的信息。

(聲明:本文僅代表作者觀點,不代表新浪網立場。)

分享到:
保存   |   打印   |   關閉