整理|褚杏娟、核子可樂
近日,三星員工在使用ChatGPT處理工作時,無意間泄露了公司的絕密數據。
據悉,三星允許半導體部門的工程師使用ChatGPT參與修復源代碼問題。但在過程當中,員工們輸入了機密數據,包括新程序的源代碼本體、與硬件相關的內部會議記錄等數據。不到一個月的時間,三星曝出了三起員工通過ChatGPT泄露敏感信息的事件。
由于ChatGPT會保留用戶輸入數據以進一步訓練自身,因此三星的這些商業機密現已被掌握在ChatGPT背后的AI服務商OpenAI手中。作為回應,三星公司現正開發自己的內部AI產品供員工使用。
三星保密數據泄露
據悉,起初三星全面禁止使用ChatGPT,自3月11日開始才部分開放給DS部門使用,卻沒想到在短短時間內就傳出機密外泄。
三起泄密事件均發生在三星電子半導體暨裝置解決方案(DeviceSolutions,簡稱“DS”)部門。其中,兩起與半導體設備有關,另外一起與會議內容相關。
在設計晶片設備的事件中,三星半導體事業暨裝置解決方案部門(DeviceSolutions,即DS)的一名員工在測試設備下載軟體的過程中,將出現問題的原始代碼復制到ChatGPT,并向其請教解決辦法,但這一操作反而讓三星設備測量相關的原始碼成為ChatGPT學習資料。另一起則是有員工為了解設備良率等相關資訊,將程式碼輸入ChatGPT,要求其優化代碼。
雖然是保密工作,但為了盡量提高效率、為公司節約時間以測試和驗證處理器,最終降低開發成本,三星還是決定允許員工使用外部AI服務。
第三起則是,有員工使用ChatGPT將會議記錄轉換成演示文稿,但其中卻涉及大量三星明顯不希望對外透露的內容。
由于三星員工在使用ChatGPT查詢問題并驗證答案時,不慎將這些資訊添加到ChatGPT的學習資料庫里,日后若有其他使用者在ChatGPT上提出相關問題,可能導致三星企業機密外泄。
據悉,三星正在制定相關保護措施,并進一步加強內部管理和員工訓練,目前也已將每次向ChatGPT提問限制在1,024byte以內。若采取信息保護緊急措施后又發生類似事故,三星內部很有可能會切斷ChatGPT服務,更不排除對相關人員做出處罰。
外媒稱此類數據已經無法檢索,因為其現被存儲在屬于OpenAI的服務器上。在競爭激烈的半導體行業,任何形式的數據泄露都可能給廠商帶來災難性打擊。而三星似乎沒有任何辦法要求OpenAI檢索或刪除當前持有的敏感數據。
有人認為這意味著ChatGPT并不符合歐盟的GDPR,代表管理方存在收集和使用其核心租戶數據的行為。也正因如此,目前意大利正在全國范圍內禁止使用ChatGPT。
數據安全風波不斷
3月31日,意大利數據保護局Garante宣布暫時禁用ChatGPT,并對其涉嫌違反隱私規則展開了調查。目前,OpenAI已在意大利下線ChatGPT,意大利也成為了全球首個封禁ChatGPT的國家(部分國家和地區在一開始就無法使用ChatGPT。)
意大利數據保護局Garante認為,ChatGPT平臺曾在3月20日出現了用戶對話數據和付款服務支付信息丟失情況。此外,平臺沒有就收集處理用戶信息進行告知,缺乏大量收集和存儲個人信息的法律依據。
意大利個人數據監管局(GPDP)指出,由于違反歐盟的《通用數據保護條例》(GDPR)和意大利的數據保護法,他們將立即對涉及意大利公民的“個人數據處理做臨時限制”。
GPDP強調,“OpenAI對其收集用戶及各相關方數據的行為缺乏清晰說明。”另外,ChatGPT對用戶數據的處理還可能造成錯誤印象,“因為ChatGPT提供的信息并不一定與真實數據相對應。”
GPDP還對OpenAI忽略用戶年齡審查表達了擔憂。作為微軟的投資對象,OpenAI曾提到其ChatGPT是專為13歲或以上的用戶群體所設計。但這項服務在發布后并沒有對用戶做年齡驗證,GPDP認為“考慮到其發展程度和自我意識,未成年人在使用時可能接觸到絕對不合適的答案。”
此外,據報道,非營利組織人工智能與數字政策中心(CAIDP)不久前向美國聯邦貿易委員會(FTC)投訴,要求FTC調查OpenAI違反消費者保護規則的行為,該組織認為GPT-4具有偏見性、欺騙性、對隱私和公共安全構成風險。
CAIDP認為,OpenAI違反了FTC對人工智能產品的指導,并違反了FTC法案第5條,該法案禁止不公平和欺騙性的商業行為。CAIDP敦促FTC對OpenAI進行調查,并暫停其大型語言模型的商業部署,包括ChatGPT的最新版本。
OpenAI:AI安全需要技術和制度雙重創新
顯然,最近不斷爆出的數據安全事件和意大利政府明確禁用的態度,已經引起了OpenAI的高度重視。4月5日,OpenAI發布了一篇文章來解釋自己實行的安全措施,文章試圖對業界GPDP擔憂的問題作出回應。
根據OpenAI的說法,在發布新系統之前,其會開展嚴格測試,聘請外部專家提供反饋,通過人工反饋強化學習等技術改進模型的行為,并構建起廣泛的安全與監控系統。例如,在最新模型GPT-4完成訓練之后,OpenAI投入6個多月時間在整個組織內開展工作,以保證其工作效果更安全、更一致。
OpenAI表示,強大的AI系統應當接受嚴格的安全評估。“這方面保障還需要監管的協助,因此我們與政府積極合作,希望制定出最佳監管形式。”
從實際經驗中改進安全系統
盡管進行了廣泛的研究和測試,但OpenAI也稱自己無法預測人們使用其技術的所有方式,也無法預測其對技術的濫用思路。因此OpenAI認為,從現實世界的使用方式中學習,才是隨時間推移構建并發布更加安全的AI系統的關鍵前提。
“我們謹慎地逐步向更廣泛的人群開放最強大的模型,并根據我們吸取的教訓不斷做出改進。我們通過服務和API對外開放最強大的模型,以便開發人員能夠將這項技術直接構建至自有應用程序當中。這讓我們得以監控濫用行為并采取行動,不斷建立緩解措施以響應人們濫用我們系統的真實方式。這樣安全工作才能不止于理論演繹,更要聯系現實案例。”
OpenAI表示,真實案例促使了其制定越來越細致的政策,以應對人們可能引發風險的行為。“更重要的是,我們認為社會必須有時間來更新和適應愈發強大的AI,而且受到這項技術影響的人們也應對AI的下一步發展方向擁有發言權。有了第一手經驗的指引,我們能夠通過迭代部署更有效地將各個利益相關方引入關于AI技術應用的對話當中。”
關于兒童和隱私
OpenAI強調,保護兒童是安全工作的一大重點。OpenAI明確表示,要求用戶必須年滿18歲,或者至少年滿13歲并得到父母同意后,才能使用其AI工具。OpenAI表示正在研究可驗證用戶年齡的工具,同時OpenAI聲稱已經建立起強大的濫用監控系統。據悉,與GPT-3.5相比,最新一代模型GPT-4響應禁止類請求的可能性降低了82%。
除了默認的安全護欄之外,OpenAI表示還與非營利性組織KhanAcademy等機構的開發人員合作,比如為KhanAcademy開發出的AI助手提供量身定制的安全緩解措施。
OpenAI的大語言模型訓練自廣泛的文本語料庫,這些文本包括公開可用素材、許可內容以及由人工審閱者生成的內容。OpenAI表示不會使用這些數據來銷售公司服務、做廣告宣傳或者建立個人檔案,并承諾只利用這些數據來改進模型,比如ChatGPT會通過與用戶間的對話不斷訓練和改進自身。
OpenAI承認,其部分訓練數據可能包含來自公共互聯網的個人信息,但聲稱不希望自己的模型來非跟蹤個人,因此會努力在可行的情況下從訓練數據集中刪除個人信息,微調模型以拒絕對個人信息的請求,并響應用戶提出的從系統中刪除其個人信息的請求。“這些舉措最大限度減少了我們模型可能在響應內容中,包含個人信息的可能性。”
在提高事實準確性方面,OpenAI表示這已經成為OpenAI及其他各AI開發商的關注重點。OpenAI通過被用戶標記為不正確的主數據源的ChatGPT輸出及反饋,提高了GPT-4的事實準確性。據悉,GPT-4生成符合事實內容的可能性比GPT-3.5高40%。
解決AI安全問題,需要更多投入
OpenAI認為,解決AI安全問題的切實方法,是投入更多時間和資源來研究行之有效的緩解與對齊技術,并測試它們在現實世界中被濫用的情況。
“我們認為AI的安全性與功能性發展應當齊頭并進。截至目前,我們最重要的安全工作就集中在最強大的模型上,它們更善于遵循用戶指示,但也更容易被操縱或‘引導’。我們將以愈發謹慎的態度構建和部署更加強大的模型,也會隨著我們AI系統的發展而持續加強安全預防措施。”
OpenAI認為,雖然自己投入6個多月才在部署之前大致把握住GPT-4模型的功能、優勢和風險,但未來AI系統的安全提升恐怕還需要更長的時間。因此,政策制定者和AI廠商都應保證全球范圍內的AI開發和部署活動得到有效管理,確保各方不會為了快速成功而偷工減料。“這是一項艱巨的挑戰,需要技術和制度的雙重創新。”
“安全問題的解決還需要廣泛的討論、實驗和參與,包括AI系統的行為邊界。”OpenAI最后表示,“我們已經并將繼續促進各利益相關方之間的合作和公開對話,努力打造一個更加安全的AI生態系統。”
(聲明:本文僅代表作者觀點,不代表新浪網立場。)