AI大模型資本產業峰會即將召開!報名入口>>【下載地址】
本報記者 蔣牧云 何莎莎 上海 北京報道
每個硬幣都有兩面。隨著AI技術在金融領域落地,數據安全、隱私保護等問題也日益凸顯。
《中國經營報》記者了解到,近期金融領域的AI詐騙數量上升趨勢明顯。同時,由于違法證據收集難度較大,導致部分AI詐騙躲避了法律制裁。對此,不少金融企業也在不斷升級自身風控體系,并將包括大模型等AI技術應用其中。
值得思考的是,AI詐騙攻防戰背后,引出了AI技術如何保持可控與可用之間平衡的問題。對此,多位業內人士向記者表示,金融行為中包含諸多行為細節與需求、相關業務條款等,如何形成一個“法規-模型堤壩-用戶需求”之間的動態平衡,將是行業內的永恒命題。為此,需要企業、行業、政府、公眾等所有層面的共同努力。
詐騙門檻降低
據了解,目前AI詐騙的形式包括AI換臉、AI擬聲、虛假驗證、網絡釣魚、身份竊取等。有技術人士告訴記者,AI的加持導致詐騙變得更加隱蔽和智能化。比如,通過AI更精準地模擬用戶行為,分析用戶數據以獲得關鍵信息,并發起更復雜的欺騙活動,這增加了金融機構的風險識別和風控難度。
AI詐騙行為也在近期成為重點打擊的對象。近日,公安部在北京召開新聞發布會,通報全國公安機關打擊整治侵犯公民個人信息違法犯罪行為的舉措成效。其中,針對“AI換臉”導致群眾被欺詐的問題,公安機關發起專項會戰,偵破相關案件79起,抓獲犯罪嫌疑人515名。特別地,針對裝修、貸款等騷擾電話的問題,公安機關聯合工商部門也開展了專項整治。
警方發布的一例較為典型的案例顯示,來自福建的郭先生是一家科技公司的法人代表。2023年4月,他的好友突然通過微信視頻聯系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶走賬。基于對好友的信任,加上已經視頻聊天“核實”了身份,郭先生在10分鐘內,先后分兩筆把430萬元轉到了對方的銀行賬戶上。事后,郭先生撥打好友電話才得知被騙,原來騙子通過AI換臉和擬聲技術,佯裝好友對其實施詐騙。
那么,AI換臉是否也能突破金融企業的風控體系?對此,某金融科技企業風控人士告訴記者,對于逼真的立體面部模型,實際上是可以突破金融機構面部識別這一關卡的。此前,詐騙分子想要打造這樣的3D模型,需要的圖片素材在300張~500張。如今,只要10張甚至更少的不同角度圖片,就可以生成較為真實的立體面部模型。該人士還補充道,除了換臉之外,擬聲也是AI詐騙常用的手段。通常,詐騙分子會提前通過騷擾電話等獲取聲音素材,隨后再合成相似的聲音,與臉部素材一起,生成極為逼真的視頻。
不過,金融機構的防范體系有多個環節,除了臉部識別之外,往往還會有資金異動監控、異地設備登錄提示等。同時,應對不斷增加的詐騙案例,金融科技企業也在不斷升級防范體系,其中也應用了包括大模型的最新AI技術。奇富科技相關負責人告訴記者,該公司通過獨有的“山?!卑踩珣B勢感知系統,能夠深入業務全流程環節,有效實現了風險篩查、預警、識別、分析、決策、處置全流程AI輔助監控與響應。依靠這類系統化技術建設,奇富科技對AI詐騙乃至整個電詐行為都有完整的防范體系。
奇富科技消保工作半年報顯示,其2023年上半年面向用戶AI反詐提醒3.3億次,反詐科普教育覆蓋1200萬人次;智能及人工反詐勸阻團隊累計攔截勸阻潛在被騙者3.9萬人,保護用戶避免損失5.1億元;智能風控反詐系統攔截涉賭人員超30萬人,攔截疑似涉賭資產約32億元,電信詐騙財損同比下降50%。
信也科技相關負責人也告訴記者,保障數據流通交易安全是AI反詐工作的重要基礎,公司針對金融反欺詐場景進行了深入研究,成功研發了圖聯邦技術FateGraph。FateGraph的推出,不僅解決了圖數據在不同單位和機構之間的孤島問題,也擴展了隱私計算的應用范圍。目前,為進一步推廣該技術,信也科技正持續加強研發創新投入,控制通信成本,在計算過程中實現對數據的保護,推動隱私計算更廣泛的落地。
根據公開信息也可以看到,近期包括騰訊云、度小滿、京東等在內的多家企業均將大模型技術應用到了金融風控。比如,2023世界人工智能大會期間,騰訊云宣布升級MaaS平臺,將行業大模型能力應用到金融風控。據悉,采用行業大模型的金融風控解決方案,相比之前有了10倍的效率提升,整體反欺詐效果比傳統模式有20%左右的提升。
尋求可用與可控的平衡
在業內人士看來,AI詐騙頻發的背后,反映出面對AI等較新的技術,數據保護等行業規范還有待跟進。對于金融科技企業而言,除了需要警惕自身信息泄漏、技術漏洞之外,也對企業自身的合規管理提出了更高的要求。
恒生電子AI技術專家向記者表示,目前AI技術進步飛快,而原有的政策法規和倫理規范并不能快速跟上技術發展。在極具變化的科技和市場環境下,AI技術公司和研究人員專注于技術本身和商業效益,可能會在社會影響方面形成一定的忽視,因此更加需要對新技術制定相關監管政策和法律法規。
近期,相關的監管辦法也在逐漸跟進。國家網信辦出臺的《互聯網信息服務深度合成管理規定》于今年1月10日正式施行,主要針對深度合成服務者的義務進行了規定。其中要求,深度合成服務提供者提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能服務的,應當進行顯著標識,避免公眾混淆或者誤認。
在AIGC(生成式人工智能)方面,國家網信辦等七部門聯合發布《生成式人工智能服務管理暫行辦法》,于8月15日起施行。其中要求,生成式人工智能服務提供者開展訓練數據處理活動時,要使用具有合法來源的數據和基礎模型,涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形等。
那么,金融科技企業在進行AI技術應用時,具體如何保護數據安全?
恒生電子AI技術專家表示,針對數據安全和隱私保護,恒生電子采取了一系列的措施來確保數據的脫敏、合規、授權和追溯,包括:去除數據中所有敏感的個人以及機構數據;對收集的所有數據進行匿名化和加密處理;制定嚴格的數據使用規范和訪問控制,只允許授權人員在控制環境下使用數據;記錄所有操作行為保證數據來源可追溯;與用戶簽訂數據保密協議,明確數據所有權和使用期限等。同時,恒生電子還通過建立可靠的網絡安全系統、定期開展安全評估等方式,識別和消除數據安全隱患。
奇富科技相關負責人也告訴記者,基于公司在金融科技領域的持續積累,形成了金融安全的頂層系統性設計思路。在設計金融行業專屬的大模型時,奇富科技充分考慮到了敏感數據收集和處理問題,如在不犧牲實用價值的同時,預先設置信息過濾壁壘和敏感數據圍欄,依照用戶需求判別行業特性后,將用戶數據或敏感數據預先封裝阻隔,只進行單次處理,只針對脫敏部分完善訓練。與此同時,通過產品與規則設計,將金融行業政策規范文檔與條款產品化,通過預處理,讓大模型處于安全可控的籠子里。
不過,該負責人也指出,從具體的合規操作來看,將AIGC產品保持一個可控可用的平衡,將是一個長久的命題?!熬唧w來說,人類自然語言、AIGC技術的發展、各個行業的法條規范三者之間有動態的變化關系,人類自然語言變化與AIGC技術可能是正相關的,二者相互促進。而相關行業規范與法條則是必不可少的抑制力量,以我們的經驗而言,法條可以產品化、預設化加入到大模型訓練,相當于為人腦預設類似于‘道德’的堤壩。以金融行業來說,金融行為中無數的行為細節與需求,無數的相關業務條款,如何將法條產品化、規則化預設,形成一個‘法規-模型堤壩-用戶需求’之間的動態平衡,將是行業內的永恒命題。”該負責人談道。
對此,恒生電子AI技術專家也表示,要解決前述問題,還有諸多可以努力的方向。具體而言,企業層面需要不斷優化算法和技術,建立內部安全審查制度,主動接受外部監管,以規避人工智能可能帶來的數據安全與社會倫理問題;行業層面則需要建立AI指引規范,開展行業認證,形成行業自律;政府層面也有待加快出臺AI監管法規和政策,推動行業合規發展,鼓勵公眾監督參與,加強國際合作。此外,公眾也需要逐步提高對AI的理解,理性看待AI的進步。
責任編輯:李桐
VIP課程推薦
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)