原標題:張曉慧:算法為大型科技公司操縱消費者創造了更多灰色空間
數字經濟提升經濟效率、改善客戶體驗主要依靠算法。實踐中,大型科技公司的算法已在很大程度上影響了用戶的消費行為。
10月24日,在第三屆外灘金融峰會上,中國金融四十人論壇資深研究員、清華大學五道口金融學院院長張曉慧認為,對算法應實施公開透明監管。算法的復雜性以及算法使用者的刻意隱瞞,使得絕大多數人無法理解算法的工作原理,導致作為算法使用者的大型科技公司,特別是那些幾乎控股了所有與個人生活行為相關的數字平臺公司得以處于事實上的支配地位,形成“算法霸權”,從而嚴重危害了算法相對人,也就是消費者的合法權益。
應該說,算法已成為大型科技公司控制市場的主要工具。張曉慧表示,算法打著保護競爭優勢和商業秘密的名義,為大型科技公司故意隱藏規則、操縱消費者和制造歧視創造了更多的灰色空間。
具體而言,一是通過不公平排名,偏向自家產品或者商業利益伙伴。比如,金融科技公司給出的資產配置偏向推薦與其自身利益高度相關的商品,還有些平臺會通過特定算法去過濾質量較差的商品,但自家的商品或服務卻在豁免之列。
二是存在算法歧視問題,包括價格歧視、身份性別歧視、教育歧視等。“大數據殺熟就是價格歧視的一種表現形式,對不同用戶提供不同的商品定價。”張曉慧認為,相較于傳統歧視行為,算法歧視往往更難加以約束。“歧視定價只有壟斷企業才能做到,在充分競爭市場上是不會存在的,屬于新型壟斷行為。”她稱。
三是通過誘導性信息與風險隱藏,誘導消費者過度消費和承擔風險。張曉慧介紹,智能算法往往容易掩蓋金融風險的復雜性,不僅會引導過度消費和負債,還可能在金融投資領域誤導投資者。此外,大型科技公司在經營模式和算法上的趨同,很容易引發羊群效應,導致市場大起大落。尤其是大型科技公司的服務對象多為金融專業知識和識別能力均較弱的社會公眾,往往更容易引發社會群體事件,可能導致系統性金融風險。
鑒于此,張曉慧認為,大型科技公司的主要算法需要實施外部監管和提高透明度。因為算法若對使用者(平臺管理者)不利,他們肯定會馬上作出改變;但若對消費者不利,則只有在被曝光或強制公開透明時,才有可能改正。
這一點已為監管部門充分認識并采取相應措施。9月30日,央行發布《征信業務管理辦法》,要求征信公司必須公開個人信用評分算法模型;《互聯網信息服務算法推薦管理規定(征求意見稿)》中,也針對“大數據殺熟”和“算法歧視”等問題,要求從業者完善算法管理制度,優化算法推薦,定期審核和評估算法模型,加強內容管理,促進算法應用向上向善。
張曉慧強調,在算法監管上,必須確立公開透明原則,以保證用戶受到公平對待,對自動化決策要事前做好風險或影響評估,避免算法濫用帶來的風險。未來還應考慮將算法納入反壟斷監督。
除了對算法應實施公開透明監管的建議,外灘峰會上,張曉慧還列名了另外幾項需要高度關注的問題,包括:應平衡兼顧數據治理中的隱私保護與公平利用;對互聯網消費信貸實施跟傳統金融服務一致的監管;以及應防止大型科技公司的惡性競爭和跨界控股投資等。
責任編輯:王進和
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)