算法規制與決策倫理:今天我們被算法“控制”了嗎?
劉志毅
數字經濟時代,算法究竟應該是怎樣的存在?近日,一篇《外賣騎手,困在系統里》的文章刷屏,算法的“逼迫”,導致外賣員成為了交警部門數據背后的高危職業。餓了么隨后宣布將發布“為騎手多等5/10分鐘”的功能,這樣的危機公關不可不謂經典,但真正的問題不在消費者愿不愿意多等這五、十分鐘,而是機器算法在促進生產力的發展和財富累積的同時,也存在著明顯的倫理、法律和制度性問題。我們推薦劉志毅的這篇深度文章,能夠幫助人們更好的理解算法背后的利益和倫理博弈。
——編者
在國內眾多涉及數據倫理以及AI倫理的議題之中,數據的邊界、壟斷和法律問題屢屢被人提起,而算法相關的研究則少之又少,而事實上在全球的前沿人工智能的跨學科研究中,越來越多的學者都在關注算法的作用,討論代碼與法律之間的關系,并開始擔憂算法會不會動搖關于現有人類社會法律的基本框架與概念,尤其是在公共領域中的使用的倫理和風險問題。
與此同時,伴隨著區塊鏈等技術的興起,科技烏托邦的理念又再度興起,來自于硅谷和中關村的科技精英們又開始討論“代碼讓世界更加美好”的概念。
隨著人工智能的發展,我們認為:雖然智能時代的算法衍生出來的數字化世界會給現實的經濟和社會帶來巨大的福利和便利,但科技崛起之后也需要必要的監管。機器算法在促進生產力的發展和財富累積的同時,也存在著明顯的倫理、法律和制度性問題,本文就是基于“算法規制(Algorithmregulation)”的概念來理解算法的特點、重要性以及帶來所帶來的道德與倫理風險,弄清楚算法決策與算法規制的相關倫理議題的思考。
算法規制
首先,要理解算法規制(Al-gorithmregulation)的定義范疇,就首先要理解算法的定義。按照塔爾頓.吉萊斯皮(TarletonGillespie)的概念,算法廣義上可以理解為“是基于特定的計算將輸入數據轉換為所需的輸出的編碼程序”。這個概念強調的是數據的輸入輸出可以由人類或者機器來執行,同時算法可以由人創造或者機器創造,或者機器運行過程中自我修改而生成。
而算法規制這一概念是硅谷企業家奧萊利(O’Reilly)在2013年提出的,后來的學者也在不斷完善這個概念。簡言之,算法規制是一種以算法決策為手段的規制治理體系。而算法決策指的是通過算法生成指示系統來做決策,可以理解為算法治理的工具,而算法治理,則是數字化治理的重要手段和方式,也是建立數字化治理體系的基礎措施。
按照英國伯明翰大學法學院和計算機學院的教授凱倫·楊(KarenYeung)的定義,算法規制是指通過算法來規制某個領域的決策系統,通過從受規制環境相關的動態組件實時和持續的產生和搜集數據,通過知識的計算生成以及智能化的應用,實現三個方面的目標:第一,管控特定應用的風險;第二,改變用戶群體的行為;第三,實現自動優化的操作,來推動系統預定目標的形成。
事實上,算法規制在數字經濟領域無處不在,例如我們看到類似今日頭條這樣的新聞應用,會通過推薦算法來監管用戶的發布和瀏覽行為。或者抖音這樣的短視頻平臺,通過算法決策系統來實現內容的發布和流量的管理。我們可以認為,算法規制體現了一種風險管理的技術機制,這種機制的覆蓋范疇從使用應用的個體到某個平臺的所有群體,其作用就是在設定特定目標下利用算法系統指導和影響這些群體。
算法規制的模式是一種基于“設計”思想的控制模式。從治理層面來說,算法規制可以看作一種協調數字生態中特定活動的社會秩序的輸出形式。正因為如此,算法規制在學術界被認為是一種雙刃劍,一方面算法規制能夠做出精準的行為預測,可以為管理者提供非常好的循環干預機制:對于公共行為主體來說,可以通過對大數據的應用來解決社會治理問題,對于私人主體來說可以借助數據來提供個性化和定制化的服務。
另一方面,算法規制存在著諸如黑箱問題、利益和風險不對稱等問題,而且由于算法技術發展的超前性,新科技的創造者具備不對稱的信息和技術優勢,能夠按照自身利益的需求來塑造在平臺上的算法規制邏輯和社會系統,這帶來了監管的不確定性。
這里需要提到的是重要的女性政治理論家艾麗斯.M.揚的結構不正義理論。她認為社會進程使得人們系統性地受到被支配或者被剝奪其發展和行使才能的威脅。同時,這些社會進程使得另一群人能夠支配他人或者擁有廣泛機會來發展和行使他們的權力。這個理論提供了理解算法規制的重要視角,即為了避免這樣的結構性不正義的出現,我們需要轉向社會關聯責任模式。人們之所以要承擔這樣的責任,是因為每個個體的行為都促成了這樣不正義的結果。
換言之,我們并不是追溯某個個體或者團體的回顧性責任,而是通過主動減少、修正以及預防的方式來承擔這樣的前瞻性責任。由于這種責任是通過社會結構和進程存在于人們的關聯之中,它就具備了共享性的特質,人們通過集體行為承擔了社會責任。通過這樣的方式在算法規制中去體現,可以讓我們能夠對算法規制的意義和價值得到更深刻的思考。
科技的本質
事實上,我個人認為這其中涉及了如何理解科技的本質,如果僅僅從創新視角去理解的話,則很容易關注到科技變革帶來的規制行為的滯后性,從而對科技的發展產生疑慮。如果我們從社會屬性來理解技術則打開了新的視角。
科技的發展(包括算法的發展)不是無水之源、無根之木,它是社會發展過程中產生的技術組合。因此,科技的演化就會和社會結構以及相應的監管系統產生耦合,從而適應社會的發展。從某個角度來說,過去數十年中國的數字經濟發展,有賴于數字化技術與中國的創新社會環境之間的“共生關系”,創新的技術與社會的環境相互影響并動態交互,伴隨著時間推移和演化實現了共同發展。換言之,算法規制是一種算法監管的技術,也是一種社會現象,構建了一套“共生系統”,從而實現了復雜的社會與技術之間的管理。這種管理機制擁有以下特點:
第一,算法規制是通過高速的分布式信息處理機制進行機器學習實現的,這其中比較典型的包括分類系統、推薦系統等等,通過這類人工智能的算法可以實現大規模的社會治理機制的落地,所面向的數據集也往往是大型非結構化數據集,且在這個過程中算法會持續的更迭從而帶來不確定的效果。由于這樣的機制非常依賴數據,因此諸如GDPR這樣的數據治理和保護的機制就會出現,成為決定算法規制等機制發展的重要文件。
第二,算法規制通過大型自動化技術系統實現落地,由于其提供的復雜算法系統正在滲入社會生活的各個方面,因此關于它的研究往往涉及到跨學科的研究工作。無論是經濟學界所提到的“監視資本主義”還是法律界提到的“機器人自主權”的問題,或者是我們所關心的機器倫理的問題等,都體現了這一問題的復雜性。目前學術界和產業界雖然對算法的規制和管理的重要性達成了共識,但是在具體應對不同問題上則還是眾說紛紜,這對現有的數字經濟的治理體制帶來的非常大的挑戰。
第三,算法規制需要相應的風險控制機制來應對,以避免產生類似算法系統偏見即算法歧視等問題,不同的偏見和算法歧視已經成為數字化政策領域研究的熱點問題。無論是在算法決策過程中的算法決策機制存在的偏見,還是其訓練的數據集本身所存在的偏見,都會帶來機制的不公和對個體的損害。除此之外,算法的模擬行為也需要控制一定的限度,如果過度使用算法來仿照人類的行為模式和外觀,就會引發欺騙或者其他的社會道德問題。
基于以上的思考,我們可以將算法規制理解為一種風險管理系統,這個系統是對于算法決策過程中可能會引發的技術與社會的嵌入和耦合后的風險的管理。那么,我們在討論算法對決策影響時,真正關注的是什么呢?從法學角度來說,我們可以將算法決策系統對于規制行為的影響理解為三個層面的問題:
第一,對于決策程序自身的風險擔憂,這類擔憂主要集中于對決策責任對象的擔憂。由于機器學習的算法過程中其生成的邏輯基礎有部分是人類完全無法實施有意義的監督和干預的,且機器能夠在短時間內處理成千上萬參數的變化,因此人類在算法運行過程中喪失了信息的優勢,且對于結果的不可預料性也無法進行控制,因此如何在決策過程中加入更多的人類監管因素非常重要,我們所討論的“負責任的人工智能”就是基于這個視角去討論的。如果機器無法承擔責任,而與此同時算法的決策剝奪了受影響力個體表達和反駁的權利,就會剝奪了某些個體的“陳情權”等基本權利,導致不正義的出現。歐盟提出科技的治理必須是一項可以執行的權利,其基礎出發點就在于必須在這個過程中體現公平和正義的可執行性,而不是算法自動化的集成。
第二,對于決策程序所導致結果的風險擔憂,即對算法系統的安全可靠性的質疑。比如無人駕駛等算法決策系統帶來的巨大風險,以及內容推薦系統帶來的偏誤。我們所熟知的劍橋分析公司與Facebook的丑聞體現了媒體內容的偏差是如何左右民主選舉的進程的。除此之外,算法決策所產生的不公和歧視也可以理解為結果的偏見和不準確,也是引發人們對算法決策系統擔憂的重要體現。
第三,對算法決策系統帶來的個性化服務的風險擔憂,國外的電商平臺亞馬遜推出的商品算法的推薦引擎以及社交平臺Facebook所使用的動態消息機制都屬于這類個性化服務的代表。這樣的服務通常是免費的,通過對大量用戶行為信息的持續追蹤以后,對其中的信息進行分類和提煉,為用戶打上不同的標簽,從而實現所謂“個性化服務”。這類個性化服務通常意義上并非真實的用戶興趣和愛好,而是基于算法所推斷出來的興趣和愛好。換句話說,它們優化的是商業系統的商業利益的結果,而不是用戶自身的興趣,沒有去保障用戶受到誤導以后的行為偏差,也很難保障用戶的長期利益。
最后再補充下關于算法偏見的分析,在算法規制的所有對象中,算法的偏見是最具備典型性的,實際上這個概念從上世紀90年代就有了相關的討論。在這個過程中,我們主要關注在沒有人類介入的情況下處理和分析輸入數據的機器,以及機器通過數據處理和分析得到的正面和負面的結構,換句話說算法偏見關注的是非人類行為在應用算法時可能存在的偏見。
正因如此,深度學習為代表的人工智能算法才會引發研究者的疑慮。因為在這個過程中,人類的參與程度會越來越低,人們很難對算法產生的負面結果的道德責任負責。當然,人工智能系統及算法并不能全然獨立于人類,因為他們的運算背后必須有人的參與和輸入,抽離于特定場景的算法毫無意義。由于人的道德是主觀性的,關注的是個人的道德責任,而算法偏見則是客觀性的,存在一定的道德缺口,這是為什么這類問題難解的原因。關于這類問題的解決,會涉及到諸如“分布式責任”等新的范式的研究,限于篇幅我們在這不做詳細闡述,這里只是強調算法偏見為代表的問題的出現,需要通過一定的算法規制來解決。
事實上,算法規制背后的數據倫理議題,本質上就是算法成為社會與技術系統的一部分以后,如何避免算法所導致的復雜的社會系統風險的議題。我們在文中還討論了算法偏見對道德責任分配帶來的一系列挑戰,指出未來這樣的情況會越發普遍,AI的研究也不能僅限于技術研發和應用層面。
關于這類議題可以討論的還有很多,例如如何建立一種法學和計算機學的跨學科的框架;將與之相關的倫理問題轉化為可以解釋的社會治理問題,例如如何通過算法設計將法律要素放在技術系統中進行討論,如何體現算法中“科技為善”的倫理原則以及如何理解分布式道德責任的應用范式等命題,后續我會在系列文章中持續討論。
(作者系數字經濟學家、商湯智能產業研究院主任)
責任編輯:楊亞龍
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)