意見(jiàn)領(lǐng)袖丨Project Syndicate
本文作者:馬切伊·庫(kù)澤姆斯基(Maciej Kuziemski)哈佛大學(xué)貝克曼·克萊恩互聯(lián)網(wǎng)和社會(huì)研究中心研究員
用“野生”算法測(cè)量、量化和優(yōu)化生活的方方面面引起了越來(lái)越多的公眾擔(dān)憂和監(jiān)管者的日益關(guān)注。但應(yīng)對(duì)之道中頗有些不切實(shí)際的想法,比如那些打著“道德的人工智能”旗號(hào)的措施。
不難理解,公共機(jī)關(guān)希望減小某些人工智能應(yīng)用的弊端,特別是那些與加強(qiáng)監(jiān)控、歧視少數(shù)群體和不當(dāng)治理決定有關(guān)的應(yīng)用。但資金短缺的政府同樣也很想采取一切能夠在提供公共服務(wù)、執(zhí)法和其他方面帶來(lái)效率增進(jìn)的科技。這兩項(xiàng)當(dāng)務(wù)之急之間的僵局讓爭(zhēng)論的主題從法律和決策轉(zhuǎn)向了宣傳行業(yè)內(nèi)自愿的最佳實(shí)踐和道德標(biāo)準(zhǔn)。
目前,領(lǐng)銜推動(dòng)這場(chǎng)運(yùn)動(dòng)的是公共機(jī)構(gòu)眾多,包括歐盟委員會(huì)和美國(guó)國(guó)防部等,其主題主要圍繞“算法公平”的概念展開(kāi)。其思想是,人類判斷的不完美性課以克服,社會(huì)糾紛可以解決,只要有自動(dòng)化的決策系統(tǒng)即可,在這套系統(tǒng)中,輸入變量(數(shù)據(jù)集)和處理(算法)被優(yōu)化用來(lái)體現(xiàn)某些定義模糊的價(jià)值觀,如“公平”和“信譽(yù)”。換句話說(shuō),重點(diǎn)不在于政治,而是調(diào)教過(guò)的機(jī)器,它們能夠去除現(xiàn)有數(shù)據(jù)集的偏誤或創(chuàng)造新的數(shù)據(jù)集。
用科技調(diào)和客觀性,從而掩蓋深層次政治沖突不是什么新鮮事。但是,隨著自動(dòng)化速度的加快,我們不能忽視這種做法。決策者越是專注于推廣自愿的人工智能道德,就越有可能采用轉(zhuǎn)移視線、大事化小和不民主的應(yīng)對(duì)方式。
看看轉(zhuǎn)移視線的風(fēng)險(xiǎn)。道德的人工智能意味著設(shè)計(jì)不知來(lái)自何處的最佳實(shí)踐數(shù)據(jù)集,然后到處以不同的設(shè)置復(fù)制。也許,通過(guò)某些多邊論壇,一群表面上相當(dāng)多樣化的專家集會(huì)準(zhǔn)備起草以合乎道德的方式開(kāi)發(fā)和管理人工智能的全球指引。他們會(huì)拿出什么呢?
哈佛大學(xué)貝克曼·克萊恩互聯(lián)網(wǎng)和社會(huì)研究中心(Berkman Klein Center for Internet and Society)最近發(fā)表了一份評(píng)論,討論了到目前為止的廣泛討論中所出現(xiàn)的50項(xiàng)“人工智能原則”。作者們發(fā)現(xiàn),對(duì)話總是集中在大約八個(gè)話題——隱私、問(wèn)責(zé)、安全、透明度和可解釋性、公平和無(wú)差別對(duì)待、科技的人力控制、職業(yè)責(zé)任以及人類價(jià)值觀的推廣。有兩項(xiàng)重大議題被忽視:結(jié)構(gòu)性權(quán)力不對(duì)稱和即將到來(lái)的氣候?yàn)?zāi)難。這些遺漏表明,為道德的人工智能制定框架的專家是一個(gè)相對(duì)封閉的圈子,基本上不太可能提供能抓住時(shí)代精神的建議。
追尋道德的人工智能還可能影響公共部門自身的監(jiān)管能力。比如,歐盟委員會(huì)成立高級(jí)別人工智能專家小組后,受到了各種批評(píng),這表明該小組可能影響了歐盟委員會(huì)自身領(lǐng)導(dǎo)該問(wèn)題的信譽(yù)。甚至該小組的一名成員、美因茨大學(xué)的托馬斯·梅特辛格(Thomas Metzinger)都將其最終的建議指南批駁為“道德粉飾”的例子。類似地,算法觀察組織(AlgorithmWatch,一個(gè)游說(shuō)集團(tuán))也質(zhì)疑 “值得信任的人工智能”能不能作為一個(gè)目標(biāo),因?yàn)閼?yīng)該授權(quán)誰(shuí)(或者什么)來(lái)定義這種東西仍不清楚。
在這里,我們可以看到,初衷良好的人工智能發(fā)展方向研究如何適得其反。只要對(duì)話仍然是含糊的,就沒(méi)人能反對(duì)信譽(yù)思維。但等到?jīng)Q策者開(kāi)始凌駕于幾十年來(lái)的科學(xué)、技術(shù)和社會(huì)(STS)、負(fù)責(zé)任的研究和創(chuàng)新(RRI)、人機(jī)交互(HCI)和其他相關(guān)領(lǐng)域的成就,情況很快就會(huì)發(fā)生變化。最終,根本無(wú)法形成可用于各層次治理的建議清單,原因很簡(jiǎn)單——道德的人工智能一開(kāi)始就不是可行動(dòng)的政策目標(biāo)。
最后,將太多注意力集中在人工智能道德上有可能會(huì)導(dǎo)致其發(fā)展脫離民主控制。許多多邊和高等教育機(jī)構(gòu)被公司所把持,人工智能例外論大行其道。人工智能需要獨(dú)特的標(biāo)準(zhǔn)的觀點(diǎn)迫使對(duì)話從公共性質(zhì)變?yōu)閷<摇⑻貦?quán)階級(jí)和全球技術(shù)官僚的閉門討論。
對(duì)私人部門而言,人工智能例外論能達(dá)到一石二鳥(niǎo)之效:科技公司既避免了現(xiàn)行寬松管制狀態(tài)發(fā)生任何變化,又能打造有社會(huì)責(zé)任擔(dān)當(dāng)?shù)男蜗蟆6鴮?duì)普通老百姓而言,結(jié)果就沒(méi)有那么美好了。認(rèn)為圍繞人工智能已經(jīng)形成了價(jià)值觀共識(shí)的錯(cuò)誤觀念成為了政治競(jìng)爭(zhēng)——即民主的本質(zhì)——中先入為主的觀念,最終會(huì)加劇社會(huì)緊張,進(jìn)一步削弱政府信譽(yù)。一旦道德最佳實(shí)踐被正式規(guī)定,那么自動(dòng)化的系統(tǒng)將把持客觀知識(shí)的許可證,盡管它們并不會(huì)受到任何有意義的監(jiān)督。它們的決定將等同于法律,扼殺一切細(xì)微差別、情境和微調(diào)。
在進(jìn)入新的十年之際,很顯然人工智能決策需要打破自愿到的框架的陳詞濫調(diào),轉(zhuǎn)向粗放的、視情景而定的監(jiān)管和執(zhí)法工具,并通過(guò)民主程序立法。馬里蘭大學(xué)的弗蘭克·帕斯奎爾(Frank Pasquale)解釋道,算法問(wèn)責(zé)有兩波,第一波集中在改善現(xiàn)有系統(tǒng),而第二波提出了關(guān)于權(quán)力和治理的根本性問(wèn)題。
放眼未來(lái),決策者應(yīng)該拋棄人工智能例外論,從其他科技采用和擴(kuò)散的例子中汲取經(jīng)驗(yàn)教訓(xùn)。他們還必須強(qiáng)化現(xiàn)有法律的執(zhí)法,允許各種公民社會(huì)組織和其他相關(guān)利益方參與討論至今仍被列為禁區(qū)的價(jià)值觀沖突相關(guān)問(wèn)題。但愿新出現(xiàn)的人工智能倫理專家封閉圈子可以打破,為受到人工智能和自動(dòng)化破壞作用影響最大的群體——政府有保護(hù)和服務(wù)責(zé)任的終端用戶和公民提供空間。
(本文作者介紹:報(bào)業(yè)辛迪加(Project Syndicate)被稱為“世界上最具智慧的專欄”,作者來(lái)自全球頂級(jí)經(jīng)濟(jì)學(xué)者、諾獎(jiǎng)得主、政界領(lǐng)袖,主題包括全球政治、經(jīng)濟(jì)、科學(xué)與文化塑造者的觀點(diǎn),為全球讀者提供來(lái)自全球最高端的原創(chuàng)文章、最具深度的評(píng)論,為解讀“變動(dòng)中的世界”提供幫助。)
責(zé)任編輯:張文
新浪財(cái)經(jīng)意見(jiàn)領(lǐng)袖專欄文章均為作者個(gè)人觀點(diǎn),不代表新浪財(cái)經(jīng)的立場(chǎng)和觀點(diǎn)。
歡迎關(guān)注官方微信“意見(jiàn)領(lǐng)袖”,閱讀更多精彩文章。點(diǎn)擊微信界面右上角的+號(hào),選擇“添加朋友”,輸入意見(jiàn)領(lǐng)袖的微信號(hào)“kopleader”即可,也可以掃描下方二維碼添加關(guān)注。意見(jiàn)領(lǐng)袖將為您提供財(cái)經(jīng)專業(yè)領(lǐng)域的專業(yè)分析。