探路人工智能道德邊界護航科技向善 曠視科技成立人工智能治理研究院
來源:證券日報 記者 李喬宇
“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。”2019年的一天,當一位年輕的護理人員試圖借助家中某智能音箱查詢一些關(guān)于心臟的問題時,她得到了這樣的答案。
上述事件發(fā)生后,相關(guān)智能音箱開發(fā)者做出回應(yīng):“設(shè)備可能從任何人都可以自由編輯的維基百科上下載與心臟相關(guān)的惡性文章,并導(dǎo)致了此結(jié)果”。上述護理人員則表示,經(jīng)過搜索,并沒有發(fā)現(xiàn)此類文章。
這并非該品牌人工智能產(chǎn)品首次出現(xiàn)“事故”。此前亦有報道稱,該品牌智能語音助手曾發(fā)出過瘆人的笑聲,并拒聽用戶指令。
上述智能音箱的故事亦并非孤例,科幻電影中人工智能反制于人的場景似乎正在一步一步走進現(xiàn)實。人工智能時代下,當技術(shù)革命正在沖擊社會道德,人工智能的道德邊界在哪里,誰該為人工智能負責?
為了解決這些問題,曠視科技正式成立了人工智能治理研究院,旨在就全球人工智能治理的共性問題與社會各界廣泛溝通、與專家學(xué)者們展開研究,共同推動人工智能的健康發(fā)展。曠視科技聯(lián)合創(chuàng)始人、CEO印奇用 “理性的關(guān)注,深度的研究,建設(shè)性的討論,堅持不懈的行動”四句話,表達了曠視科技倡導(dǎo)AI治理的決心。
十大人工智能治理事件
揭秘三類挑戰(zhàn)
在人工智能治理研究院看來,在人工智能發(fā)展的歷史中,曾經(jīng)出現(xiàn)過十個標志性的人工智能治理事件。
舉例來看,2017年,斯坦福大學(xué)一項發(fā)表于《Personality and Social Psychology》的研究引發(fā)社會廣泛爭議。研究基于超過 3.5萬張美國交友網(wǎng)站上男女的頭像圖片訓(xùn)練,利用深度神經(jīng)網(wǎng)絡(luò)從圖像中提取特征,使用大量數(shù)據(jù)讓計算機學(xué)會識別人們的性取向。
這項研究的爭議點在于,一旦這種技術(shù)推廣開來,夫妻一方會使用這種技術(shù)來調(diào)查自己是否被欺騙,青少年使用這種算法來識別自己的同齡人,而在針對某些特定群體的識別引發(fā)的爭議則更難以想象。
人工智能治理事件引發(fā)的爭議亦走進了2020年。就在2020年1月份,在英國薩里大學(xué)組織的一個多學(xué)科研究項目中,研究人員使用了一種名為DABUS的人工智能。在研究過程中,DABUS開創(chuàng)性提出了兩個獨特而有用的想法:第一是固定飲料的新型裝置;第二是幫助搜救小組找到目標的信號設(shè)備。
在研究人員替DABUS申報專利成果時,遭到了歐盟專利局的駁回,理由是歐盟專利申請中指定的發(fā)明者必須是人,而不是機器。薩里大學(xué)研究人員強烈反對這一決定,他們認為因沒有人類發(fā)明者而拒絕將所有權(quán)授予發(fā)明者,將成為阻礙“人類取得偉大成果的新時代”的重大障礙。
此外,上述智能音箱勸主人自殺、AI換臉應(yīng)用引發(fā)隱私爭議、“監(jiān)測頭環(huán)”進校園惹爭議、人工智能可能引發(fā)部門人員失業(yè)風(fēng)險等事件亦被列入十大人工智能治理事件名單之列。
人工智能的道德邊界在哪里、責任人如何判定、面對工智能觸碰用戶隱私是該對抗還是妥協(xié)、如何從人工智能事件的事后補救轉(zhuǎn)為事前預(yù)防、從一事一議轉(zhuǎn)為有章可循等問題正在成為業(yè)內(nèi)密切關(guān)注的話題。
“人工智能也許會是人類的終結(jié)者。”曠視科技方面援引霍金生前預(yù)言告訴《證券日報》記者,在過去的十年內(nèi),伴隨著人工智能從理論走向產(chǎn)業(yè)化,并迎來前所未有的發(fā)展機遇的同時,人工智能也對數(shù)據(jù)使用、隱私保護、社會倫理等人類生活各方面提出新的挑戰(zhàn)。
探路人工智能
向善方向
但從當下的市場環(huán)境來看,人工智能發(fā)展期間誕生的這些風(fēng)險及挑戰(zhàn)或許并非僅靠一個企業(yè)、一個機構(gòu)、一個行業(yè)甚至一個國家所能夠攻克的。
“這需要更多跨學(xué)科合作。”復(fù)旦大學(xué)生命醫(yī)學(xué)倫理研究中心、應(yīng)用倫理學(xué)研究中心主任王國豫教授認為,人工智能倫理起源于人們對人工智能技術(shù)風(fēng)險的恐懼和擔憂,人工智能的倫理問題不是單個的技術(shù)問題,也不是算法問題,而是源于技術(shù)系統(tǒng)和人的社會生活系統(tǒng)的交互作用,人工智能倫理應(yīng)該從可能性推測走向可行性探索。
談及人工智能治理研究院設(shè)立的初衷,曠視科技方面告訴《證券日報》記者,研究院期望各界對人工智能事件有理性的關(guān)注,并針對事件背后問題做深度的研究,通過社會各界建設(shè)性的討論,才能最終將人工智能向善這件事付諸實際的行動。
這并非曠視科技首次發(fā)力人工智能的健康發(fā)展。此前,該公司還率先公布了倫理準則,從正當性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、問責和及時修正、數(shù)據(jù)安全與隱私保護六個維度,對人工智能正確有序發(fā)展做出明確規(guī)范,同時給出相應(yīng)干預(yù)措施或指導(dǎo)意見,確保人工智能能夠在可控范圍內(nèi)持續(xù)發(fā)展。曠視科技還成立了人工智能道德委員會,致力于與各方探討AI治理相關(guān)的共性問題。
“縱觀歷史發(fā)展,我們必須承認,人工智能技術(shù)正在改變世界,更在重塑著人類社會。每一次社會熱點爭議事件的背后,都是與每個個體切身利益相關(guān)的重大議題。”曠視科技方面呼吁,“行正則至遠,AI向善,行勝于言。真理越辯越明,曠視呼吁大家參與討論,為技術(shù)向善貢獻出自己的思考與觀點”。
責任編輯:陳悠然 SF104
熱門推薦
收起24小時滾動播報最新的財經(jīng)資訊和視頻,更多粉絲福利掃描二維碼關(guān)注(sinafinance)