最危險的新興技術(shù)是什么?

最危險的新興技術(shù)是什么?
2022年03月03日 09:58 新浪科技

  新浪科技訊 北京時間3月3日,據(jù)國外媒體報道,在喜歡以末日思維思考的人看來,技術(shù)必將給文明帶來災(zāi)難。誠然,我們也許永遠(yuǎn)看不到通過CRISPR基因編輯技術(shù)出生的嬰兒、失去控制的自動駕駛汽車、或者想殺害人類的人工智能。但隨著技術(shù)加速進(jìn)步,萬一這一天真的到來,事態(tài)可能遠(yuǎn)超我們的想象。但與此同時,有一個問題值得思考:最危險的新興技術(shù)是什么?讓我們看看專家們對此怎么說吧。

  澤菲爾·蒂喬特 (福特漢姆大學(xué)法學(xué)副教授)

  辦公室監(jiān)控。這種技術(shù)會造成嚴(yán)重的信息不對稱,讓雇主可以像對待實驗室小白鼠一樣監(jiān)視自己的員工,使本就惡劣的上下級關(guān)系進(jìn)一步惡化。雇主們深知如何以不健康的方式刺激員工工作,也知道如何用更少的工資榨取更多的價值。這讓他們可以排除異己,還能通過區(qū)別對待離間員工。這種技術(shù)如今在職場中已經(jīng)隨處可見,假如不加以制止,很快就會泛濫成災(zāi)。

  邁克爾·利特曼 (布朗大學(xué)計算機(jī)科學(xué)教授) 

  在2021 AI100報告中,有一章描述了人工智能當(dāng)前對我們最緊迫的威脅有哪些。這支包含17人的專家團(tuán)隊認(rèn)為,雖然人工智能系統(tǒng)在現(xiàn)實世界中的應(yīng)用可以造福人類,但隨著其應(yīng)用范圍的擴(kuò)大,誤用、過度使用、以及濫用的風(fēng)險也將激增。

  專家團(tuán)隊對人工智能最大的擔(dān)憂在于所謂的“技術(shù)解決主義”,即“認(rèn)為像人工智能這樣的技術(shù)可以用來解決任何問題”的心態(tài)。許多人都認(rèn)為,人工智能所做的決策客觀中立、不偏不倚,但這些決策結(jié)果可能得到不恰當(dāng)?shù)膽?yīng)用,也可能基于歷史偏見、甚至明晃晃的歧視。如果數(shù)據(jù)或數(shù)據(jù)解讀算法不夠透明,公眾就可能被蒙在鼓里,根本不清楚這些決策會對自己的生活造成怎樣的影響。

  人工智能系統(tǒng)目前已經(jīng)被用來在網(wǎng)上發(fā)布虛假信息了,因此很可能對民主造成威脅,被用作散播法西斯主義的工具。另外,如果對人工智能中的人為因素考慮不夠充分,就會導(dǎo)致人們在“不信任人工智能系統(tǒng)”和“過度依賴這些系統(tǒng)”之間來回?fù)u擺。人工智能算法也在涉及器官分配、疫苗等醫(yī)療問題的決策制定中起到了一定作用,很可能導(dǎo)致生死攸關(guān)的后果。

  如果在出現(xiàn)問題時,對系統(tǒng)效果負(fù)責(zé)的個人或組織可以負(fù)起主要責(zé)任,人工智能的危險性或許能得到緩解。將所有利益相關(guān)方牽涉進(jìn)來,雖然會大大減慢人工智能解決困難問題的速度,但卻是不可或缺的一步,因為技術(shù)濫用的負(fù)面后果實在過于嚴(yán)重。技術(shù)專家也應(yīng)當(dāng)像醫(yī)療行業(yè)一樣,堅決遵守“不傷害”原則。

  戴維·沙姆韋·瓊斯  (哈佛大學(xué)流行病學(xué)教授) 

  至于誰能擔(dān)得起“最危險的新興技術(shù)”這一頭銜,候選人顯然有很多。例如,CRISPR等基因編輯技術(shù)的效果不一定有支持者們宣稱的那樣強大,反而有可能造成嚴(yán)重破壞。此外,社交媒體也展現(xiàn)出了造成大范圍傷害的威力。但最令我擔(dān)心的,還是人臉識別技術(shù)在監(jiān)控領(lǐng)域的大規(guī)模應(yīng)用。從很多方面來說,這項技術(shù)都是一項重要的社會資產(chǎn)。例如,人臉識別可以提高交易效率,登機(jī)時無需出示身份證或登機(jī)牌,在商店買東西時也可以直接刷臉付賬。人臉識別也可以加強社會治安,更容易找到和逮捕犯罪分子。

  所以這種技術(shù)危險在哪里呢?首先,我們的一舉一動都將不再隱私,總有人能知道我們在哪、我們?nèi)ミ^哪里。就算這些個人信息沒有被濫用,隱私感和匿名感的喪失也會讓人感覺不適。此外還有信息濫用問題,并且這種風(fēng)險是真實存在的。任何有途徑拿到這些信息的人都有可能將其用于不法目的。從心理扭曲的追求者到政府部門,都有可能對我們?nèi)サ牡胤胶鸵姷娜诉M(jìn)行監(jiān)視,甚至預(yù)測我們的下一步行動。并且我還懷疑,這種技術(shù)的危害也許遠(yuǎn)超我們的想象。

  瑞安·卡羅  (華盛頓大學(xué)法學(xué)教授)

  我認(rèn)為最危險的信息技術(shù)當(dāng)屬量子計算機(jī)。除了加密破解之外,量子計算的危險性其實已經(jīng)不是什么新鮮事了。早從超級計算機(jī)時代開始,量子計算對個人隱私的威脅就已有加速增長之勢。如今有了足夠的數(shù)據(jù)和處理能力,當(dāng)今的計算機(jī)系統(tǒng)抓取私人信息的能力更是在不斷增強。我擔(dān)心的是,利用量子計算技術(shù),政府和企業(yè)都將變成“福爾摩斯”,從公開信息中猜出我們的所有秘密。

  艾米·韋伯 (前景、趨勢及情境規(guī)劃公司Future Today Institute首席執(zhí)行官)

  最危險的新型技術(shù)應(yīng)該是生物學(xué),或者說得更準(zhǔn)確些,合成生物學(xué)。這門技術(shù)的目標(biāo)只有一個:利用細(xì)胞編寫全新的(或者更好的)遺傳編碼。合成生物學(xué)運用工程學(xué)、人工智能、遺傳學(xué)和化學(xué)方法,對生物身體部件或生物體進(jìn)行重新設(shè)計,從而加強特定能力或創(chuàng)造新功能。利用一系列最新合成生物學(xué)技術(shù),我們不僅能讀取和編輯DNA編碼,還能編寫出新的編碼。這就意味著,我們很快就能給生物體編程了,就好像它們是微型電腦一樣。

  合成生物學(xué)讓我們可以將DNA序列變?yōu)檐浖ぞ撸拖馱ord一樣,只不過編輯的對象是DNA編碼而已。研究者按自己的想法完成DNA編寫或編輯后,新的DNA分子就可以借助3D打印機(jī)之類的技術(shù)憑空“打印”出來。這種DNA合成技術(shù)正在飛速進(jìn)步中。如今的技術(shù)已經(jīng)能常規(guī)打印出包含幾千個堿基對的DNA鏈了,可用于建立新的細(xì)胞代謝通路、甚至足以構(gòu)成一個完整的細(xì)胞基因組。

  這樣可能會造成什么問題呢?用不了多久,我們就能編寫出任何病毒的基因組。想到新冠病毒,這種設(shè)想似乎很嚇人,但病毒不一定都是壞事。事實上,病毒只是盛放遺傳編碼的容器而已。未來我們也許可以創(chuàng)造出對人體有益的病毒,用于治療癌癥等特定疾病。

  合成生物學(xué)將在氣候危機(jī)和食物及水資源短缺中發(fā)揮重要作用。它將減少我們對動物蛋白質(zhì)的依賴,最終還能實現(xiàn)藥品定制化,人們的身體將成為自己的“藥房”。

  但合成生物學(xué)之所以是最危險的新興技術(shù),原因并不在科學(xué)本身,而是出在我們?nèi)祟惿砩稀_@要求我們挑戰(zhàn)現(xiàn)有的心智模式,提出一系列復(fù)雜艱深的問題,還要對生命的起源展開理性討論,否則我們就會制造風(fēng)險、錯失機(jī)會。在接下來10年里,我們要充分利用數(shù)據(jù)、證據(jù)及科學(xué)精神來制定關(guān)鍵決策,比如制造哪些治病專用的新病毒、基因隱私是什么樣的概念、以及誰擁有“生物體”的所有權(quán)等等。監(jiān)管機(jī)構(gòu)也要確定企業(yè)應(yīng)如何從人工編輯細(xì)胞中盈利、以及在實驗室中保存合成生物體需遵守什么流程。

  我們本身在合成生物學(xué)中也扮演了重要的角色。如果你可以重新編輯自己的身體,你會做出什么選擇?如果可以對你未來的子女進(jìn)行編輯,你會不會對此感到困擾?如果食用合成生物可以緩解氣候變化,你會接受嗎?合成生物學(xué)將成為人類有史以來打造過最強大、最可持續(xù)的制造平臺。我們?nèi)缃裾幱谶@場工業(yè)革命的風(fēng)口浪尖。

  杰倫·范登霍文  (代爾夫特理工大學(xué)倫理與技術(shù)教授)

  我認(rèn)為最危險的技術(shù)是那些阻擋人們了解世界和他人需求的社會或認(rèn)知技術(shù)。這些技術(shù)容易導(dǎo)致人性的泯滅,使人們變得自私自戀、不為他人考慮。這些技術(shù)就像造霧機(jī)一樣蒙住了我們的雙眼,讓我們對人類共同體和人類的責(zé)任視而不見。這些技術(shù)完全沒有信仰可言。研發(fā)它們的人要么是被別人當(dāng)成工具利用,要么極其天真幼稚,要么是同謀,要么就是偽造假象的大師、堅決否認(rèn)人類未來可能遭遇的一切苦痛。

  所以我認(rèn)為,這些助長認(rèn)知混亂的數(shù)字技術(shù)是我們面臨的最大威脅。這些技術(shù)的危險性很容易被遮蔽或否認(rèn),因此大多數(shù)人都覺得沒什么不對。而與此同時,其它真正能造福人類的技術(shù)反而會被污名化。暴君和惡棍飽受贊譽,英雄和救世主卻被肆意抹黑。

  有的人還未放棄抵抗氣候變化、尋找抗疫方法、阻止醫(yī)院利用人工智能分診、揭露深層騙局等等。但這些人如今已難以辨明哪些才是真相、哪些做法在道義上可以接受。而多數(shù)人恐怕都早已放棄了對真相的追尋,變得溫馴順從、洋洋自滿。

  希德·約翰遜 (紐約州立上州醫(yī)科大學(xué)生物倫理與人類學(xué)副教授)

  異種移植(即將一種動物的器官和組織移植到另一種動物體內(nèi))一直被視作移植器官短缺的解決方案之一。有成千上萬人在苦苦等待救命的器官,有些人最終熬不過漫長的等待、在這個過程中不幸逝世。從上世紀(jì)60年代到90年代,研究人員做了無數(shù)次將靈長動物器官移植給人類的嘗試。但到目前為止,還沒有患者在接受異種器官后存活下來。有人只活了短短幾小時,有人堅持了幾天活幾周,原因之一在于免疫系統(tǒng)對新器官產(chǎn)生的排異反應(yīng)、甚至可怕的超急性排異反應(yīng)。

  物種之間差異越大,排異風(fēng)險越大,就像人類和豬一樣,畢竟兩個物種之間隔了8000萬年的進(jìn)化差異。但豬目前被我們視作較為理想的器官來源,因為飼養(yǎng)難度低,器官大小適合人類使用,并且每年被屠宰的豬本就達(dá)到了數(shù)億頭之多,所以為了器官殺死它們似乎也不存在太大的倫理道德問題。

  靈長類動物與人類之間的遺傳相似性會增加人畜共患病的感染風(fēng)險。美國食藥監(jiān)局就明確禁止了將靈長類動物的器官用于異種移植。但豬也可能感染與人類相似的病毒,也可能傳播人畜共患病。1998和1999年,馬來西亞的養(yǎng)豬戶中就爆發(fā)了一次因豬傳播的尼帕病毒導(dǎo)致的病毒性腦炎,導(dǎo)致100人死亡、超過1百萬頭豬被撲殺。

  新冠也是一種人畜共患病,可能先后跨越了好幾個物種、最終才傳播到人類身上,引發(fā)了這起已奪走數(shù)百萬條生命的全球大流行,給醫(yī)療體系造成了重?fù)簦l(fā)了一系列全球性社會經(jīng)濟(jì)動亂。目前,我們已在狗、貓、雪貂、黑猩猩、大猩猩、水獺、大型貓科動物、歐洲的人工養(yǎng)殖貂、以及美國的野生白尾鹿身上都發(fā)現(xiàn)了新冠病毒。

  人畜共患病通過異種器官移植傳播的風(fēng)險是個十分嚴(yán)肅的話題,許多組織都建議對器官接受者、其密切接觸者、以及參與移植過程的醫(yī)療工作者進(jìn)行終生觀察。觀察的目的倒不是保護(hù)器官接受者本身,而是出于公共衛(wèi)生考慮。因此異種移植是一項極其危險的新興技術(shù)。在最糟糕的情況下,也許會爆發(fā)另一場全球性大流行病,造成災(zāi)難性后果。

  除了異種移植之外,器官短缺其實還有其它解決方案,并且有些已經(jīng)可以投入應(yīng)用了,例如增加人類捐贈者的數(shù)量。還有些正在研發(fā)中(例如:體外培育人體器官,利用3D生物打印技術(shù)實現(xiàn)受損器官的體內(nèi)修復(fù)和再生等等)。這些技術(shù)都沒有造成全球大流行病的風(fēng)險。而異種移植技術(shù)在經(jīng)歷了數(shù)十年的研究、以及無數(shù)次失敗后,仍存在諸多疑點。如今新冠疫情已進(jìn)入第三個年頭,異種移植的疾病傳染風(fēng)險已經(jīng)成為了一個重點問題,其危險性再怎么高估也不為過。

  約翰娜·布萊森 (柏林赫爾蒂行政學(xué)院倫理與技術(shù)教授) 

  我認(rèn)為最危險的新興技術(shù)其實是各種國家治理形式。我們對社會控制已經(jīng)有了充分的了解。有些國家對這些信息的使用主要出于好意,但有些則用其壓迫和操縱少數(shù)群體、甚至削弱占多數(shù)群體的權(quán)力,無論是哪種方式,結(jié)果都很殘酷。我們還要意識到,這種暴行也包括“文化種族屠殺”,即抹去人們留下的所有記錄和歷史、否認(rèn)其祖先的存在和身份。這種做法雖然不一定會真的殺死這些人,但也會嚴(yán)重打擊其蓬勃發(fā)展的能力。

  要想解決這些問題,唯一的辦法就是創(chuàng)新治理形式,鼓勵合作行為,尊重基本權(quán)利。很多技術(shù)事實上都有“雙重用途”。我們不能選擇躺平、認(rèn)為解決方案不在自己掌控范圍內(nèi)。在任何社會層級上,政治覺醒度和參與度都十分重要。而且有趣的是,我們利用社交媒體等工具,已經(jīng)在很大程度上提高了人們的政治意識。所以我認(rèn)為還是有希望的,只不過要做的工作還有很多。

  伊麗莎白·希爾特 (伊利諾伊理工學(xué)院哲學(xué)教授)

  最危險的新興技術(shù)應(yīng)該是某種能夠脫離人類控制和監(jiān)管的技術(shù)。技術(shù)不會奇跡般地憑空出現(xiàn),本身也并不危險,危險之處其實在于設(shè)計、改造和部署它們的人類。

  雖然有很多人猜測,未來可能會出現(xiàn)超級人工智能、對人類進(jìn)行統(tǒng)治和支配,但我認(rèn)為,新興技術(shù)有很多更加實際的方法逃離人類掌控。

  例如,技術(shù)的作用原理若不夠透明,就很容易脫離我們的控制。此外,針對某一技術(shù)的功能和影響,制造商或企業(yè)也許會對公眾歪曲事實、或有所隱瞞。

  人類的情感投入也可能導(dǎo)致失去對技術(shù)的掌控。我們與技術(shù)開展互動時,越是符合自己的直覺和情感,就越容易掌握這門技術(shù)。因此類人機(jī)器人常常會模仿人與人之間的互動方式。但如果賦予技術(shù)情緒等人類特征,可能會導(dǎo)致人類單方面的情感投入,使得人與技術(shù)之間的互動不再受理性主導(dǎo)、而是受感性因素驅(qū)使。在這類互動關(guān)系中,人類將成為更容易受傷害的一方。(葉子)

人工智能
新浪科技公眾號
新浪科技公眾號

“掌”握科技鮮聞 (微信搜索techsina或掃描左側(cè)二維碼關(guān)注)

創(chuàng)事記

科學(xué)探索

科學(xué)大家

蘋果匯

眾測

專題

官方微博

新浪科技 新浪數(shù)碼 新浪手機(jī) 科學(xué)探索 蘋果匯 新浪眾測

公眾號

新浪科技

新浪科技為你帶來最新鮮的科技資訊

蘋果匯

蘋果匯為你帶來最新鮮的蘋果產(chǎn)品新聞

新浪眾測

新酷產(chǎn)品第一時間免費試玩

新浪探索

提供最新的科學(xué)家新聞,精彩的震撼圖片