安裝新浪財經客戶端第一時間接收最全面的市場資訊→【下載地址】
作者: 錢童心 劉佳
生成式人工智能又一次打破人類的認知邊界,這次是谷歌出牌。
美國時間12月6日,谷歌(Google)演示其最新出爐的多模態AI大模型Gemini。
“我們離新一代人工智能模型的愿景越來越近了。”進行完一系列視頻演示后,谷歌旗下DeepMind產品副總裁伊萊·柯林斯(Eli Collins)對包括第一財經在內的媒體說,這是谷歌迄今為止功能最強大、最通用的大模型。它能夠處理視頻、音頻和文本等不同形式的信息,相較于此前的版本,Gemini可以進行更復雜的推理,并實現更細致的信息理解。DeepMind公司稱,Gemini在32項標準性能指標中有30項超過了GPT-4——然而,它們之間的差距很小。
6日,包括谷歌在內,美國超威半導體公司(AMD)、Meta等多家科技巨頭發布了生成式AI相關產品,上演了人工智能的“超級星期三”。當地時間7日一早,谷歌在美股盤前漲近3%。
與此同時,歐洲監管機構也就一項關于如何監管生成式AI的規則進行了長達十幾個小時的談判,并有望最終敲定一項令各方滿意的協議。
AI終端“元年”開啟
另據谷歌介紹,計劃明年初將其最先進版本的Gemini融入聊天機器人Bard。該公司正在開發三個版本的Gemini,其中最強大的版本可以在數據中心運行,而最基礎的版本將在移動設備上高效運行。
在移動設備上運行大模型將成為未來的趨勢。國際數據公司(IDC)報告寫道,2024年將是AI終端的元年,會有更多的AI芯片被集成到終端設備系統上。IDC預測,在中國市場上,2024年搭載AI功能終端設備將超過70%。該機構還預計,到2027年,生成式AI全球市場的規模將超過百億美元。
谷歌還推出了面向云端AI加速的新一代TPU——Cloud TPU v5p,這也是谷歌迄今為止功能最強大且最具成本效益的TPU,用來訓練AI大模型。據介紹,每個TPU v5p由多達8960個芯片互連,訓練大型語言模型的速度幾乎是前幾代處理器的三倍。
谷歌、微軟和亞馬遜等科技公司都推出了AI自研芯片,以減少對芯片廠商用于訓練大模型的GPU的依賴。
當地時間周三,AMD也推出了新一代MI300系列的兩款人工智能芯片,一款專注于生成式AI應用,另一款面向超級計算機。其中,用于生成式AI的芯片版本MI300X包含可提高性能的先進高帶寬內存。
AMD預計,今年數據中心AI芯片的市場規模將達到450億美元,這高于今年6月預測的300億美元。
AMD CEO蘇姿豐(Lisa Su) 在新聞發布會上表示,AMD明年將擁有“供應大量AI芯片的能力”。AMD還預計,到2027年,數據中心人工智能芯片市場規模有望增長至4000億美元左右。
目前,英偉達仍然占據人工智能芯片約80%的市場。根據英偉達公布的數據,今年迄今為止,該公司數據中心業務收入已經接近300億美元。
以中國市場為例,英偉達的AI芯片占據了中國70億美元人工智能芯片市場的超過90%份額。但分析師表示,美國對芯片出口的新限制可能會影響英偉達對中國市場AI芯片的供應。
IDC中國副總裁周震剛對第一財經記者表示:“生成式AI正在成為人工智能的發展方向,而大模型也推動了底層計算服務范式的改變。IT基礎架構的組織模式將由云計算過渡到智能計算,新的智算能力平臺構成了未來人工智能的基礎。”
臉書母公司Meta周三也發布了新的生成式AI功能。Meta表示,將在未來幾周內通過Meta AI聊天機器人為其“文生圖”產品添加隱形水印,以提高透明度。
Meta今年7月發布了最新的Llama 2 AI大模型,該公司還在測試20多種生成式AI產品,以改善包括Instagram和WhatsApp在內的社交媒體平臺。
為了應對生成式AI的版權難題,亞馬遜云科技(AWS)也已經在上周舉行的reInvent大會上發布了隱形水印工具。
AWS生成式人工智能副總裁瓦西·菲羅明(Vasi Philomin)對第一財經記者說道:“我們從設計一開始,就想要一種方法來標記由人工智能創建的圖像,并且不會干擾視覺,沒有延遲,并且不能被裁剪或壓縮。我們創建了一個API,人們可以通過連接API,然后提供圖像來檢查圖像的出處。”
歐盟有望誕生首個AIGC監管規則
IDC報告稱,生成式AI(AIGC)將在金融、政府、制造業、能源、醫療和零售等多個垂直領域擁有廣闊的應用場景。
在企業不斷涌現大模型的同時,監管也成為政府迫切需要考慮的問題。6日,圍繞歐盟首個監管生成式人工智能規則的談判也迎來高潮。經過十幾個小時的討論,歐盟國家和立法者有望就如何監管ChatGPT等人工智能系統的管理規則達成一致。
由于全球的頂尖AI專家近期警告生成式AI可能會創造出威脅人類的強大且具有高度智能的機器,尤其是在航空、教育和生物識別監控等環境中使用人工智能,被認為具有高風險。
OpenAI近期的人事風波加劇了這種擔憂,尤其是對于如何使用安全的方式來構建通用人工智能系統,業內產生了分歧。
目前關于人工智能底層技術出現了開放和封閉兩個不同陣營的觀點:一派是以谷歌、微軟及OpenAI為代表的封閉陣營,另一派是以Meta和IBM等公司為代表的開放陣營。
封閉陣營采用閉源系統,支持閉源的理由是人工智能系統如果可以公開使用那就太危險了;而開源派則倡導采用“開放科學”方法進行AI開發,開放源代碼且免費提供平臺,以便每個人都可以為其做出貢獻。
“開放是讓人工智能平臺體現人類全部知識和文化的唯一途徑。”支持開源系統的Meta首席人工智能科學家楊立昆(Yann LeCun)在社交媒體X平臺上寫道。
而目前歐洲政府對于生成式AI的監管分歧主要在于由誰來監督大模型。一些國家希望允許大模型制造商可以自我監督,而不用通過硬性規定來強迫他們遵守,以免傷害企業的競爭力。
清華大學國強教授、智能產業研究院首席研究員聶再清對第一財經記者表示:“大模型技術的發展比想象中快,雖然現階段AI沒有對人類造成即刻威脅,但確實需要更多關注如何保證機器能夠一直服務于人,而不會反過來被壞人利用。”
聶再清表示,相關工作和討論應該關注大模型安全機制設計,同時關注如何在資本和商業化過程中確保這些安全機制的執行。“學界和工業界都需要開始投入部分精力到相應的工作中,最后達成某種共識且有效的方式。”他說道,“底線是確保大模型服務于人類。但他同時強調,在設計好AI的安全機制之后,繼續開發AI的能力還是非常重要的。
上海交通大學行業研究院“人工智能+”行業團隊負責人史占中教授對第一財經記者表示:“生成式AI的安全性和倫理規范值得高度關注,需要建立和完善監管制度。如果相關監管制度逐步跟上,相信生成式AI會造福更多人類。”
史占中認為,從政府的層面來講,要加快AI相關領域的立法,特別在金融、安全、健康等領域嚴格監管,厘清AI的設計者、使用者、內容生成者的權責關系,完善AI決策的問責機制,保護大眾合法權益;而從社會層面來講,應加強AI技術的監管,推進AI研發者遵守倫理準則與規范AI的發展。
責任編輯:周唯
VIP課程推薦
APP專享直播
熱門推薦
收起24小時滾動播報最新的財經資訊和視頻,更多粉絲福利掃描二維碼關注(sinafinance)