?產(chǎn)業(yè)象限原創(chuàng)
作者丨山茶
2月22日,英偉達(dá)發(fā)布2024財(cái)年四季報(bào),營(yíng)收221億美元,同比增長(zhǎng)265%,凈利潤(rùn)123億美元,同比激增769%,雙雙大超市場(chǎng)預(yù)期。
然后,英偉達(dá)就殺瘋了。
一夜之間,英偉達(dá)市值暴漲2770億美元,創(chuàng)下華爾街單日最大漲幅的歷史記錄。如今,英偉達(dá)的市值已經(jīng)逼近2萬億美元。以國(guó)內(nèi)生產(chǎn)總值計(jì)算,英偉達(dá)市值超過了大多數(shù)其他國(guó)家經(jīng)濟(jì)體的規(guī)模。
▲圖源:福布斯
從企業(yè)層面看,這一市值也超越Meta,成為僅次于微軟、蘋果和沙特阿美的全球第四大市值的巨無霸。
但有意思的現(xiàn)象是,雖然已經(jīng)躋身第一梯隊(duì),但無論是營(yíng)收還是利潤(rùn),英偉達(dá)都與微軟、蘋果、甚至被它超過的Meta差距較遠(yuǎn)。
可以對(duì)比來看:
微軟2024財(cái)年Q2營(yíng)收620.2億美元,凈利潤(rùn)218.7億美元;
蘋果2024財(cái)年Q1營(yíng)收1195億美元,凈利潤(rùn)339.16億美元;
Meta2023年Q4營(yíng)收401億美元,凈利潤(rùn)140.17億美元。
《巴倫周刊》使用基于FactSet預(yù)測(cè)的2023年至2026年預(yù)期平均盈利增長(zhǎng),以及基于2024年預(yù)測(cè)的市盈率,對(duì)美股7大巨頭企業(yè)的PEG比率(市盈率除以盈利增長(zhǎng)率)也做了預(yù)測(cè),英偉達(dá)是其中最低的。
▲圖源:FactSet
毫無疑問,如今英偉達(dá)的市值存在巨大泡沫,但從國(guó)內(nèi)到國(guó)外,投資者卻都愿意為這樣的泡沫買單。
整個(gè)市場(chǎng)對(duì)英偉達(dá)充滿信心,因?yàn)樵谀撤N程度上,市場(chǎng)已經(jīng)將英偉達(dá)與AI時(shí)代的未來劃上了等號(hào)。
投資英偉達(dá),就是投資屬于未來的AI時(shí)代,在這樣的邏輯下,英偉達(dá)似乎值得任何市值。
那么,英偉達(dá)真的不可替代嗎?誰又會(huì)成為英偉達(dá)的對(duì)手,誰又能將它趕下神壇?
01
英偉達(dá),憑什么遙遙領(lǐng)先?
和其它半導(dǎo)體企業(yè)相比,英偉達(dá)是“遙遙領(lǐng)先”的,起碼在市值上如此。
如今,在全球前十的半導(dǎo)體企業(yè)中,不算臺(tái)積電和阿斯麥這樣的純代工廠和光刻機(jī)廠商,英偉達(dá)的市值約等于剩下七家市值的總和,甚至還有富余。
▲圖源:芯東西
撐起英偉達(dá)市值的,是其全球領(lǐng)先的AI計(jì)算芯片,包括A100、H100和即將上市的H200。根據(jù)富國(guó)銀行的統(tǒng)計(jì),英偉達(dá)目前在全球數(shù)據(jù)中心AI加速市場(chǎng)擁有98%的份額,處于絕對(duì)的統(tǒng)治地位。
很多時(shí)候,這些芯片花錢也都很難買到。早在2023年8月的時(shí)候,就有媒體報(bào)道,英偉達(dá)的訂單排到了2024年。其芯片的交付周期,也曾一度高達(dá)8~11個(gè)月(如今已經(jīng)縮短為3~4個(gè)月)。馬斯克曾為此吐槽,“英偉達(dá)的芯片比毒品還難搞到”。
產(chǎn)能不足,供不應(yīng)求,這些需求應(yīng)該自然溢出到其他廠商。從供應(yīng)鏈安全的角度考慮,面對(duì)如此集中的市場(chǎng),企業(yè)似乎也不應(yīng)該只選擇英偉達(dá)這一家的產(chǎn)品。
但全球的企業(yè)排著隊(duì)將訂單送到英偉達(dá)手中,難道,除了英偉達(dá)的芯片之外,AMD、英特爾這些企業(yè)的芯片都辦法訓(xùn)練大模型嗎?
答案當(dāng)然不是,但使用英偉達(dá)的芯片,目前仍然是訓(xùn)練和運(yùn)行大模型的最優(yōu)選擇。這種優(yōu)勢(shì)體現(xiàn)在四個(gè)方面,包括硬件性能、軟件生態(tài)、適用范圍和整體性價(jià)比。
首先是硬件性能。
以英偉達(dá)在2020年5月發(fā)布的NVIDIA A100 GPU為例,這款芯片采用7nm制程和NVIDIA Ampere架構(gòu),擁有540億個(gè)晶體管和6912個(gè)CUDA核心,最高可以提供80GB的GPU顯存,以及2TB/s的全球超快顯存帶寬。在大模型訓(xùn)練和推理常用的FP16(半精度浮點(diǎn)運(yùn)算)Tensor Core峰值性能可以達(dá)到312TF,使用稀疏計(jì)算的情況下,可以達(dá)到624TF。
▲圖源:CSDN,NVIDIA GPU A100 Ampere(安培)架構(gòu)深度解析
很多人對(duì)這些指標(biāo)沒什么概念,我們來簡(jiǎn)單解釋一下。
芯片的制程決定著同樣大小的芯片能夠放下的晶體管的數(shù)量,而晶體管的數(shù)量越多,芯片的計(jì)算能力越強(qiáng),這也是5納米的芯片一定比7納米的芯片先進(jìn)的原因。
至于CUDA核心,即CUDA線程,是英偉達(dá)CUDA平臺(tái)編程模型中的基本執(zhí)行單元。我們都知道,GPU最強(qiáng)的能力是并行計(jì)算,而CUDA核心越多,意味著芯片能同時(shí)并行計(jì)算的數(shù)量也就越多,芯片的性能更強(qiáng),完成同樣任務(wù)的速度更快。
需要注意的是,芯片的計(jì)算能力強(qiáng)和計(jì)算效率高是兩個(gè)概念。制程和晶體管的數(shù)量代表著計(jì)算能力,而CUDA核心的數(shù)量,代表著計(jì)算效率。
至于顯存和帶寬,則決定了GPU在運(yùn)行時(shí)的效率。其中顯存決定GPU同時(shí)能夠存儲(chǔ)的最大數(shù)據(jù),而顯存帶寬,則決定顯存和顯卡之間的數(shù)據(jù)傳輸速度。
舉一個(gè)簡(jiǎn)單直白的例子,在一個(gè)流水線上,原材料需要從庫房運(yùn)送到車間進(jìn)行裝備,然后將成品再運(yùn)回庫房。顯存決定了庫房能夠放多少原材料,而顯存帶寬,則決定每次從庫房送原材料的速度。如果庫房不夠大,或者材料傳輸速度不夠快,那車間的生產(chǎn)能力再強(qiáng),也無法生產(chǎn)出成品。所以顯存和帶寬,其實(shí)決定芯片能夠參與訓(xùn)練多大參數(shù)規(guī)模的大模型,以及訓(xùn)練大模型的速度。
明白了這些基本概念,我們?cè)儆米钣写硇缘膬杉移髽I(yè),進(jìn)行對(duì)比。
首先是AMD,目前主打的芯片是MI250X,發(fā)布于2021年年底,采用7nm工藝,擁有582億個(gè)晶體管,顯存128G,顯存帶寬3.2768 TB/s,F(xiàn)P16峰值性能為369 TF,只有60個(gè)計(jì)算單元。
▲圖源:AMD官網(wǎng),MI250X
其次是英特爾,目前主打芯片Ponte Vecchio,同樣發(fā)布于2021年,采用7nm工藝,宣稱晶體管數(shù)量達(dá)到1020億,是全世界晶體管數(shù)量最多的芯片。這款芯片顯存128GB,顯存帶寬3.2TB/s,F(xiàn)P16峰值性能184TF,計(jì)算單元102個(gè)。
▲圖源:英特爾 Hot Chips 演示的幻燈片,展示了 PVC 上的小芯片
我們會(huì)發(fā)現(xiàn),即使從單純的數(shù)據(jù)上看,英特爾和AMD也沒有完全被英偉達(dá)甩開,甚至在某些領(lǐng)域,這兩家的芯片還領(lǐng)先英偉達(dá)的A100。
但是這里有兩個(gè)誤區(qū),第一個(gè)誤區(qū)是,英特爾和AMD這兩款芯片的發(fā)布時(shí)間比A100都要晚一年,他們真正對(duì)標(biāo)的對(duì)手,其實(shí)應(yīng)該是英偉達(dá)在2022年初發(fā)布的H100,而現(xiàn)在英偉達(dá)的芯片已經(jīng)更新到H200了。
▲圖源:Semianalysis
第二個(gè)誤區(qū)在于,硬件指標(biāo)并不完全等于芯片的整體能力,軟件生態(tài)是決定芯片性能和使用的第二個(gè)關(guān)鍵指標(biāo)。
這就像手機(jī)和操作系統(tǒng)一樣,手機(jī)的硬件配置再好,沒有一個(gè)好的操作系統(tǒng),對(duì)于消費(fèi)者來說仍然不是一款好的手機(jī)。而這里需要提到的,就包括英偉達(dá)的CUDA平臺(tái)、NVLink和Tensor Core等軟件生態(tài)。
比如CUDA平臺(tái),我們前面提到的CUDA核心就是這個(gè)平臺(tái)的產(chǎn)物,它可以提高芯片的并行計(jì)算能力;它可以通過編程,提高GPU的能效比,讓同樣的工作耗費(fèi)更少的能源。
此外,CUDA平臺(tái)還支持廣泛的應(yīng)用程序,包括科學(xué)計(jì)算、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、圖像處理、視頻處理等等,它還允許技術(shù)人員通過C++等常用的編程語言來編寫GPU代碼。打一個(gè)不恰當(dāng)?shù)谋确剑@相當(dāng)于中國(guó)人不用學(xué)習(xí)英文,直接使用中文指揮外國(guó)人做事情,幫助技術(shù)人員節(jié)省了巨大成本。
但目前市面上大多數(shù)程序員已經(jīng)深度依賴CUDA平臺(tái)和開發(fā)工具,就像我們使用微信許多年了,你的朋友、聊天記錄、朋友圈都在這個(gè)微信上,即使現(xiàn)在出現(xiàn)一個(gè)更好用的社交軟件,你也很難遷移。
CUDA帶來的生態(tài)壁壘也類似這個(gè)道理,其他平臺(tái)雖然也有自己的軟件生態(tài),比如AMD有自己的GCN 架構(gòu),英特爾有Xe架構(gòu),甚至為開發(fā)者提供類似“一鍵換機(jī)”遷移功能,但都很難與英偉達(dá)競(jìng)爭(zhēng)。
當(dāng)然,這里面也有一些曲線救國(guó)的做法,比如以AMD為首,越來越多的芯片企業(yè)采用了“打不過就加入”的策略,選擇將自己的芯片兼容到CUDA平臺(tái),早在2012年的時(shí)候,AMD就與Nvidia 達(dá)成了一項(xiàng)協(xié)議,允許AMD在其GCN架構(gòu)GPU中使用 CUDA 技術(shù),所以現(xiàn)在我們?cè)贏MD的芯片中,也會(huì)看到CUDA核心。
當(dāng)然,對(duì)于英偉達(dá)來說,CUDA也只是護(hù)城河的一部分,其他的技術(shù)如NVLink也至關(guān)重要。
作為大模型訓(xùn)練的GPU,沒有哪家企業(yè)會(huì)單獨(dú)使用一張GPU,每次都會(huì)使用至少幾百張卡,甚至上萬張卡一起建立計(jì)算集群。NVLink是一種鏈接技術(shù),可以實(shí)現(xiàn)GPU之間的高速、低延遲的互聯(lián)。如果沒有這種技術(shù),整個(gè)芯片算力的集群就無法實(shí)現(xiàn)1+1>3的效果,而且會(huì)增加GPU之間的通信延遲,執(zhí)行任務(wù)的效率會(huì)降低,芯片的功耗會(huì)增加,最終增加整個(gè)系統(tǒng)的運(yùn)行成本。
大模型訓(xùn)練實(shí)際上是一個(gè)非常消耗能源的事情,國(guó)盛證券做過一個(gè)計(jì)算,假設(shè)每天約有1300萬獨(dú)立訪客使用ChatGPT,那每天的電費(fèi)就需要5萬美元。而如果沒有NVLink,這筆成本還會(huì)指數(shù)級(jí)上升。
芯片某種程度上就像購車一樣,購車只是第一次成本,之后的油費(fèi)、保養(yǎng)、保險(xiǎn)才是成本的大頭。所以黃仁勛才說,“AI系統(tǒng)最重要的不是硬件組成的成本,而是訓(xùn)練和運(yùn)用AI的費(fèi)用?!?/p>
所以,雖然AMD、英特爾在某些芯片上把價(jià)格定得比英偉達(dá)更低,但是從長(zhǎng)期成本來考慮,具有更優(yōu)軟件生態(tài)和協(xié)同、配套工具的英偉達(dá)芯片仍然是性價(jià)比最高的選擇。
當(dāng)然,這里面還要考慮到使用場(chǎng)景的問題。
比如英偉達(dá)的大客戶,主要是以Meta、微軟、亞馬遜、Google為代表的云計(jì)算平臺(tái)。有媒體報(bào)道,頭部云計(jì)算廠商在英偉達(dá)H100 GPU整體市場(chǎng)份額中的占比達(dá)到50%。
▲圖源:Omida Research
而云廠商采購芯片的邏輯,主要是構(gòu)建算力集群,然后通過云服務(wù)平臺(tái)將這些算力再賣出去。但這里就會(huì)存在一個(gè)問題,就是云廠商并不知道客戶會(huì)拿這些算力來做些什么,比如有的企業(yè)會(huì)用來做機(jī)器學(xué)習(xí),有企業(yè)需要大模型訓(xùn)練,也有企業(yè)需要做大模型推理。
不同的需求,背后對(duì)應(yīng)的算力配置也不盡相同,它需要底層的芯片能夠支持多種編程模型,支持多種數(shù)據(jù)類型,有較好的可拓展性和良好的性能和功耗等等。而這些,恰恰是英偉達(dá)硬件能力加軟件生態(tài)帶來的優(yōu)勢(shì)。
綜合來看,無論是從硬件性能,還是軟件生態(tài);無論是從開發(fā)工具和部署工具,到長(zhǎng)期使用的成本和可開發(fā)應(yīng)用場(chǎng)景。對(duì)比同類競(jìng)爭(zhēng)對(duì)手,英偉達(dá)都屬于最有性價(jià)比,且遙遙領(lǐng)先的存在。
這就是為什么明明需要排著長(zhǎng)隊(duì)、忍受長(zhǎng)時(shí)間等待,大家卻仍然執(zhí)著于英偉達(dá)芯片的原因。
02
誰想替代英偉達(dá)?
難道英偉達(dá)真的不能被超越嗎?當(dāng)然也不是,在巨大的市場(chǎng)利益面前,從傳統(tǒng)半導(dǎo)體巨頭到初創(chuàng)企業(yè),圍剿英偉達(dá)的呼聲從來就沒有停止過。
特別是最近幾年,隨著云計(jì)算和云端AI芯片的火爆,已經(jīng)有無數(shù)的半導(dǎo)體公司說過,自家芯片已經(jīng)在部分性能上超過了英偉達(dá)A100,就像今天也有無數(shù)大模型企業(yè)會(huì)說自己已經(jīng)在某些方面超過OpenAI GPT-3.5一樣。
在最新披露年報(bào)中,英偉達(dá)是這樣描述自己的競(jìng)爭(zhēng)風(fēng)險(xiǎn)的。
公司的競(jìng)爭(zhēng)來源主要有兩個(gè),一個(gè)是 GPU、CPU、DPU、嵌入式SoC和其他加速AI計(jì)算處理器產(chǎn)品的公司,比如英特爾、AMD、高通、華為;另一個(gè)是提供基于InfiniBand(無線帶寬技術(shù))、以太網(wǎng)、光纖通道和專有技術(shù)的半導(dǎo)體高性能互連產(chǎn)品供應(yīng)商,比如華為、思科、惠普這樣的通信公司,以及亞馬遜、微軟、阿里、谷歌、華為這樣的云服務(wù)公司等等。
特別是第一次被英偉達(dá)列為對(duì)手且被反復(fù)提到的華為。從芯片硬件到軟件,從云服務(wù)到通信解決方案,英偉達(dá)幾乎將華為當(dāng)做所有領(lǐng)域的競(jìng)爭(zhēng)對(duì)手。
奇怪的是,雖然在2023年8月,科大訊飛創(chuàng)始人劉慶峰就提到華為的GPU已經(jīng)可以對(duì)標(biāo)A100了,但其實(shí)從客觀的性能、使用成本,軟硬件生態(tài)工具,華為與英偉達(dá)之間仍然有著代際的差距。
華為被如此重視,關(guān)鍵在于兩點(diǎn):
一是市場(chǎng)環(huán)境的問題,由于眾所周知的原因,英偉達(dá)的高端芯片在國(guó)內(nèi)的銷路并不暢通,在全面國(guó)產(chǎn)替代的背景下,其針對(duì)中國(guó)的特供版芯片在中國(guó)的競(jìng)爭(zhēng)力也在降低。在這樣的背景下,華為擁有更多的成長(zhǎng)空間,不必直接對(duì)標(biāo)英偉達(dá)最先進(jìn)的H200。
另一個(gè)關(guān)鍵是華為的生態(tài)能力非常齊全,作為通信起家的企業(yè),華為不僅擁有自己的芯片,服務(wù)器,還擁有自己的云計(jì)算平臺(tái)和大模型?;旧?,華為覆蓋了AI這條產(chǎn)業(yè)鏈從頭到尾的所有環(huán)節(jié),對(duì)比英偉達(dá)擁有更大的潛力和可能。
如今,華為的昇騰910B正在瘋狂席卷中國(guó)市場(chǎng),除了科大訊飛之外,國(guó)內(nèi)多地的智算中心也都已經(jīng)用上了華為的芯片?!敦?cái)經(jīng)》之前報(bào)道,華為昇騰系列產(chǎn)品目前處在供不應(yīng)求狀態(tài),價(jià)格約只有英偉達(dá)A100的60%甚至可以更低。
為了應(yīng)對(duì)國(guó)內(nèi)市場(chǎng)的變化,英偉達(dá)也在積極推出新的產(chǎn)品。2月初,有媒體報(bào)道,英偉達(dá)的新款國(guó)內(nèi)專供芯片H20已經(jīng)開始在接受經(jīng)銷商的預(yù)定。
▲圖源:NVIDIA 由H2O.ai和NVIDIA提供支持的融合AI生態(tài)系統(tǒng)
而有趣的是,作為新產(chǎn)品,英偉達(dá)H20每張的定價(jià)換算成人民幣僅在8.6萬~11萬左右,剛好略低于華為昇騰910B 12萬元左右的價(jià)格。在英偉達(dá)承受中國(guó)市場(chǎng)壓力的背景下,這被看做是一種防守策略。
除了在國(guó)內(nèi)有被黃仁勛親自認(rèn)證的競(jìng)爭(zhēng)對(duì)手華為之外,海外市場(chǎng)英偉達(dá)其實(shí)也是群狼環(huán)伺。
最虎視眈眈的自然是AMD。
2023年6月,AMD發(fā)布了Instinct MI300,目標(biāo)是對(duì)標(biāo)英偉達(dá)H100,其晶體管數(shù)量達(dá)到1530億,內(nèi)存192GB、內(nèi)存帶寬5.3TB/s,分別是英偉達(dá)H100的大約2倍、2.4倍和1.6倍。
軟件上,AMD仍然延續(xù)兼容CUDA的策略,一方面通過遷移工具,翻譯CUDA應(yīng)用的策略吸引英偉達(dá)的開發(fā)者,另一方面開源自家的ROCm軟件,提高企業(yè)和開發(fā)者的自主權(quán)。
對(duì)于芯片算力這么基礎(chǔ)的部分,沒有企業(yè)希望英偉達(dá)成為自己的唯一供應(yīng)商,所以在MI300推出之后,包括OpenAI、微軟、Meta都紛紛表態(tài)將采購MI300。
除了AMD,即使是已經(jīng)在AI上落后的英特爾,也不甘心錯(cuò)過這場(chǎng)潑天富貴。
▲圖源:彭博社 英特爾公司首席執(zhí)行官Patrick Gelsinger于2023年12月14日星期四在美國(guó)紐約舉行的英特爾AI Everywhere發(fā)布會(huì)上發(fā)表講話
英特爾最新的AI芯片Gaudi3將在2024年上市,這款芯片采用5nm工藝,最高配備128GB的內(nèi)存。按英特爾的宣傳,這款芯片的帶寬是Gaudi 2(7nm工藝)的1.5倍,BF16功率是其4倍,網(wǎng)絡(luò)算力是其2倍,并表示Gaudi3的性能將優(yōu)于英偉達(dá)的H100。同時(shí),美國(guó)政府也在對(duì)英特爾進(jìn)行扶持,預(yù)計(jì)將向英特爾提供超過100億美元的補(bǔ)貼。
從戰(zhàn)略上,與英偉達(dá)的優(yōu)勢(shì)在云端不同,英特爾的優(yōu)勢(shì)在與其廣闊個(gè)人終端市場(chǎng)。所以英特爾其實(shí)將更大的賭注壓在了個(gè)人終端的AI化上。英特爾CEO基辛格多次提到,要重構(gòu)PC體驗(yàn),并表達(dá)對(duì)未來AI PC市場(chǎng)的看好。英特爾希望依靠其CPU在個(gè)人PC上的優(yōu)勢(shì),率先搶占這一市場(chǎng),然后再通過消費(fèi)市場(chǎng)反向促進(jìn)云端市場(chǎng)的繁榮,打一波農(nóng)村包圍城市的戰(zhàn)役。
事實(shí)上,芯片的行業(yè)特點(diǎn)與軟件、或者互聯(lián)網(wǎng)的商業(yè)可以通過建立用戶規(guī)模,或者生態(tài)就建立壁壘實(shí)現(xiàn)贏者通吃不同。作為高度技術(shù)密集型產(chǎn)業(yè),芯片技術(shù)的代際變化非常大,只要存在技術(shù)迭代的機(jī)會(huì),后來者就永遠(yuǎn)有彎道超車的可能。
芯片不同于軟件,或者互聯(lián)網(wǎng)等其他業(yè)務(wù)模式,建立起一定的用戶規(guī)模之后可以一直贏者通吃。只要存在技術(shù)迭代的機(jī)會(huì),后來者就永遠(yuǎn)有彎道超車的可能。
而無論是AMD還是英特爾,亦或者華為,他們都有深厚的技術(shù)研發(fā)能力和充裕的資金,這些企業(yè)可能會(huì)在這個(gè)階段暫時(shí)落后,但也誰無法篤定,這些企業(yè)不會(huì)出現(xiàn)一次技術(shù)涌現(xiàn),或者抓住某個(gè)技術(shù)迭代的關(guān)鍵時(shí)期后來居上。
從最新財(cái)報(bào)看,AMD 2023年Q4數(shù)據(jù)中心的銷售額22.8億美元,同比增長(zhǎng)38%,表明市場(chǎng)已經(jīng)在逐步接納其AI芯片的使用。
而除了AMD和英特爾這樣的老牌玩家之外,這個(gè)市場(chǎng)上還有很多創(chuàng)業(yè)者在前赴后繼。
最近比較出名的如Groq,其針對(duì)大語言模型量身定制的LPU芯片每秒可以生成500個(gè)token,遠(yuǎn)超英偉達(dá)芯片的效率。當(dāng)然,這個(gè)成績(jī)?nèi)匀皇窃趯?shí)驗(yàn)場(chǎng)景下的結(jié)果,最終工程化交付還有很長(zhǎng)的距離,且這款芯片也還有許多技術(shù)問題有待解決。
但這本質(zhì)上代表,面對(duì)新的場(chǎng)景,如今的芯片的技術(shù)仍有創(chuàng)新空間。
所以我們會(huì)看到,作為全球最具代表的AI企業(yè),OpenAI也宣布了自己的造芯計(jì)劃。其創(chuàng)始人CEO Altman前段時(shí)間不僅傳出7萬億美元的募資芯片,在這之前更是已經(jīng)投資了包括Cerebras、Rain Neuromorphics和Atomic Semi在內(nèi)的至少三家芯片公司。
遠(yuǎn)在日本的孫正義,在互聯(lián)網(wǎng)時(shí)代已經(jīng)功成名就的他也打算放過這次機(jī)會(huì),剛剛從巨額的投資虧損中解套的他,立馬就提出了募集1000億美元以創(chuàng)立一家人工智能半導(dǎo)體芯片企業(yè)的計(jì)劃。
有媒體報(bào)道,在這次計(jì)劃中,軟銀將出資300億美元資金,另有700億美元的資金可能來自中東地區(qū)的機(jī)構(gòu)。而在2023年,軟銀集團(tuán)曾以640億美元的估值收購ARM公司25%股份,這也是孫正義投入芯片的底氣之一。
當(dāng)然,對(duì)于英偉達(dá)來說,更大或者更直接的危險(xiǎn)還是來自其最大的客戶——云廠商。
面對(duì)巨大的算力需求,國(guó)內(nèi)如百度、華為、阿里都相繼推出了自己的AI芯片,在國(guó)外,包括微軟、亞馬遜、Google也同樣在開發(fā)自己芯片。
當(dāng)然,這些芯片主要針對(duì)的是特定場(chǎng)景的計(jì)算需求,與英偉達(dá)面向通用場(chǎng)景的GPT仍然有不同。但這也代表,云計(jì)算廠商正在逐步減少對(duì)英偉達(dá)的依賴。而正如前面所提到的,這部分企業(yè)才是真正支撐英偉達(dá)業(yè)績(jī)的主要客戶。
面對(duì)這些既定的,或者潛在的市場(chǎng)變化,英偉達(dá)自然也沒閑著。據(jù)路透社報(bào)道,英偉達(dá)近期已與微軟等主要云廠商聯(lián)系,商討為云廠商定制AI芯片的問題。
同時(shí),英偉達(dá)也在持續(xù)推出新的芯片,以期望不斷拉開與后來者的距離。目前,英偉達(dá)已經(jīng)公布了其下一代AI芯片B100的消息,設(shè)計(jì)性能要比H100快3倍。
所以,雖然超越英偉達(dá)的機(jī)會(huì)仍然存在,這個(gè)世界也從不缺少挑戰(zhàn)“霸權(quán)”的勇士,但這個(gè)任務(wù)顯然還很漫長(zhǎng)。
(聲明:本文僅代表作者觀點(diǎn),不代表新浪網(wǎng)立場(chǎng)。)