21世紀(jì)經(jīng)濟(jì)報道記者倪雨晴、實習(xí)生朱梓燁 深圳報道
當(dāng)ChatGPT在彼岸快速進(jìn)化的同時,國內(nèi)的大模型應(yīng)用也如火如荼。
“我們最近剛購買了百度文心一言的標(biāo)準(zhǔn)通用接口服務(wù),業(yè)內(nèi)采購需求非常旺盛?!币患覀鹘y(tǒng)企業(yè)的數(shù)字化負(fù)責(zé)人告訴21世紀(jì)經(jīng)濟(jì)報道記者。
他介紹道:“標(biāo)準(zhǔn)接口之外,他們還提供云端部署(公有云)和本地化部署(私有云)兩種服務(wù)。其中,云端部署的基本費用是一年一個并發(fā)20萬,有需求的公司一年普遍會有10到20個并發(fā),費用都是在百萬級別,本地化的私有云部署則需要1000萬部署費用。”
可見,大規(guī)模地使用生成式AI依然成本高昂。背后的兩個事實是,AI訂單持續(xù)增加、核心的硬件成本GPU水漲船高。
一位AI領(lǐng)域資深從業(yè)者甚至向21世紀(jì)經(jīng)濟(jì)報道記者直言:“你在為你沒有見過的顯卡付費?,F(xiàn)在消費者使用的幾乎所有AI類服務(wù),全部都是由算法提供的,比如短視頻的視頻編輯系統(tǒng)、推薦系統(tǒng)都是由算法進(jìn)行驅(qū)動,這些算法的底層全部都需要調(diào)用GPU。這就意味著,只要你刷抖音,你就在直接或間接地使用GPU?!?/p>
借著新東風(fēng),GPU代表者英偉達(dá)一舉站上AI的“光明頂”。而AI江湖中的門派也在瘋狂迭代,“圍攻”光明頂。芯片巨頭們蓄勢待發(fā),英特爾已經(jīng)發(fā)布了Gaudi 2、即將推出Gaudi 3、正在研發(fā)Falcon Shores;AMD發(fā)布了MI300系列,MI400正在路上;國內(nèi)的華為昇騰、以及AI芯片企業(yè)們也在提供算力新選擇。
互聯(lián)網(wǎng)大廠們也在加快自研步伐,亞馬遜有機(jī)器學(xué)習(xí)訓(xùn)練芯片Trainium和推理芯片Inferentia;谷歌研發(fā)已久,今年發(fā)布了第五代定制張量處理器(TPU)芯片TPUv5e,用于大模型訓(xùn)練和推理;近日傳微軟將在下月發(fā)布AI芯片,代號“Athena”;甚至有消息稱OpenAI也正在探索AI芯片的自研。
AI芯片的戰(zhàn)場上,繼續(xù)硝煙四起。
英特爾和AMD的猛攻
今年以來,英特爾和AMD帶頭“主攻”,在他們的年度大會,AI是絕對的主題詞。從各自布局來看,其實兩家都已有豐富的產(chǎn)品矩陣,AI芯片主要分為GPU、FPGA以及ASIC,英特爾和AMD通過收購和研發(fā)都覆蓋了三種類型的芯片,但是兩者側(cè)重點有所不同。
從英特爾的動作看,今年最受關(guān)注的莫過于Gaudi系列,Gaudi屬于ASIC類別。已經(jīng)發(fā)布的Gaudi 2芯片是專為訓(xùn)練大語言模型而構(gòu)建,采用7納米制程,有24個張量處理器核心,并且英特爾還針對中國市場推出定制版的Gaudi 2,爭奪市場的野心可見一斑。
值得注意的是,Gaudi系列芯片是基于英特爾之前收購的AI公司Habana,而規(guī)劃中的AI新品Falcon Shores將在Habana的架構(gòu)基礎(chǔ)上,和英特爾原有的GPU等技術(shù)進(jìn)行融合,因此Falcon Shores也備受業(yè)內(nèi)關(guān)注。
對于FPGA業(yè)務(wù),英特爾則在10月初宣布將其拆分,此前英特爾斥巨資收購了FPGA龍頭Altera,數(shù)據(jù)中心一直是FPGA的重要發(fā)展市場,如今該業(yè)務(wù)即將“獨立”并IPO。而負(fù)責(zé)英特爾FPGA的部門就是PSG(可編程解決方案事業(yè)部),英特爾表示,PSG預(yù)計將于2024年1月1日開始獨立運(yùn)營。
英特爾還預(yù)計,將在2024年第一季度財報中,將PSG作為一個獨立的業(yè)務(wù)部門進(jìn)行報告。在未來兩到三年內(nèi),英特爾將保留多數(shù)股權(quán),同時計劃對PSG進(jìn)行首次公開募股,并可能與私人投資者探討加速業(yè)務(wù)增長的機(jī)會。
事實上,PSG的業(yè)績頗為穩(wěn)定,PSG團(tuán)隊預(yù)計在2023年推出15款新產(chǎn)品,目前已推出11款。FPGA產(chǎn)業(yè)也處于增長中,據(jù)第三方估計,F(xiàn)PGA市場將以復(fù)合年增長率(CAGR)超過9%的速度增長,從2023年的80億美元收入增至2027年的115億美元。剝離更多是因為英特爾在進(jìn)行整體業(yè)務(wù)架構(gòu)重組,欲通過此舉讓PSG更獨立靈活地運(yùn)作,獲取更大的成長空間。
對于英特爾而言,其正在聚焦IDM新規(guī)劃,重新回到制程節(jié)奏中,并在AI新空間上精進(jìn)。在今年的on技術(shù)創(chuàng)新大會上,英特爾公司高級副總裁、英特爾中國區(qū)董事長王銳在接受21世紀(jì)經(jīng)濟(jì)報道記者等采訪時談道:“經(jīng)常有人問我,誰是英特爾的競爭者?我一直說,英特爾的競爭對手是自己。任何一家大公司也都一樣,當(dāng)你不斷前行的時候,經(jīng)常就會自己把自己絆住。認(rèn)識到問題后,然后找到一個策略去改變,到開始真正把這個引擎重新轉(zhuǎn)起來,這是一個艱難的歷程?!?/p>
她進(jìn)一步表示:“Pat(英特爾CEO帕特·基辛格)回來之后,可以看到我們的里程碑說到做到,英特爾把自己的進(jìn)度重新抓回了自己手中。外部的環(huán)境千變?nèi)f化,我們有這么多的長處,只要把自己的執(zhí)行力落實了,一定有機(jī)會。比如AI,我們希望跟自己的客戶和生態(tài)系統(tǒng)一起去優(yōu)化?!?/p>
在王銳看來,從Gaudi2、Gaudi3到Falcon Shores,再加上至強(qiáng)的AI應(yīng)用,是英特爾未來加速器與AI計算發(fā)展的路線圖,英特爾強(qiáng)調(diào)AI無所不在,就是在客戶端、邊緣端和云端也有AI?!皫资觊g大家都在推動AI發(fā)展,現(xiàn)在已經(jīng)有很多到了夢已成真的時候。對于ChatGPT的熱潮,我認(rèn)為其實ChatGPT目前的這些應(yīng)用只是一個非常短暫的中間步驟,以后會看到越來越多的應(yīng)用?!蓖蹁J告訴記者。
再看AMD,今年6月,AMD發(fā)布用于訓(xùn)練大模型的GPU Instinct MI300系列,主要包括MI300A、MI300X兩個版本。AMD CEO蘇姿豐稱,這是全球首款針對AI和高性能計算(HPC)的加速處理器(APU)加速器。同時,AMD正積極研發(fā)更為先進(jìn)的MI400系列加速器。此外,在FPGA方面,AMD已經(jīng)收購了賽靈思進(jìn)行整合,來拓展數(shù)據(jù)中心市場。
日前,天風(fēng)國際分析師郭明錤在社交平臺上表示,AMD的AI芯片出貨量預(yù)計在2024年、2025年快速增長。到2024年,AMD的AI芯片出貨量(主要是MI300A)預(yù)計將達(dá)到英偉達(dá)出貨量的約10%,微軟有望成為 AMD AI 芯片的最大客戶,緊隨其后的是亞馬遜。如果微軟與AMD的合作進(jìn)展順利,AMD獲得Meta和谷歌的訂單,預(yù)計2025年AMD的AI芯片出貨量將達(dá)到英偉達(dá)(基于CoWoS封裝技術(shù))的30%或更多。
同時,AMD也在積極布局AI領(lǐng)域,今年8月連續(xù)收購了兩家AI企業(yè),分別是AI軟件公司Nod.ai與來自法國的AI初創(chuàng)公司Mipsology,以增強(qiáng)其人工智能軟件的開發(fā)能力。根據(jù)公開信息,Nod.ai主要為大型數(shù)據(jù)中心運(yùn)營商和其他客戶提供優(yōu)化的AI解決方案,已經(jīng)開發(fā)了一個由開發(fā)者工具、庫和模型組成的軟件生態(tài)系統(tǒng)。而Mipsology是AMD的長期合作伙伴,此前一直為AMD開發(fā)AI推理與優(yōu)化解決方案和工具,其旗艦產(chǎn)品為Zebra AI軟件。
AMD總裁Victor Peng在接受媒體采訪時表示,最新的收購是為了執(zhí)行AMD“建立用AMD芯片開發(fā)的AI軟件集合”的戰(zhàn)略。在AMD計劃大力投資于將使用其人工智能芯片所需的關(guān)鍵軟件,這也被業(yè)內(nèi)視為AMD追趕英偉達(dá)的策略之一。
互聯(lián)網(wǎng)自研芯片大軍
互聯(lián)網(wǎng)企業(yè)是GPU的核心用戶,但與此同時,巨頭們早已開啟自研AI芯片的道路。一方面是出于成本和多渠道供應(yīng)的考量,另一方面也是針對自身業(yè)務(wù)需求定制從而強(qiáng)化競爭力,其AI芯片也基本用于公司業(yè)務(wù),并不在公開市場銷售。
近期的熱點莫過于微軟和OpenAI。據(jù)媒體報道,微軟正在開發(fā)自己的AI芯片,該芯片最早將于下個月推出,芯片代號為“雅典娜(Athena)”,類似于英偉達(dá)的圖形處理器,旨在訓(xùn)練和運(yùn)行大型語言模型的數(shù)據(jù)中心服務(wù)器。若該芯片順利推出,將減少微軟對英偉達(dá)芯片的依賴并降低成本,據(jù)悉“Athena”的競爭目標(biāo)劍指英偉達(dá)的H100 GPU。
早在今年5月,就已經(jīng)有消息傳出微軟正在提供財務(wù)支持,以加強(qiáng)AMD研發(fā)AI芯片,并與之合作開發(fā)代號為“Athena”的自研AI芯片。報道還稱相關(guān)計劃從2019年已經(jīng)開始進(jìn)行,目前微軟內(nèi)部至少有 300名員工在從事代號為“Athena”的芯片研究計劃。也可以看到,芯片廠商和互聯(lián)網(wǎng)廠商的合作模式更深入、也更多元化。
在英偉達(dá)一卡難求、一卡千金的情況下,特斯拉創(chuàng)始人馬斯克在財報會上直言,投資超過10億美元用于D1芯片的研發(fā),是因為特斯拉無法得到足夠的英偉達(dá)GPU。如今,OpenAI都可能成為AI自研芯片的新晉者。
據(jù)媒體報道,OpenAI至少從去年開始討論各種解決方案,以解決AI芯片成本高昂、短缺等問題。包括自行研發(fā)AI芯片、與英偉達(dá)在內(nèi)的芯片商更密切合作、也包括評估潛在收購目標(biāo)來加速開發(fā),從而使AI芯片供應(yīng)來源更多元化,而不受限于英偉達(dá)。
從一組數(shù)據(jù)就能看出訓(xùn)練大模型的GPU需求量之大。TrendForce集邦咨詢向21世紀(jì)經(jīng)濟(jì)報道記者提供的數(shù)據(jù)顯示,由于生成式AI必須投入巨量數(shù)據(jù)進(jìn)行訓(xùn)練,為縮短訓(xùn)練就得采用大量高效能GPU。以ChatGPT背后的GPT模型為例,其訓(xùn)練參數(shù)從2018年約1.2億個到2020年已暴增至近1800億個,預(yù)估GPU需求量約2萬顆,未來邁向商用預(yù)計可達(dá)3萬顆(以英偉達(dá)A100為主)。
事實上,以亞馬遜和谷歌為代表的互聯(lián)網(wǎng)巨頭早已躬身入局。以谷歌為例,TPU的研發(fā)已久,最新推出的第五代芯片TPUv5e,用于大模型訓(xùn)練和推理,與上一代芯片相比,TPUv5e每一美元的訓(xùn)練性能提高2倍,每一美元的推理性能提高2.5倍。這一新品也被谷歌云形容為“超級計算機(jī)”,強(qiáng)調(diào)將性能與成本降低相結(jié)合,使更多的組織能夠訓(xùn)練和部署更大更復(fù)雜的AI模型。
而TPU也和谷歌的云服務(wù)緊密結(jié)合,同時谷歌云還將推出由英偉達(dá) H100 GPU提供動力的A3 VM,能夠在前一代A2 上提供三倍的訓(xùn)練性能。作為AI老將,谷歌從云端、終端、芯片、大模型、平臺工具等等,進(jìn)行了全覆蓋。它和微軟一樣,既是云計算的重要參與方,也是應(yīng)用集大成者,在生成式AI的普及趨勢下,先行者谷歌還將如何落地AI也是關(guān)注焦點。
再看亞馬遜,作為全球的云計算王者,其也在持續(xù)迭代自研芯片。此前,亞馬遜發(fā)布了基于自研的AI訓(xùn)練芯片Trainium和推理芯片Inferentia。亞馬遜表示,采用了Trainium的云服務(wù)器將大模型訓(xùn)練成本降低了50%,最多可以將30000個Trainium芯片連接起來提供超過6 exaflops的算力集群,連接帶寬可高達(dá)1600Gbps,與之相較目前AI服務(wù)器之間連接帶寬最高水平約為3200Gbps,Inferentia2則針對大模型推理進(jìn)行優(yōu)化,將推理的性價比提高了40%。
亞馬遜云科技全球產(chǎn)品副總裁Matt Wood在今年接受媒體采訪時曾談道,芯片僅是整個AI圖景的一部分,一方面,客戶可以在亞馬遜云科技的云上使用英偉達(dá)等公司的芯片;另一方面,自研AI訓(xùn)練芯片Trainium在網(wǎng)絡(luò)互聯(lián)等領(lǐng)域仍有顯著優(yōu)勢,并降低了成本。
再看國內(nèi),BAT等巨頭均已入場,比如百度旗下的昆侖芯片,瞄準(zhǔn)的是云端AI通用芯片;阿里已經(jīng)推出高性能推理AI芯片含光系列;騰訊自研的AI推理芯片紫霄,已經(jīng)量產(chǎn)并在多個頭部業(yè)務(wù)落地,目前在騰訊會議實時字幕上已實現(xiàn)全量上線;字節(jié)跳動此前也表示在組建相關(guān)團(tuán)隊,在AI芯片領(lǐng)域做一些探索。
IDC亞太區(qū)研究總監(jiān)郭俊麗向21世紀(jì)經(jīng)濟(jì)報道記者表示,近日互聯(lián)網(wǎng)巨頭通過自研AI芯片,與包括英偉達(dá)在內(nèi)的其他芯片制造商更密切地合作,想要在英偉達(dá)之外實現(xiàn)供應(yīng)商多元化,同時獲得更好的控制權(quán),提升產(chǎn)品適配性,更好匹配產(chǎn)品開發(fā)節(jié)奏。
她進(jìn)一步分析道:“長期來看,這一趨勢對英偉達(dá)的業(yè)務(wù)會造成影響,但不會太大。因為對于互聯(lián)網(wǎng)企業(yè)來說,芯片設(shè)計生產(chǎn)將面臨一些挑戰(zhàn)?!?/p>
其一是芯片設(shè)計技術(shù)復(fù)雜,高算力芯片的結(jié)構(gòu)非常復(fù)雜,計算單元、存儲訪問以及芯片互聯(lián)都需要豐富的經(jīng)驗和慎重的考量;其二是軟件生態(tài)非常關(guān)鍵,英偉達(dá)長時間建設(shè)的CUDA生態(tài),是迄今為止最發(fā)達(dá)、最廣泛的生態(tài)系統(tǒng),也是深度學(xué)習(xí)庫最有力的支持。要想撼動其地位,具有一定難度;其三是芯片生產(chǎn)具有挑戰(zhàn),獲得產(chǎn)能、保持良率、先進(jìn)封裝技術(shù)等環(huán)節(jié)也是各大技術(shù)巨頭要解決的問題。
“總體而言,想要撼動英偉達(dá)的壟斷地位,并不是一朝一夕的事。各大科技巨頭要想在AI算力芯片上突圍,就必須在專利、核心技術(shù)、人才建設(shè)、生態(tài)建設(shè)等方面不斷積累,并獲得突破。采用自研+采購可能是一個更加合適的策略。”郭俊麗總結(jié)道。
英偉達(dá)的AI版圖
當(dāng)前,英偉達(dá)仍穩(wěn)坐GPU王座。近日英偉達(dá)的最新路線圖被曝光,Arm和x86架構(gòu)的芯片都會更新。多位業(yè)內(nèi)人士向記者表示,產(chǎn)品更加強(qiáng)大,代際的差距進(jìn)一步拉大。
一方面,GPU的需求還在增加。集邦咨詢預(yù)估到2025年,全球若以等同ChatGPT的超大型AIGC產(chǎn)品5款、Midjourney的中型AIGC產(chǎn)品有25款,以及 80款小型AIGC產(chǎn)品估算,上述所需的運(yùn)算資源至少為145600~233700顆英偉達(dá)的A100 GPU。
目前主要由搭載NVIDIA A100、H100、AMD MI300,以及大型CSP業(yè)者如Google、AWS等自主研發(fā)ASIC的AI服務(wù)器成長需求較為強(qiáng)勁,2023年AI服務(wù)器出貨量(包含搭載GPU、FPGA、ASIC等)出貨量預(yù)估近120萬臺,年增率近38%,AI芯片出貨量同步看漲,可望成長突破五成。
另據(jù)研究機(jī)構(gòu)Omdia透露,英偉達(dá)在2023年第二季度出貨了900噸 H100顯卡,據(jù)估算一塊 H100 顯卡的重量大約是3公斤。因此,可以推算出英偉達(dá)在第二季度賣出了大約30萬塊H100顯卡,這是一個巨大的數(shù)字。Omdia表示,預(yù)計英偉達(dá)在未來幾個季度將銷售大致相同數(shù)量的GPU,因此該公司預(yù)計今年將銷售約3600噸的H100 GPU,也就是每年大約有120萬個H100 GPU。
另一方面,除了硬件的供不應(yīng)求,今年英偉達(dá)在AI領(lǐng)域的投資和云計算方面的布局同樣矚目。
英偉達(dá)為了保證自身在AI領(lǐng)域內(nèi)持續(xù)領(lǐng)先,除了要在技術(shù)方面更新算力更強(qiáng)的芯片外,也在參與人工智能生態(tài)領(lǐng)域的其他環(huán)節(jié)。今年英偉達(dá)強(qiáng)化了收購?fù)顿Y之路,據(jù)21世紀(jì)經(jīng)濟(jì)報道記者不完全統(tǒng)計,今年以來英偉達(dá)已投資收購了十余家人工智能方面的初創(chuàng)企業(yè),試圖完善在AI領(lǐng)域產(chǎn)業(yè)鏈多個環(huán)節(jié)的布局。
隨后英偉達(dá)又展開了多項投資,整體來看,英偉達(dá)的投資主要分為四個類別,一是云服務(wù)提供商,二是AI軟件與應(yīng)用企業(yè),三是AI芯片公司,四是與“AI+”合作的其他領(lǐng)域企業(yè)。
在云服務(wù)商方面,英偉達(dá)在4月參與了CoreWeave公司2.21億美元的B輪融資,同時又在7月被媒體報道將以3億美元入股云提供商Lambda Labs,此項交易接近達(dá)成。
而在AI軟件企業(yè)方面,英偉達(dá)的投資更是頻繁多元。早在今年2月,英偉達(dá)就宣布收購了人工智能初創(chuàng)公司OmniML,主要產(chǎn)品是Omnimizer,一個旨在快速、輕松地大規(guī)模進(jìn)行AI優(yōu)化的平臺。通過OmniML所提供的技術(shù)與產(chǎn)品,機(jī)器學(xué)習(xí)模型能夠小型化,且能夠在邊緣設(shè)備上運(yùn)行,而不是依賴云計算。
在3月英偉達(dá)參與了專注人工智能模型開發(fā)領(lǐng)域的Adept公司3.5億美元的B輪融資;隨后在6月到7月先后投資了三家大語言模型開發(fā)企業(yè)Cohere、Inflection AI與來自德國的Aleph Alpha,分別參與了這三家公司2.7億美元的投資,13億美元的融資,以及1.12億美元的融資。
除此之外,英偉達(dá)也參與了AI視頻編輯器企業(yè)Runway1.41億美元的融資,OpenAI的知名對手以色列人工智能初創(chuàng)公司AI21 labs在今年1.55億美元的C輪融資,以及一家試圖構(gòu)建AI代理工具平臺的公司Imbue2億美元的投資。
近來英偉達(dá)的投資方向也越發(fā)多元,參與了AI芯片初創(chuàng)公司Enfabrica1.25億美元的融資之外,還投資了一家醫(yī)藥公司Recursion與一家機(jī)器人公司Recursion。可見在英偉達(dá)在AI生態(tài)中的布局積極關(guān)注軟件與應(yīng)用方面的企業(yè),但同時也將棋子下在了更廣闊的AI合作應(yīng)用領(lǐng)域。
在原有的AI基礎(chǔ)上,英偉達(dá)進(jìn)一步拓寬護(hù)城河。尤其是在云計算領(lǐng)域,英偉達(dá)也在通過自己的方式進(jìn)入到云服務(wù)市場。今年英偉達(dá)提出了云服務(wù)的解決方案NVIDIA AI foundations,企業(yè)可以通過在 NVIDIA DGX Cloud 快速采用生成式AI。英偉達(dá)創(chuàng)始人黃仁勛表示要做“AI界的臺積電”。臺積電為芯片設(shè)計公司大大降低了生產(chǎn)門檻,英偉達(dá)也要做代工廠的角色,通過和大模型廠商、云廠商合作提供高性價比的云服務(wù)。
英偉達(dá)在8月份的季度報告中表示,向開發(fā)人工智能或虛擬現(xiàn)實應(yīng)用程序的公司出售軟件是一個潛在的3000億美元的收入機(jī)會。公司首席財務(wù)官Colette Kress也在季度財報電話會議上指出,軟件業(yè)務(wù)每年創(chuàng)造數(shù)億美元的收入,與芯片業(yè)務(wù)相比只是九牛一毛,但仍有望增長。
面對軟硬件同樣強(qiáng)大的英偉達(dá),不論半導(dǎo)體還是互聯(lián)網(wǎng)巨頭,想要在短期內(nèi)超越英偉達(dá)并非易事。
以英偉達(dá)和AMD的競爭為例,拓墣產(chǎn)業(yè)研究的報告就指出,2022年第四季以前英偉達(dá)、AMD Data Center營收趨勢相當(dāng)一致,營收規(guī)模也基本保持同樣差距,然2023年英偉達(dá)顯著受惠AI熱潮,2023年第一季、第二季Data Center營收分別年增14%、171%,與AMD大幅拉開差距。
AMD在2023年第二季陷入衰退(-11%),主要原因為AMD Data Center營收主要來自于一般服務(wù)器(以CPU為主),反而受到A1服務(wù)器的排擠效應(yīng)影響,若2023年第四季MI300系列產(chǎn)品能如期量產(chǎn)的話將有望改善。而2022年英偉達(dá)營收來源即以Data Center(數(shù)據(jù)中心)為主,2023年比重更進(jìn)一步攀升至76%,2023下半年在AI芯片出貨量持續(xù)增加下比重將進(jìn)一步上升。
一次又一次穿越歷史周期的英偉達(dá),正在AI高峰上加固,AMD等多個陣營正在發(fā)起新攻勢,攀登中的挑戰(zhàn)者門派還在增加,AI變局也將繼續(xù)。