美國當(dāng)?shù)貢r間3月18日下午,全球矚目的英偉達2024GTC大會在加州圣何塞SAP球場開幕。英偉達創(chuàng)始人CEO黃仁勛在主題演講開場時風(fēng)趣地說道:“這不是演唱會,這是開發(fā)者大會,我們會談?wù)摵芏嘤嬎銠C科學(xué)的話題?!?/span>
當(dāng)黃仁勛一身皮衣走向舞臺時,觀眾立刻沸騰。此前,有人把黃仁勛演講的受關(guān)注程度與頂流歌星Taylor Swift的演唱會相提并論。
“我們正在以從未有過的方式來創(chuàng)建軟件?!秉S仁勛在演講中強調(diào),“這就需要構(gòu)建更大的GPU?!?/p>
黃仁勛演講時,英偉達的股價沒有太大變化,競爭對手AMD股價大跌超過3%。
在演講結(jié)束時,黃仁勛與正在使用英偉達軟硬件平臺開發(fā)的九款人形機器人共同登臺,還與兩個該公司正在測試的小型機器人進行互動。
大模型推理性能可提升45倍
在整場發(fā)布會上,最受關(guān)注的是英偉達基于下一代計算架構(gòu)Blackwell超級芯片而構(gòu)建的AI超級計算機。黃仁勛曾在多個場合表示,英偉達已經(jīng)成為了一家平臺公司。
黃仁勛率先發(fā)布了一款搭載英偉達GB200 Grace Blackwell超級芯片的DGX SuperPOD計算機,可以用于處理萬億參數(shù)模型,保證超大規(guī)模生成式AI訓(xùn)練和推理工作負載的持續(xù)運行。
這款新型的AI超級計算機采用新型高效液冷機架級擴展架構(gòu),在FP4精度下可提供11.5exaflops的AI超級計算性能和240TB的快速顯存,且可通過增加機架來擴展性能。
據(jù)介紹,每個DGX GB200系統(tǒng)搭載36個NVIDIA GB200超級芯片,共包含36顆NVIDIA Grace CPU和72顆NVIDIA Blackwell GPU,這些超級芯片通過第五代NVIDIA NVLink連接成一臺超級計算機。與上一代NVIDIA H100 Tensor Core GPU相比,GB200超級芯片在大語言模型推理工作負載方面的性能提升了高達30倍。
基于Grace Blackwell架構(gòu)的DGX SuperPOD由8個或以上DGX GB200系統(tǒng)構(gòu)建而成,這些系統(tǒng)通過NVIDIA Quantum InfiniBand網(wǎng)絡(luò)連接,可擴展到數(shù)萬個GB200超級芯片。用戶可通過NVLink連接8個DGX GB200系統(tǒng)中的576顆 Blackwell GPU,從而獲得海量共享顯存空間,賦能下一代AI模型。
黃仁勛表示: “NVIDIA DGX AI超級計算機是推進AI產(chǎn)業(yè)變革的工廠。新一代DGX SuperPOD集英偉達加速計算、網(wǎng)絡(luò)和軟件方面的最新進展于一體,能夠幫助每一個企業(yè)、行業(yè)和國家完善并生成自己的AI?!?/span>
與此同時,英偉達還發(fā)布了用于AI模型訓(xùn)練、微調(diào)和推理的通用AI超級計算平臺NVIDIA DGX B200系統(tǒng)。該系統(tǒng)同樣基于全新的Blackwell架構(gòu)系統(tǒng),包含8顆NVIDIA B200 Tensor Core GPU和2顆英特爾處理器。DGX B200系統(tǒng)在FP4精度下可提供高達144petaflops的 AI 性能、1.4TB的GPU顯存和64TB/s的顯存帶寬,該系統(tǒng)的萬億參數(shù)模型實時推理速度比上一代產(chǎn)品提升了15倍。
英偉達表示,全球合作伙伴預(yù)計將在今年晚些時候提供基于DGX GB200 和DGX B200系統(tǒng)構(gòu)建而成的NVIDIA DGX SuperPOD。
構(gòu)建更友好軟件生態(tài),降低GPU使用門檻
英偉達同時還宣布了多個軟件方面的更新布局。其中最重要的一項更新是推出生成式AI微服務(wù)NVIDIA NIM,供開發(fā)者在已安裝NVIDIA CUDA GPU的系統(tǒng)中創(chuàng)建和部署生成式AI助手。
據(jù)介紹,由GPU加速NVIDIA NIM微服務(wù)和云端端點目錄,適用于經(jīng)過優(yōu)化的預(yù)訓(xùn)練的AI模型,可以在云、數(shù)據(jù)中心、工作站和PC等支持CUDA的數(shù)億設(shè)備的GPU上運行。
一位國內(nèi)芯片公司技術(shù)負責(zé)人對第一財經(jīng)記者表示:“英偉達的軟件進行了重要的功能升級,把以前開發(fā)者要干的事情都便利化了,提供更友好的算力環(huán)境,使得開發(fā)者更加依賴。”
上述人士表示,構(gòu)建更友好的軟件生態(tài)是英偉達的重要戰(zhàn)略?!耙簿褪且院笫褂肎PU的門檻會越來越低,英偉達生態(tài)的粘性越來越高?!彼f道。
英偉達還宣布將以API的形式提供Omniverse Cloud,從而使開發(fā)者能夠更方便地將Omniverse的核心技術(shù)直接集成到現(xiàn)有的數(shù)字孿生設(shè)計與自動化軟件應(yīng)用中,或是集成到用于測試和驗證機器人或自動駕駛汽車等自主機器的仿真工作流中。
一些全球大型工業(yè)軟件制造商正在將Omniverse Cloud API加入到其軟件組合中,包括Ansys、Cadence、達索系統(tǒng)旗下3DEXCITE品牌、Hexagon、微軟、羅克韋爾自動化、西門子和Trimble等。
黃仁勛表示:“所有制造出來的產(chǎn)品都將擁有數(shù)字孿生。Omniverse是一個可以構(gòu)建并操作物理真實的數(shù)字孿生的操作系統(tǒng)。Omniverse和生成式AI都是將價值高達50萬億美元的重工業(yè)市場進行數(shù)字化所需的基礎(chǔ)技術(shù)?!?/span>
Omniverse Cloud API將于今年晚些時候在微軟云Azure上以NVIDIA A10 GPU上的自托管API,或是部署在NVIDIA OVX上的托管服務(wù)的形式提供。
英偉達還宣布推出一個硬件和軟件平臺,用于構(gòu)建包含生成人工智能功能的類人機器人。據(jù)黃仁勛介紹,新平臺將包括一個為機器人和人工智能提供動力的計算機系統(tǒng),以及包括生成式AI和其他工具在內(nèi)的一套軟件,以構(gòu)建能與人進行交互的人形機器人。