新聞資訊 NEWS
英偉達(dá)GTC大會劃重點(diǎn)!
1、Blackwell全家桶上線
2、老黃預(yù)覽了英偉達(dá)下一代AI超級芯片——Vera Rubin。
3、每秒千萬次計(jì)算!Nvidia發(fā)布兩款個(gè)人AI超級計(jì)算機(jī)DGX Spark 與 DGX Station!
4、Nvidia推新Dynamo軟件,計(jì)劃將DeepSeek的AI推理速度提升30倍!
[1]Blackwell全家桶
一年一度的“AI春晚”,英偉達(dá)GTC大會盛大開幕。
今天上午,英偉達(dá)創(chuàng)始人兼CEO老黃,穿著他的標(biāo)志性皮衣,進(jìn)行了一場激情澎湃的演講,首先帶來的就是最強(qiáng)AI芯片——GB300! 也就是Blackwell Ultra,簡單理解就是Blackwell的大內(nèi)存版本。和去年發(fā)布的GB200相比,推理性能直接提升1.5倍!
還發(fā)布了GB300 NVL72機(jī)架、HGXB300 NVL16機(jī)架的系統(tǒng)方案,一個(gè)機(jī)架能像單個(gè)大型CPU一樣運(yùn)行。
[2]提前預(yù)告“核彈” GPU Rubin芯片
各位小伙伴是不是覺得 GB300就已經(jīng)超級牛逼了!
別著急,除此之外,老黃直接借這個(gè)場子,預(yù)告了2026年的核彈芯片——Vera Rubin。還有更強(qiáng)的機(jī)柜Vera Rubin NVL144——72顆Vera CPU+144顆 Rubin GPU,采用288GB顯存的HBM4芯片,顯存帶寬13TB/s,搭配第六代NVLink和CX9網(wǎng)卡。
這個(gè)產(chǎn)品有多強(qiáng)呢?FP4精度的推理算力達(dá)到了3.6ExaFLOPS,F(xiàn)P8精度的訓(xùn)練算力也達(dá)到了1.2ExaFlOPS,性能是Blackwell Ultra NVL72的3.3倍。
英偉達(dá)官方提供的Rubin Ultra NVL144和 NVL576參數(shù)
如果你覺得還不夠,沒關(guān)系,2027年還有更強(qiáng)的 Rubin Ultra NVL576機(jī)柜,F(xiàn)P4精度的推理和FP8精度的訓(xùn)練算力分別是15ExaFLOPS和5ExaFLOPS,14倍于Blackwell Ultra NVL72。并且提前公布Vera Rubin NVL144機(jī)架、Rubin Ultra NVL576機(jī)架性能,基于Rubin的AI工廠性能達(dá)到Hopper的900倍。
[3]個(gè)人超級計(jì)算機(jī)
老黃說:“這是這是人工智能時(shí)代的計(jì)算機(jī)。這就是計(jì)算機(jī)應(yīng)該有的樣子,這就是未來計(jì)算機(jī)的運(yùn)行方式。我們現(xiàn)在有全系列企業(yè)級產(chǎn)品,從小型計(jì)算機(jī)到工作站計(jì)算機(jī)。”
首先,DGX Spark 讓我們感受到了一種 “未來已來” 的震撼。
官方售價(jià)3000美元,大小和Mac Mini相當(dāng)!英偉達(dá)官網(wǎng)已經(jīng)可以預(yù)訂了!
采用的是英偉達(dá)GB10芯片,能夠提供每秒1000萬億次的AI運(yùn)算,用于微調(diào)和推理最新AI模型。
其中,GB10采用了NVLink-C2C互連技術(shù),提供CPU+GPU的相關(guān)內(nèi)存模型,帶寬是第五代PCIe的5倍。
真是貴有貴的道理哈哈~
至于第二款超級電腦,就說DGX Station。
就是采用GB300,也是首個(gè)采用這款芯片的AI電腦。
我們直接來看配置:
1、擁有784GB的內(nèi)存空間
2、擁有英偉達(dá)的ConnectX-8超級網(wǎng)卡,支持高達(dá)800Gb/s的網(wǎng)絡(luò)速度
3、擁有Nvidia的CUDA-X AI平臺,可訪問NIM微服務(wù)和AI Enterprise
老黃直言:“這就是PC應(yīng)該有的樣子。”
DGX Spark 與 DGX Station 的設(shè)計(jì)理念不僅僅是提供計(jì)算力,更是為企業(yè)和開發(fā)者提供了一種新的工作方式。在這個(gè) AI 滲透生活的時(shí)代,能夠在本地快速處理數(shù)據(jù),減少延遲,顯然是企業(yè)發(fā)展的一大助力。
[4]開源軟件Dynamo 加速AI模型推理
剛剛看了硬件,下面這個(gè)是軟件,老黃還是太全面了!
最重磅的當(dāng)屬NVIDIA Dynamo,一個(gè)用于加速AI模型推理的分布式推理服務(wù)庫。
按照英偉達(dá)的說法,在NVIDIA Blackwell上使用Dynamo,可以讓DeepSeek-R1 的吞吐量提升30倍!真是太瘋狂了!
目前Dynamo已完全開源,在GitHub獲取后即可將推理工作分配到多達(dá)1000個(gè)NVIDIA GPU芯片。
最后還給大家看一個(gè)小彩蛋——人形機(jī)器人小藍(lán)!
我說英偉達(dá),你別太全面了!
小藍(lán)作為主題演講的壓軸嘉賓,搖頭晃腦的向老黃撒嬌,并且聽從老黃的指令,乖乖的站到了他的旁邊。
好了,這就是今天小編分享的全部內(nèi)容啦,詳情還是得看官方網(wǎng)站哦~