DoNews3月17日消息,3 月 17 日在美國(guó)加州圣何塞舉行的 2026 年 GTC 大會(huì)上,英偉達(dá)為推動(dòng)智能體 AI(Agentic AI)發(fā)展,發(fā)布 Vera Rubin AI 平臺(tái)。
英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛強(qiáng)調(diào),Vera Rubin 是一次代際飛躍,標(biāo)志著其史上最大規(guī)?;A(chǔ)設(shè)施建設(shè)的開(kāi)端,全面覆蓋從大規(guī)模預(yù)訓(xùn)練到實(shí)時(shí)智能體推理的 AI 全生命周期。
在核心算力層面,新一代 NVL72 機(jī)架實(shí)現(xiàn)了效率的突破性提升。該機(jī)架通過(guò) NVLink 6 連接 72 塊 Rubin GPU 與 36 塊 Vera CPU。
與上一代 Blackwell 平臺(tái)相比,該系統(tǒng)僅需四分之一的 GPU 即可完成混合專家大模型(MoE)訓(xùn)練,同時(shí)每瓦推理吞吐量提升高達(dá) 10 倍,單 Token 成本降至十分之一。
此外,專為驗(yàn)證 AI 模型結(jié)果設(shè)計(jì)的 Vera CPU 機(jī)架集成了 256 塊液冷 CPU,其運(yùn)行效率達(dá)到傳統(tǒng) CPU 的兩倍,速度提升 50%。
為應(yīng)對(duì)智能體系統(tǒng)低延遲和長(zhǎng)上下文的需求,英偉達(dá)推出了 Groq 3 LPX 推理加速機(jī)架。該系統(tǒng)包含 256 個(gè) LPU 處理器,與 Vera Rubin 結(jié)合后,每兆瓦推理吞吐量飆升至最高 35 倍。
在數(shù)據(jù)存儲(chǔ)方面,全新 BlueField-4 STX 機(jī)架構(gòu)建了 AI 原生存儲(chǔ)基礎(chǔ)架構(gòu)。借助全新的 DOCA Memos 框架,該系統(tǒng)能夠高效處理大型語(yǔ)言模型生成的海量鍵值(KV)緩存數(shù)據(jù),在大幅降低能耗的同時(shí),將推理吞吐量提升最高 5 倍,從而實(shí)現(xiàn)更快速的 AI 多輪交互。