IT之家 1 月 10 日消息,科技媒體 Tom's Hardware 今天(1 月 10 日)發(fā)布博文,報道稱在 CES 2026 媒體問答會上,針對市場上采用廉價內存以降低成本的聲音,英偉達首席執(zhí)行官黃仁勛反駁道:“芯片是一錘子買賣,但軟件開發(fā)需要終身維護?!?/strong>
黃仁勛強調,AI 行業(yè)已進入“Token 經濟學”時代,核心指標是“每瓦 / 每美元能生成多少 Token”。
英偉達堅持統(tǒng)一的內存架構和軟件棧,雖然硬件成本較高,但能避免軟件生態(tài)碎片化。這意味著,當 Nvidia 優(yōu)化一個軟件棧后,全球所有基于該架構的 AI 工廠都能同步獲得性能提升,從而在長周期內實現(xiàn)更優(yōu)的總體擁有成本(TCO)。
談及行業(yè)趨勢,黃仁勛透露了一個關鍵數(shù)據(jù):開源模型目前已貢獻了全球約四分之一的 Token 生成量。這一“意料之外”的爆發(fā)式增長,極大地拓展了 AI 的部署場景,從超大規(guī)模云廠商延伸至企業(yè)本地集群。
黃仁勛在問答中還詳細展示了 Vera Rubin 平臺的模塊化突破。相比以往 Grace Blackwell 系統(tǒng)一旦故障需整機架下線的情況,Rubin 采用了托盤式架構,支持在系統(tǒng)運行時直接更換 NVLink 等組件,實現(xiàn)“邊跑邊修”。
IT之家援引博文介紹,這種設計不僅大幅降低了運維成本,更徹底重構了供應鏈效率:節(jié)點的組裝時間從過去的 2 小時驚人地縮減至 5 分鐘。此外,Rubin 平臺摒棄了繁雜的線纜設計,并從 80% 液冷升級為 100% 全液冷,進一步提升了系統(tǒng)的可靠性。
供電穩(wěn)定性被黃仁勛稱為當前算力擴張的“最大瓶頸”。由于現(xiàn)代 AI 負載(尤其是推理任務)會引發(fā)劇烈的瞬時功耗跳變,電流波動幅度往往高達 25%,迫使數(shù)據(jù)中心不得不閑置大量電力以應對峰值。
Rubin 平臺通過系統(tǒng)級電子設計,在機架內部“平滑”了這些波動,即便單顆 GPU 的熱設計功耗(TDP)高達 1800W,也能向外部電網呈現(xiàn)穩(wěn)定的負載曲線。這種設計讓運營商無需過度冗余配置,從而能接近 100% 地利用電力容量。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。