www.zhifeiya.cn

敲码拾光专注于编程技术,涵盖编程语言、代码实战案例、软件开发技巧、IT前沿技术、编程开发工具,是您提升技术能力的优质网络平台。

芯片与硬件 2026-04-15 来源:路透社 4 小时前

黄仁勋GTC放核弹:AI算力进入‘年更’时代,Rubin架构再翻倍


就在英伟达的股价和行业地位如日中天,外界猜测其是否会放缓脚步时,首席执行官黄仁勋在GTC大会上用一张新的路线图给出了最响亮的回应:不,我们的加速才刚刚开始。 这张路线图最引人注目的,并非万众期待的“Blackwell”架构产品,而是其继任者——代号为“Rubin”的全新一代数据中心平台。这意味着,在AI芯片这场没有终点的马拉松里,英伟达不仅没有停下喘息,反而将更新换代的节奏从两年一次,提速到了“一年一次”。黄仁勋在舞台上那句“新的芯片,新的显卡,新的系统,新的网络,一年一次”,无疑是对整个行业的一次宣言式冲击。 ![Jensen Huang GTC keynote](/image/news-1befe73da6eb4b399c766154f4ad4aad.jpg) **从“核弹”到“系统”:算力竞争的维度升级** 让我们先回顾一下刚刚发布的Blackwell。它并非单一芯片,而是一个庞大的计算系统。其核心B200 GPU,拥有2080亿个晶体管,通过高达10TB/秒的芯片间互连带宽,将两块独立的裸晶片(die)融合成一个统一的巨型GPU。这还不够,英伟达还将两个B200 GPU与一个Grace CPU结合,封装成名为GB200的“超级芯片”。最后,再将数十个这样的GB200超级芯片,通过其第五代NVLink高速互联技术,组合成一个名为GB200 NVL72的巨型机架级系统。 这个庞然大物,能提供高达720 PetaFLOPS的AI训练性能和1440 PetaFLOPS的AI推理性能。数字背后是一个清晰的战略:单点芯片性能的竞争,已经演变为从芯片、互连、到系统、乃至软件的全栈体系竞争。英伟达卖的早已不是“核弹”(GPU),而是能直接部署、开箱即用的“AI工厂”。 而新公布的Rubin平台,正是沿着这条全栈路径的又一次跃进。根据路线图,Rubin平台将包含下一代GPU(基于全新架构)、下一代CPU(命名为“Vera”),以及至关重要的新一代NVLink和高速网络技术。虽然具体性能指标尚未公布,但黄仁勋“AI算力再翻倍”的承诺,暗示了其相对于Blackwell的显著提升。这种提升将同样来自架构创新、先进制程(预计采用台积电更先进的工艺)和系统级设计的协同。 **“一年一更”的背后:英伟达的焦虑与护城河** 将顶级数据中心平台的更新周期从两年缩短至一年,这是一个极其激进且成本高昂的策略。它背后至少传递出两层信息。 第一层是**强烈的危机感**。尽管目前英伟达占据了AI训练市场近90%的份额,但环伺的对手从未如此强大。AMD的Instinct MI300系列势头正劲,并积极构建开放的ROCm软件生态;科技巨头们自研芯片的步伐加快,谷歌的TPU已迭代至第五代,微软、亚马逊、Meta也都在持续投入;此外,还有众多专注于特定场景的AI芯片初创公司。市场竞争的白热化,迫使英伟达必须用最快的迭代速度,始终保持“代差”优势,让追赶者永远在追赶上一代产品。 第二层则是**深厚的护城河自信**。一年一更新,考验的不仅是芯片设计能力,更是从架构定义、流片验证、生产供应、到软件生态适配的全链条、超大规模协同能力。这需要与台积电等代工厂建立极其紧密的战略合作,也需要庞大的工程师团队和成熟的开发流程来支撑。英伟敢于提出这个节奏,恰恰证明了其已经构建了一套高效、可重复的“技术量产”体系,这是其最核心的壁垒之一。对于客户(尤其是大型云厂商和AI公司)而言,频繁的架构更新也意味着更高的迁移和适配成本,这反而加深了他们对英伟达全栈软件平台(CUDA等)的依赖,形成了强大的锁定效应。 ![NVIDIA data center roadmap](/image/news-e06c5731304445b493e935a47452b81b.jpg) **对行业的影响:狂欢与压力并存** Rubin路线图的公布,对整个AI算力生态圈将产生深远影响。 对于**AI开发者和企业**而言,这无疑是福音。持续翻倍的算力意味着更大、更复杂的模型成为可能,AI应用的边界将被不断拓宽。无论是多模态大模型、具身智能,还是科学计算,都将获得更强大的基础设施支撑。但同时,他们也必须面对算力成本持续高企的现实,以及如何高效利用这些昂贵系统的新挑战。 对于**云计算厂商和大型企业**,这带来了战略采购的难题。是紧跟每一次更新,追求极致性能?还是采用更具性价比的“次新一代”产品?他们需要在性能、成本、供应链稳定性和技术路线之间做出更精细的权衡。这也可能进一步刺激他们加大自研芯片的投入,作为制衡和补充。 对于**竞争对手**,这无疑是一记重拳。英伟达设定的新节奏,拉高了行业竞争的基准线。AMD、英特尔等公司必须重新评估自己的产品路线图和发布策略。而专注于推理或边缘场景的芯片公司,可能需要更明确地差异化定位,避开与英伟达在通用训练市场的正面交锋。 **延伸思考:算力会否成为AI的“摩尔定律”?** 英伟达的加速节奏,让我们不禁思考一个更宏观的问题:AI算力会像曾经的CPU一样,遵循某种“定律”持续、可预测地增长吗? 传统的摩尔定律(集成电路上可容纳的晶体管数量每18-24个月增加一倍)近年来已经放缓。但英伟达通过架构创新(如Transformer引擎)、芯片间互连(如NVLink)、芯片封装(如CoWoS)和系统级集成,似乎在创造一条属于AI的“新摩尔定律”——即通过系统级创新,使AI算力保持每年翻倍甚至更高的指数级增长。 然而,这条定律的可持续性面临挑战。首先是**物理极限**,先进制程的推进越来越难、成本越来越高。其次是**能源消耗**,一个GB200 NVL72机柜的功耗可能接近百万瓦级别,算力增长的“电力账单”和散热问题日益严峻。最后是**需求匹配**,并非所有AI应用都需要最顶级的算力,市场可能会分化出更多样化的算力需求层次。 无论如何,英伟达用Rubin路线图再次明确了其作为AI时代“卖铲人”的绝对领导地位。它不再仅仅是一家显卡公司,而是定义了AI计算基础设施演进节奏的规则制定者。这场由算力驱动的AI革命,其引擎的轰鸣声,在可预见的未来,仍将主要由英伟达来谱写频率。对于整个科技行业而言,跟上这个节奏,或者找到在这个节奏下的生存之道,将是未来几年的核心命题。
加载中...
原始标题:英伟达发布新一代数据中心芯片架构“Rubin”,AI算力再翻倍
同类热点