在2026年gtc大会加州圣何塞现场,英伟达正式推出专为智能体ai与强化学习设计的vera数据中心cpu。这款搭载88个定制olympus核心的处理器,通过多线程技术与低功耗内存架构的双重创新,在ai计算领域实现效率突破。nvidia创始人黄仁勋特别强调,vera标志着cpu从ai辅助角色向核心驱动力的战略转型。
核心架构方面,每个olympus核心均支持空间多线程技术,可同时稳定执行两个计算任务。这种设计使vera在处理多租户ai工厂的并发需求时,能维持超过22500个独立全速运行的计算环境。配合第二代低功耗内存子系统,基于lpddr5x内存打造的1.2tb/s带宽,在功耗降低50%的同时实现带宽翻倍,有效解决了数据中心能效比的核心痛点。
针对大规模扩展需求,英伟达同步推出mgx模块化架构的vera cpu机架。该系统集成256个液冷处理器,可支持超过4.5万个独立线程与400tb内存容量。实测数据显示,这种架构使cpu吞吐量提升6倍,智能体ai工作负载性能直接翻倍。在数据传输环节,通过nvlink-c2c互连技术实现的1.8tb/s一致性带宽,较pcie 6.0标准提升7倍,为ai训练与推理提供高速数据通道。
量产计划显示,vera cpu已进入全面生产阶段,首批客户包括meta、甲骨文等科技巨头。这款处理器的推出,不仅重新定义了数据中心cpu的性能标准,更通过软硬件协同优化,为生成式ai、强化学习等前沿领域提供了新的计算范式。据技术白皮书披露,在特定ai工作负载中,vera的推理速度较传统机架级cpu提升50%,训练效率实现翻倍增长。














