AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来"Token工厂"_新闻中心_苏州超集信息科技有限公司

产品咨询400-860-6560
     售后咨询400-880-2718

新闻中心 AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来"Token工厂"
AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来"Token工厂"
2026.03.19

北京时间2026年3月17日, NVIDIA年度开发者大会(GTC 2026)在加州圣何塞正式拉开帷幕,这场被誉为"AI行业春晚"的盛会持续至3月19日,吸引了全球科技界、投资界及产业伙伴的高度关注。NVIDIA创始人兼CEO黄仁勋发表主题演讲,重磅发布从下一代芯片架构、AI工厂生态到开源智能体平台的全栈新品,宣告AI行业正式从模型竞赛迈入规模化落地的全新阶段。
与此同时,全球高性能AI基础设施解决方案提供商AMAX同步参展,携最新AI Factory整体解决方案精彩亮相,依托与NVIDIA的深度合作,为AI规模化部署提供高效、可靠的基础设施支撑。


AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来Token工厂(图1)

核心硬件

三代芯片架构齐发

黄仁勋在演讲中揭晓了三款重磅芯片架构,构建起"未来旗舰+量产主力+推理专用"的完整算力矩阵,彻底突破传统算力瓶颈。

其一,Vera Rubin下一代超级芯片平台,作为Blackwell架构的继任者,成为本次发布的核心亮点。

该平台集成了Vera CPU(88个定制核心)、Rubin GPU(配备288GB HBM4显存)NVIDIA NVLink 6 交换机、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6 以太网交换机和NVIDIA Groq 3 LPU。这些芯片设计为协同运作,构成一台强大的 AI 超级计算机,可为 AI 的各个阶段提供动力——从大规模预训练、后训练、测试阶段扩展到实时智能体式推理。

72Rubin GPU36Vera CPU构建的Vera Rubin NVL72,可提供高达3600 PFLOPS推理性能,并通过NVLink 6实现260TB/s的机架级互联带宽,显著降低跨GPU通信瓶颈。 与 NVIDIA Blackwell 平台相比,Vera Rubin NVL72 仅需四分之一数量的 GPU 即可训练大型混合专家模型,每瓦特推理吞吐量最高可提升 10 倍的同时,每 Token 成本仅为原平台的十分之一。
AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来Token工厂(图2)

其二,Feynman(费曼),作为继Vera Rubin之后的下一代平台架构,提前曝光原型。该架构搭载LP 40处理器和Rosa CPU,采用台积电1.6nm A16制程,是全球首款集成共封装光学(CPO)技术的AI芯片,核心突破在于将LPU(语言处理单元)与GPU深度集成,专门攻克推理延迟和内存墙问题。Feynman架构的带宽将提升10倍、传输能耗降低70%以上,推理性能为Blackwell架构的5倍,计划2028年启动生产,2029年向客户交付。

其三,Groq 3 LPU(语言处理单元),专为AI代理的超低延迟推理设计,通过片上集成500MB SRAM,提供了高达150TB/s的内存带宽,远超传统HBM。在Vera Rubin平台中,LPU作为Rubin GPU的专用"解码协处理器",通过Dynamo软件协同,专门负责生成Token的解码阶段。这种分工使AI代理间通信吞吐量从每秒100 token飙升至1500 token以上,系统整体推理吞吐量/功耗比因此提升35倍,为实时多轮交互和复杂工具调用提供了澎湃动力


AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来Token工厂(图3)


Token King

重塑数据中心形态

"过去大家讲'美猴王(Monkey King)',现在更值得争夺的是'Token 王(Token King)'。"

黄仁勋在演讲中提出,未来的数据中心不再只是堆放服务器的机房,而是生产智能的工厂;衡量这座工厂效率的关键,不只是算力有多强,而是能以多高效率、多少成本持续产出 TokenAI 工厂的竞争不再是单点芯片的比拼,而是整柜、整机架、整数据中心的系统级竞争:供电、冷却、网络、存储、算力调度、能耗效率共同决定最终的产出成本。


为实现 AI 工厂的规模化落地,NVIDIA 推出全栈基础设施解决方案,将数据中心升级为整柜交付的 AI 生产单元,通过标准化的计算、网络、存储、冷却和管理模块,实现 AI 部署的一致性与可扩展性。黄仁勋强调,NVIDIA 系统已成为全球"成本最低的基础设施",其通用性可覆盖超大型云服务商、主权云、企业、工业等多个领域,目前 60% 的业务来自全球前五的超大型云服务商,其余 40% 广泛分布于各行业场景。他同时上调算力需求预期,将 2027 年的算力需求预测由 5000 亿美元翻倍至 1 万亿美元,强调"每一座数据中心都受电力限制,每瓦 Token 吞吐量将决定企业生产成本与商业竞争力"

AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来Token工厂(图4)


AMAX

AI Factory Solution

AMAX 同步展示的AI Factory Solution,是基于NVIDIA官方架构打造、经过全链路验证的端到端生产级 AI 基础设施蓝图,也是 AMAX 本次参展的核心方案。该方案将 NVIDIA 参考设计,通过 AMAX 工程化落地为可直接交付、可快速量产的 AI 工厂,帮助企业实现"首日上线、稳定扩产"。

AMAX AI Factory亮相GTC26,携手NVIDIA共筑未来Token工厂(图5)

标准化模块化架构:将计算、网络、存储、供电、冷却、管理全部标准化为可复制模块,降低集成风险与配置漂移,支持跨站点、跨代际平滑扩展,容量可分阶段增长而无需重新设计。
AI 原生算力层:采用高密度 GPU 系统,优化 CPU / 内存配比,面向多卡、多节点分布式训练与推理深度调优,预置验证配置,上线即避瓶颈。
高性能 AI 网络:低延迟、高带宽 InfiniBand/Ethernet 混合架构,标准化拓扑与布线规范,确保集群扩展时性能线性提升。
AI 优化存储架构:高吞吐、低延迟分层存储,适配数据集读取、Checkpoint、迭代训练,与计算、网络同步扩容,经真实 AI 负载验证。
全栈 NVIDIA 软件兼容:完整兼容并预验证NVIDIA AI Enterprise、NVIDIA Omniverse、NVIDIA Run:ai三大核心平台,支持智能体 AI 与工业物理 AI 在云、数据中心、边缘全域部署。
工程化量产能力:AMAX 通过全栈系统验证(算力平衡、网络调优、存储 I/O 优化、机架级供电与液冷热设计),搭配标准化 BOM 与可复制交付流程,实现确定性性能与首日可运营,支持从单集群到多站点全球容量的统一配置管控。

作为AI基础设施领域的重要参与者,AMAX Solution精准契合当下AI工业化浪潮中,行业对高效、节能、可扩展算力基础设施的核心需求,依托自身在液冷技术与AI工程化落地领域的深厚积累,与NVIDIA的全栈产品形成高效互补,深度协同赋能AI工厂规模化部署,共同推动AI从技术研发走向产业落地,加速AI工业化进程。

未来,AMAX将继续与NVIDIA及广大合作伙伴携手同行,深化技术创新与生态共建,聚焦医疗、生命科学、半导体设计、工业AI等关键行业场景,以标准化、模块化、可复制的基础设施方案,帮助全球企业降低AI部署成本、提升算力利用效率、挖掘AI商业价值,助力AI技术深度渗透各行各业,共筑AI工业化时代的全新生态格局。

生态合作
生态合作
全面服务伙伴
电话咨询
电话咨询
7*24 小时热线服务
提交项目需求
提交项目需求
8 小时内方案呈现
服务与保修
服务与保修
4 小时内技术响应