
当前AI大模型训练与推理的核心矛盾,已从单卡算力转向超大规模算力集群的高效互联。
2025年上半年,华为、UALink联盟、英伟达相继亮出技术路线,在高速互连领域形成“三雄争霸”格局。
华为 昇腾CloudMatrix 384超节点 以工程突破见长

通过全对等互联架构将384张昇腾AI卡整合为单一逻辑实体。其核心创新在于用高速总线替代传统以太网,卡间带宽高达2.8Tbps,时延降至200纳秒,带宽提升15倍、时延降低10倍。
实际部署中,该架构在LLaMA3训练上性能达传统集群2.5倍,对通信更敏感的MoE模型(如DeepSeek)甚至提升3倍以上。今年4月已在芜湖数据中心商用,支持单卡Decode吞吐1920 tokens/s,与英伟达H100部署性能相当。
但目前受工艺限制,其单卡能效仍落后于英伟达旗舰产品。
AMD UALink联盟 则主推开放标准
UALink联盟:对标英伟达NVLink技术体系,AMD、AWS、Astera Labs、思科、谷歌、慧与、英特尔、Meta、微软九大巨头于2024年10月联合发起成立的行业组织。

6月发布的UALink 1.0支持1024个加速器互联,单通道200 GT/s带宽,四通道配置可达800 GT/s。其协议栈针对AI负载优化,延迟压至1微秒内,功耗仅为同级以太网交换机的1/3-1/2。
联盟试图打破英伟达NVLink的封闭生态,允许不同厂商GPU/加速器无缝协作。但联盟内部声音并未彻底统一,比如谷歌(TPU派)与AMD/英特尔(GPU派)就存在诸多目标分歧。
不过据台媒《电子时报》称,首款支持 UALink 规范高速互联芯片最早可能今年底实现流片,整个 UALink联盟已有数十个在研项目,预计 2026 年将有更多产品加入。
英伟达以 NVLink Fusion 策略应对
随着AMD的开放策略刺激下,英伟达5月宣布向高通、富士通等伙伴授权NVLink接口,允许其CPU或定制AI加速器连接英伟达GPU。
但这并非全面开放:第三方仍无法使用核心的NVSwitch全互联架构,系统需捆绑英伟达BlueField网卡、Spectrum-X交换机等组件。
其本质简单来说,就是以有限开放巩固生态壁垒——同期推出的Blackwell NVL72机柜通过NVLink已实现72 GPU直连,2026年Vera Rubin平台更将单机架GPU扩至144个。
简单看来,这三大“AI霸主”战略差异非常明显:华为以工程整合能力实现单集群规模领先;UALink寄望开放标准瓦解垄断;英伟达则用授权+捆绑强化生态控制。
三强角力,最终受益者将是亟需多元算力的AI产业本身。不过,未来,谁能率先登上最高峰一览众山小?
发表评论
登录
手机
验证码
手机/邮箱/用户名
密码
立即登录即可访问所有OFweek服务
还不是会员?免费注册
忘记密码其他方式
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论