咨询热线

400-820-5820

加入我们

免费下载

请填写以下信息获取免费下载资源

  • 公司名称

    *
  • 姓名

    *
  • 职务

    *
  • 电子邮箱

    *
  • 手机

    *
  • 验证码

    获取验证码
  • 公司名称

    *
  • 姓名

    *
  • 职务

    *
  • 电子邮箱

    *
  • 手机

    *
  • 验证码

    获取验证码

留言反馈

请填写以下信息反馈问题或建议

  • 公司名称

    *
  • 姓名

    *
  • 职务

  • 电子邮箱

    *
  • 手机

    *
  • 反馈内容

  • 验证码

    获取验证码

AI智算网络解决方案

专注构建高吞吐、低延迟、弹性扩展、智能无损的超大规模算力集群网络,极致释放AI科技潜能

首页 > 业务 > 智能网络 > AI智算网络解决方案

方案背景

随着AIGC时代的到来,大模型训练参数规模从十亿、百亿不断向千亿、万亿跃迁(如GPT-4约有1.8万亿参数),传统网络架构正面临传输带宽不足、延迟过高、易丢失数据、链路负载不均、扩展性差等严峻挑战,无法满足当前千卡乃至万卡GPU集群的高并发通信需求。华讯AI智算网络解决方案旨在构建具备超大规模组网能力、高并发吞吐、极低时延、灵活易扩展的新一代AI数据中心网络架构​​。

客户挑战

  • 超大规模组网

    需支持千卡级、万卡级GPU集群互联,采用CLOS架构实现弹性可扩展能力。

  • 高带宽设计

    大模型训练网络带宽向200G、400G、800G不断演进,满足GPU集群海量参数的协同计算。

  • 低时延保障

    绕过CPU、OS内核、TCP/IP协议栈等,直接访问对端内存数据,大幅降低通信延迟。

  • 智能无损传输

    接入层1:1带宽收敛比,利用RMDA、负载均衡技术保证全网智能控制拥塞及吞吐效率。

方案描述

华讯AI智算网络解决方案,将根据用户GPU集群规模规划设计高吞吐、无阻塞、低时延、安全可靠的RDMA网络组网方案。随用户未来算力规模的持续增长,可支持扩展至万卡级算力网络。

基于RoCEv2/InfiniBand两种技术路线,采用分层CLOS架构设计,部署400/800G数据中心交换机、Mellanox高性能网卡、AOC/DAC线缆等构建高效AI大模型训练网络。通过优化集群内部Pod组网架构,实现全网转发路径内算力节点相同编号GPU仅一跳即可互通,不同编号GPU仅3/5跳即可互通,实现低时延保障。针对Leaf层交换机进行1:1无收敛比设计,满足全网无阻塞通信。采用PFC(优先级流量控制)和ECN(显式拥塞通知)协同拥塞控制,结合AI场景流量负载均衡算法进行动态路径选择,显著提升大模型训练效率,满足当今AI智算网络的核心需求。

客户收益

提升通信效率,缩短训练周期:利用RDMA技术旁路内核,消除CPU接入的数据拷贝,将端到端通信时延降低到微秒级,减少GPU计算等待时间,极致计算效率,缩短训练周期。

超高带宽吞吐,突破传统限制:使用400/800G带宽组网,结合RDMA技术,提升网络吞吐性能,保障GPU集群高效计算。

弹性易扩展,开放生态支持:分层CLOS架构支持从千卡到万卡级集群的弹性扩展,可综合预算成本、性能指标、运维习惯等灵活选择RoCEv2/InfiniBand技术路线。

携手共启数字化转型新征程

欢迎与我们交流,共同探索适合您的转型路径。

立即交谈
  • 公众号

  • 服务号

  • 视频号

我们随时准备为您提供帮助

  • 咨询热线

    400-820-5-820