数据中心的设计目标以通用业务承载、虚拟化资源管理和成本效率为主,网络流量相对较小、平稳,对性 能要求较低。而 AIDC面向GPU主导的并行计算,要求网络能够支撑多维度并行策略(数据并行[160,161]、 模型并行[162,163]、流水并行[164,165]、专家并行[166,167,168,169]等)下的高频通信,拓扑从树状结 构演进为、Torus [170]、Dragonfly[171] 等高带宽、高均衡度的拓扑体系。与此同时,AIDC 对供电密度、 散热能力、延迟分布和尾时延控制提出更高要求。随着模型尺寸、训练周期和推理并发数的增长,网络 性能正成为影响算力效率和成本结构的核心瓶颈。 树、Torus、Dragonfly、Slimfly 等 以 GPU 为主,CPU为辅 冯·诺依曼架构;CPU分配任务给其它部件 全互联对等架构;允许处理器之间直接通信 相对较小、平稳 海量数据、高突发 普通以太网,10G-100G;TCP/IP 协议 无损以太网,200G/400G;RDMA,UEC 分布式、低密度、低功率机柜;风冷为主 」集中式、高密度、高功率机柜;液冷为主 来云边端融合架构提出的关键理念,其本质 目标是在不同层级的计算、数据与模型能力 之间构建统一的运行抽象与协作逻辑,使系 统能够在多层资源环境下实现能力组合、动 态调度与连续演化。该理念继承了分布式系 的研究脉络,也吸收了云计算与边缘计算体 系中关于资源协作、近源处理与终端智能的 演进趋势,并在此基础上进一步扩展为覆盖 云、边缘和终端的全域协作体系。云边端协 级,也标志着工程实践从分层部署向跨层协 同的方法论演进。 链路上均呈现新的趋势,云边端协同仍将是支撑未来系统能力的核心方向。在数据层面,数据的生产呈 现出高频、多模态、多主体并发的特性,大量数据需要在采集端与边缘端进行低延迟处理与智能筛选;任 务层面,逐步从云侧集中式执行转向多层分布式执行,许多场景需要在终端与边缘侧完成部分决策、推 理或协作处理;模型层面,逐步从静态推送演化为动态更新、持续优化的形态,云侧训练、边侧适配与端 侧轻量推理形成全链条联动。这些趋势共同增加了各层之间的耦合复杂性,使得传统以单层为中心的体 系难以满足多样业务的性能、效率与智能化需求,亟需统一的跨层协同框架才能实现整体最优。 从行业发展来看,云边端协同正在从探索阶段走向体系化建设,并成为算力基础设施升级的重要方 向。国内运营商在算网大模型、边缘智能节点、统一边缘框架等方面持续推进能力建设,云厂商则在多 层协同调度、边缘容器运行时、端侧模型推理等领域形成体系化方案。国际云服务提供商在大规模边缘 节点调度、终端侧智能增强与跨层模型分发方面积累了丰富实践,终端设备厂商在本地推理、端侧隐私 势共同推动云边端协同从概念验证走向工程体系化落地。