近日,第10届MWC上海在上海新国际博览中心盛大开幕。本次展会汇聚了众多通信行业的领军企业,展示了一系列前沿技术和最新成果。在展会期间,我们有幸采访了中兴通讯副总裁陈新宇先生,就中兴通讯以数据为中心的新型算网基础设施方案进行了深入交流。
(资料图片)
在谈及摩尔定律放缓导致的CPU性能增长边际成本迅速上升问题时,陈新宇表示,随着5G、智能驾驶、元宇宙、ChatGPT大模型等领域业务的高速发展,算力需求呈爆发性增长。为了解决算力供需错配问题与满足数据处理需求,中兴通讯以数据为中心,构建了软硬协同新型算网基础设施。
陈新宇详细介绍了方案的两大亮点:
第一个优势是省核,网、存、算、管、安5大关键能力全面增强。具体包括网络加速、存储加速、算力卸载、管理卸载、安全加固等方面的优化与升级,支持虚拟化全量卸载和云化裸金属等资源供给方式,进一步提高了云网基础设施效率。虚拟化全量卸载可以节省服务器资源,为客户降低Capex和Opex的投入;云化裸金属保持裸金属性能的同时增强迁移、重生等云化体验;保持三平面物理隔离,统一资源池组网方案,简化规划设计和网络运维工作;支持裸金属节点和虚拟化节点灵活互转,面对应用的不确定性,避免投资浪费。DPU支持卡上独立的BMC(Baseboard Management Controller),同服务器完全解耦。
第二个优势是灵活,全场景可编程。中兴通讯的ZDOSA开发框架提供原子能力,支持NP可编程,全面满足通、智、超、网、边全场景需求。无论是通用数据中心、智算、超算中心、网络云,还是边缘云等场景,均能发挥出卓越性能。
针对实际应用场景,陈新宇举例说明了中兴通讯以数据为中心的软硬协同的新型算网基础设施方案的优势。
在通用数据中心,通过虚拟化卸载,节省14.3%的服务器资源;云化裸金属管理,实现虚机、容器、裸金属统一管理,效率提升30%。
在智算和超算中心场景,ChatGPT训练使用上万个GPU的计算集群,而集群节点的计算性能受限于网络带宽,制约了集群节点计算性能的发挥。中兴通讯DPU智能云卡将网络时延从数十微秒降低到微秒级,实现200Gbps以上的数据收发能力,从而实现了GPU算力的聚合,最大程度地提升了GPU集群的算力。面对ChatGPT这样的重大技术突破,中兴通讯已经结合自身优势重点投入,并计划今年底推出支持大带宽的ChatGPT的GPU服务器。
在网络云场景,DPU智能云卡的网络加速支持核心网云原生演进200万大流表需求。采用DPU智能网卡加速的UPF(User Plane Function)转发性能提升了2倍,同时减少了一半的占地面积和41%的功耗。
在边缘云场景,通过管理节点卸载和虚层卸载,提高了集成度约20%。此外,DPU智能云卡可以预集成虚拟化层实现边缘云的自动化快速部署。
中兴通讯以数据为中心的软硬协同的新型算网基础设施方案将为行业提供强大的计算能力和灵活的部署方案,满足爆发性计算需求和数据处理需求的挑战。在未来的数字化时代,中兴通讯将以其创新的技术和卓越的解决方案,为构建高效、安全和灵活的算网基础设施做出重要贡献。
标签: