Page 35 - 网络电信2021年1/2月刊下
P. 35
光 通 信
献 [46] 提出一种统一架构,结合SDN思想、ICN缓存及计算技术, 型,文献 [56] 根据用户需求和网络的移动特性提出一种基于深度
实现网络、计算和存储资源的动态调度以满足无线网络的需 学习的空闲时间窗口预测模型并使用时间图卷积网络表示学习
求。文献 [47] 认为,网络、存储和计算的互操作融合是构建可扩 网络。文献 [57] 介绍了SDN网络中机器学习技术在流量分类、路由
展部署的分布式系统的必要条件,融合基础架构的跨层结构必 优化、QoS服务质量/QoE体验质量预测、资源管理方面的应用。
须简单、通用。 使用人工智能技术对网络进行优化的研究涉及到网络的各
总体来看,未来网络将是智能化的网络,网络应该具备利 个方面。文献 [58] 研究了与网络流量控制系统优化相关的深度学
用节点的通信和计算能力优化性能的自学习能力 [48] ,如何表征 习技术、系统工具和平台以及典型应用。文献 [59] 通过离线学习
这些参数,使用什么样的学习策略均有待研究。此外,面向网 和在线学习两个阶段分析网络状态,优化了自适应比特率视频
络/计算/存储一体化背景,如何设计更有效的缓存更新规则, 在网络中的传输。文献 [60] 提出基于深度对抗神经网络的新型网
如在线学习、实时更新,是值得思考的问题 [49] 。同时,移动边 络切片方法,允许网络提供商实时将计算、存储等资源进行联
缘网络中涉及到网络、计算和存储等各种资源,如何协调这些 合分配。文献 [61] 基于强化学习和神经网络方法解决分布式计算
资源以实现良好的用户体验及应用的最佳性能,如何更好地对 集群中数据处理任务的调度问题。文献 [62] 基于在线学习思想,
这些资源进行分配,提高一体化平台的可扩展性、开放性和安 利用梯度进行速率控制,从而实现在稳定性和灵敏度上的平
全性也是值得考虑的重要问题。 衡,优化了网络拥塞问题。文献 [63] 探索了数据驱动方式作为核
5、网络与人工智能 心算法代替传统网络路由协议的问题,通过将路由问题转化为
随着信息通信技术和人工智能技术的发展,人类社会正快 机器学习问题,证实了方案的可行性和优越性。
速向着信息化、智能化的方向迈进。人工智能技术为人类社会 另一方面,随着深度学习和强化学习的普及,两者都对计
的持续创新提供了强大的驱动力,开辟了广阔的应用空间。在 算能力提出了越来越高的要求,耗时的训练过程和繁重的工作
计算机网络领域,人们普遍认为人工智能技术与网络的结合是 量甚至使得在一台机器上无法完成这些任务,因此分布式机器
富有前景的。总体而言,网络人工智能可以分为人工智能优化 学习被认为是必然的发展趋势,成为业界的研究热点。一般而
网络,和网络优化人工智能两个方面。一方面,机器学习和深 言,在构建高效的分布式学习平台时,需要考虑网络拓扑、传
度学习的快速发展为计算机网络研究注入了新的活力,种类繁 输协议等重要问题。
多且不断增加的网络协议、拓扑和接入方式使得网络的复杂性 网络拓扑的设计会对参数同步时间以及系统整体性能产生
不断增加,通过传统方式对网络进行监控、建模、整体控制变 重大影响。到目前为止,已经提出两种类型的网络拓扑架构,
得愈加困难,可以将人工智能技术应用到网络中来实现故障定 即基于参数服务器的结构和基于环的结构。参数服务器架构
位、网络故障自修复、网络模式预测、网络覆盖与容量优化、 下,各节点有参数服务器和工作机器之分:工作机器只负责计
智能网络管理等一系列传统网络中很难实现的功能;另一方 算模型梯度,彼此不会互相通信;参数服务器则负责汇总来自
面,网络性能的提高也为机器学习计算提供了更好的支持,随 不同工作机器的模型梯度,并对原有参数进行更新,然后下发
着训练数据量的迅速增加和机器学习模型变得越来越复杂,计 到工作机器上以便开始下一次迭代。基于环的架构则是一种去
算需求超出了单机的能力,因此产业界已经出现了数十个分布 中心化的架构设计,在此架构下,所有节点以环状排列,各节
式机器学习平台,但是昂贵的通信成本已导致这些平台出现多 点仅与其前后两个相邻节点通信,通过相应的同步算法(例如
个瓶颈,网络优化(例如网络拓扑结构、网络通信和传输协议 Ring AllReduce),可以实现快速地参数同步,避免产生中心
的优化)极大地提高了这些分布式机器学习平台的整体性能。 化的通信瓶颈。
人工智能技术用于优化网络首先需要考虑数据集问题。数 除网络拓扑外,传输协议对参数同步性能也具有重要的影
据收集一般可分为离线和在线两个阶段,离线阶段主要收集大 响。尽管TCP在广域网中取得了巨大成功,但由于其在拥塞控
量用于模型训练和测试的历史数据;在线阶段用于收集实时网 制以及系统实现方面表现不足,不太适用于专用的分布式机器
络数据作为模型的反馈或者新的输入 [50] 。文献 [51] 考虑到边缘计 学习系统。为改善其网络性能,远程直接内存访问技术(RDMA,
算网络中汇总数据的困难性,使用梯度下降方法训练了一组支 remote directmemory access)被应用到分布式机器学习系统中
持分布式参数学习的通用模型,并提出控制算法实现局部更新 来。RDMA规避了TCP的上述限制,RDMA内核旁路机制,允许应
和全局参数聚合之间的折衷。文献 [52] 针对多媒体物联网(IoMT 用与网卡之间的直接数据读写,将服务器内的数据传输时延降
, internet of multimedia thing)应用结合机器学习提出一 低到接近1us。同时,RDMA内存零拷贝机制,允许接收端直接从
种基于隐私保护的数据收集和分析框架。文献 [53] 使用无监督学 发送端的内存读取数据,极大的减少了CPU负担,提升了CPU效
习对设备的通信流量进行建模,通过分析设备的网络通信流量 率。根据某知名互联网厂商的测试数据,采用RDMA可以将计算
来识别IoT设备的类型。 的效率同比提升6~8倍,而服务器内1us的传输时延也使得SSD
流量预测对网络的管控和维护具有重要作用,传统的方法 (solid state drive)分布式存储的时延从ms级降低到us 级
是使用时间序列预测进行处理,文献 [50] 调研了基于时间序列和 成为可能,在最新的NVMe接口协议中,RDMA正逐步成为主流默
非时间序列流量预测问题的机器学习方法。文献 [54] 结合网络流 认网络通信协议栈。为了提高数据传输速度、满足用户需求,
量估计和异常检测两项任务设计了一种估计源和目的地之间网 阿里巴巴、亚马逊、微软、华为等主要云厂商都在投入该技术
络流量的新方法。针对移动网络场景,文献 [55] 针对未来智能 的研发和部署。
蜂窝网络的精准流量建模和预测,提出基于深度学习的预测模 智能化网络已成为未来网络发展趋势,网络运营和运维
62 网络电信 二零二一年一、二月