Page 35 - 网络电信2021年1/2月刊下
P. 35

光    通    信

            献 [46] 提出一种统一架构,结合SDN思想、ICN缓存及计算技术,                  型,文献   [56] 根据用户需求和网络的移动特性提出一种基于深度
            实现网络、计算和存储资源的动态调度以满足无线网络的需                           学习的空闲时间窗口预测模型并使用时间图卷积网络表示学习
            求。文献    [47] 认为,网络、存储和计算的互操作融合是构建可扩                  网络。文献    [57] 介绍了SDN网络中机器学习技术在流量分类、路由
            展部署的分布式系统的必要条件,融合基础架构的跨层结构必                          优化、QoS服务质量/QoE体验质量预测、资源管理方面的应用。
            须简单、通用。                                                  使用人工智能技术对网络进行优化的研究涉及到网络的各
                总体来看,未来网络将是智能化的网络,网络应该具备利                        个方面。文献     [58] 研究了与网络流量控制系统优化相关的深度学
            用节点的通信和计算能力优化性能的自学习能力                  [48] ,如何表征    习技术、系统工具和平台以及典型应用。文献                 [59] 通过离线学习
            这些参数,使用什么样的学习策略均有待研究。此外,面向网                          和在线学习两个阶段分析网络状态,优化了自适应比特率视频
            络/计算/存储一体化背景,如何设计更有效的缓存更新规则,                         在网络中的传输。文献        [60] 提出基于深度对抗神经网络的新型网
            如在线学习、实时更新,是值得思考的问题                [49] 。同时,移动边      络切片方法,允许网络提供商实时将计算、存储等资源进行联
            缘网络中涉及到网络、计算和存储等各种资源,如何协调这些                          合分配。文献     [61] 基于强化学习和神经网络方法解决分布式计算
            资源以实现良好的用户体验及应用的最佳性能,如何更好地对                          集群中数据处理任务的调度问题。文献              [62] 基于在线学习思想,
            这些资源进行分配,提高一体化平台的可扩展性、开放性和安                          利用梯度进行速率控制,从而实现在稳定性和灵敏度上的平
            全性也是值得考虑的重要问题。                                       衡,优化了网络拥塞问题。文献            [63] 探索了数据驱动方式作为核
                5、网络与人工智能                                        心算法代替传统网络路由协议的问题,通过将路由问题转化为
                随着信息通信技术和人工智能技术的发展,人类社会正快                        机器学习问题,证实了方案的可行性和优越性。
            速向着信息化、智能化的方向迈进。人工智能技术为人类社会                              另一方面,随着深度学习和强化学习的普及,两者都对计
            的持续创新提供了强大的驱动力,开辟了广阔的应用空间。在                          算能力提出了越来越高的要求,耗时的训练过程和繁重的工作
            计算机网络领域,人们普遍认为人工智能技术与网络的结合是                          量甚至使得在一台机器上无法完成这些任务,因此分布式机器
            富有前景的。总体而言,网络人工智能可以分为人工智能优化                          学习被认为是必然的发展趋势,成为业界的研究热点。一般而
            网络,和网络优化人工智能两个方面。一方面,机器学习和深                          言,在构建高效的分布式学习平台时,需要考虑网络拓扑、传
            度学习的快速发展为计算机网络研究注入了新的活力,种类繁                          输协议等重要问题。
            多且不断增加的网络协议、拓扑和接入方式使得网络的复杂性                              网络拓扑的设计会对参数同步时间以及系统整体性能产生
            不断增加,通过传统方式对网络进行监控、建模、整体控制变                          重大影响。到目前为止,已经提出两种类型的网络拓扑架构,
            得愈加困难,可以将人工智能技术应用到网络中来实现故障定                          即基于参数服务器的结构和基于环的结构。参数服务器架构
            位、网络故障自修复、网络模式预测、网络覆盖与容量优化、                          下,各节点有参数服务器和工作机器之分:工作机器只负责计
            智能网络管理等一系列传统网络中很难实现的功能;另一方                           算模型梯度,彼此不会互相通信;参数服务器则负责汇总来自
            面,网络性能的提高也为机器学习计算提供了更好的支持,随                          不同工作机器的模型梯度,并对原有参数进行更新,然后下发
            着训练数据量的迅速增加和机器学习模型变得越来越复杂,计                          到工作机器上以便开始下一次迭代。基于环的架构则是一种去
            算需求超出了单机的能力,因此产业界已经出现了数十个分布                          中心化的架构设计,在此架构下,所有节点以环状排列,各节
            式机器学习平台,但是昂贵的通信成本已导致这些平台出现多                          点仅与其前后两个相邻节点通信,通过相应的同步算法(例如
            个瓶颈,网络优化(例如网络拓扑结构、网络通信和传输协议                          Ring  AllReduce),可以实现快速地参数同步,避免产生中心
            的优化)极大地提高了这些分布式机器学习平台的整体性能。                          化的通信瓶颈。
                人工智能技术用于优化网络首先需要考虑数据集问题。数                            除网络拓扑外,传输协议对参数同步性能也具有重要的影
            据收集一般可分为离线和在线两个阶段,离线阶段主要收集大                          响。尽管TCP在广域网中取得了巨大成功,但由于其在拥塞控
            量用于模型训练和测试的历史数据;在线阶段用于收集实时网                          制以及系统实现方面表现不足,不太适用于专用的分布式机器
            络数据作为模型的反馈或者新的输入              [50] 。文献 [51] 考虑到边缘计   学习系统。为改善其网络性能,远程直接内存访问技术(RDMA,
            算网络中汇总数据的困难性,使用梯度下降方法训练了一组支                          remote directmemory access)被应用到分布式机器学习系统中
            持分布式参数学习的通用模型,并提出控制算法实现局部更新                          来。RDMA规避了TCP的上述限制,RDMA内核旁路机制,允许应
            和全局参数聚合之间的折衷。文献             [52] 针对多媒体物联网(IoMT       用与网卡之间的直接数据读写,将服务器内的数据传输时延降
            ,  internet  of  multimedia  thing)应用结合机器学习提出一       低到接近1us。同时,RDMA内存零拷贝机制,允许接收端直接从
            种基于隐私保护的数据收集和分析框架。文献                 [53] 使用无监督学     发送端的内存读取数据,极大的减少了CPU负担,提升了CPU效
            习对设备的通信流量进行建模,通过分析设备的网络通信流量                          率。根据某知名互联网厂商的测试数据,采用RDMA可以将计算
            来识别IoT设备的类型。                                         的效率同比提升6~8倍,而服务器内1us的传输时延也使得SSD
                流量预测对网络的管控和维护具有重要作用,传统的方法                        (solid  state  drive)分布式存储的时延从ms级降低到us  级
            是使用时间序列预测进行处理,文献              [50] 调研了基于时间序列和        成为可能,在最新的NVMe接口协议中,RDMA正逐步成为主流默
            非时间序列流量预测问题的机器学习方法。文献                  [54] 结合网络流    认网络通信协议栈。为了提高数据传输速度、满足用户需求,
            量估计和异常检测两项任务设计了一种估计源和目的地之间网                          阿里巴巴、亚马逊、微软、华为等主要云厂商都在投入该技术
            络流量的新方法。针对移动网络场景,文献                  [55] 针对未来智能     的研发和部署。
            蜂窝网络的精准流量建模和预测,提出基于深度学习的预测模                              智能化网络已成为未来网络发展趋势,网络运营和运维

            62                                        网络电信 二零二一年一、二月
   30   31   32   33   34   35   36   37   38   39   40