Page 17 - 网络电信2023年9月刊
P. 17

运营商专栏

             图1“分布式云网络”示意图                                           (2)若无联邦管理者角色,则通过联邦内广播机制完成
                                                                 协同。当基站发现自身算力不足时,在联邦组网内广播算力请
                                                                 求。其它基站收到请求后自行计算是否合适承接算力,符合条
                                                                 件的基站把信息反馈给算力请求基站。算力请求基站从各反馈
                                                                 中挑选最为合适的基站进行通信和服务部署。
                                                                     有联邦管理者角色的协同机制,在设计实现上更简洁,但
                                                                 需要考虑联邦管理者角色作为中心节点的部署策略及可靠性。
                                                                 无联邦管理者角色的协同机制,在网络部署上更灵活,但设计
                                                                 实现比较复杂,需要考虑的系统因素较多。
                                                                     3.3 资源共享和安全
                                                                     通过联邦协同的调度,联邦内每个基站可能同时部署多个
                                                                 逻辑网元的服务。多个逻辑网元共享同一个物理基站资源,需
                                                                 要解决基站内算力资源如何共享以及如何隔离资源互相不干扰
                                                                 的问题。本文利用Linux提供的虚拟化技术,通过AI服务抽象和
                                                                 资源隔离,在充分共享的同时保证安全。
                                                                     3.3.1 AI服务抽象
                                                                     利用Linux提供的虚拟化技术,把AI计算相关的业务逻辑和
                                                                 功能,抽象为可单独部署和调度的服务,同时配置服务描述文
                                                                 件对服务的规格、算力函数和资源要求进行描述。该描述文件
                三、技术方案
                3.1 基站联邦组网                                       包含但不限于CPU限额、内存限额和磁盘文件挂载点等。在联邦
                                                                 协同时,以AI服务单位进行跨基站协同调度,实现AI算力的灵
                无线网络中的基站具备分布式部署的特点,基站之间传输
            网络不互通。要实现基站算力共享,首先要通过隧道打通基站                          活迁移。
                                                                     3.3.2 资源隔离
            间传输链路,形成基站联邦组网,并在联邦内的基站间搭建共
            享的网络平面,承载相应的AI应用信令和数据交互。同时,每                             利用Linux提供的虚拟化技术,对基站内多个逻辑网元进行
                                                                 资源隔离,包括但不限于CPU、内存、文件系统、进程空间和用
            个基站上也需要进行多网元隔离以保证网络安全。比如由于基
            站A上的服务可以调度到基站B上,虽然物理上A的服务跨越了2                        户空间等,让每个逻辑网元运行在一个资源隔离独立的虚拟空
                                                                 间中,互不干扰。即使一个网元异常也不干扰其它网元及基站
            个或者多个基站,但从业务上来说,A的服务属于同一个逻辑管
            理单元。另外,B上除了自己的服务还有A的服务,需要避免B和                        系统的正常运行,大大提高了安全性和可靠性。
            A的服务间产生网络冲突。
                3.1.1 联邦关系配置                                         四、规划建议
                                                                     分布式基站算力共享技术在实际应用时需要先完成基站联
                本文通过OMC配置流程,将基站联邦组网文件下发给每个基
            站,配置文件包含但不限于联邦ID和基站通信IP等。基站收到                        邦规划,在不改动运营商原有物理组网的情况下,依靠现有的
                                                                 基站传输拓扑和软硬件条件,通过软件配置完成。但无线网络
            配置文件后,通过联邦ID识别联邦身份和联接关系,通过基站
            IP与对端基站建立传输通信。                                       中的基站数量规模大、地域分布广,如果将网络中大规模基站
                                                                 直接进行联邦组网,协同关系配置复杂,且存在频繁的节点间
                3.1.2 联邦网络建立
                采用VXLAN进行网络传输协议和安全隔离(VXLAN是由IETF                 信息交互,影响算力共享技术应用的稳定性。建议把网络中的
                                                                 大量基站划分多个小型内聚的“分布式云网络”,在每个小型
            定义的NVO3标准技术之一,也可以由其它NVO3技术替代)。即
            基站间建立VXLAN隧道进行通信,并且不同逻辑网元gNode  B通                   的网络中单独完成联邦组网和协同。
                                                                     基站联邦规划主要基于基站间传输服务质量(QoS)和基站
            过承载在不同的VXLAN隧道上进行网络隔离。
                3.2 基站联邦协同                                       算力负荷两个维度来评估。其中,QoS关键指标包括可用性、吞
                                                                 吐量、时延、时延变化(包括抖动和漂移)和分组丢失;基站算
                当联邦内某个基站节点上部署服务所需的算力超过了本基
            站的算力供应能力时,则需要将该基站的服务调度到其它负荷                          力负荷关键指标包括CPU、内存和存储资源。
                                                                     基站间的传输拓扑物理连接关系,如图2所示,可以分为
            较轻的基站节点,实现跨基站的联邦协同。本文提出两种设计
            思路,来实现跨基站联邦协同机制。                                     共机房机柜、跨机房机柜但传输距离短、跨机房机柜且传输拉
                                                                 远3类。实际网络测试数据,同一个机房机柜内的情况下,基
                (1)通过联邦管理者角色完成协同。在联邦组网时,会在
            联邦内指定或推举出一个节点,来承担联邦管理者角色。因算                          站间传输距离小于10m,平均时延小于1ms,抖动和分组丢失接
                                                                 近0%,传输质量稳定;跨机房机柜但传输距离短的情况下,比
            力不足需要协同调度的基站节点,向联邦管理者发起请求。联
            邦管理者计算出可承接算力的合适节点,并协助算力请求基站                          如在同一个近端传输汇聚设备下,基站间传输距离通常小于10
                                                                 km,平均时延小于3ms,抖动和分组丢失小于0.1%,传输质量比
            和算力承接基站之间建立新的VXLAN隧道和服务部署。
                                                                 较稳定;跨机房机柜传输拉远的情况下,比如经过回传网络拉

            20                                         网络电信 二零二三年十月
   12   13   14   15   16   17   18   19   20   21   22