Page 34 - 网络电信2023年11月刊
P. 34

(n batch ,n s ,4),其中n batch 表示批处理大小,4表示每个符号的特征       Bi  LSTM41-Attention模型的Q因子降低约0.23dB,在–1dBm
            数(x和y两个偏振方向上的实部和虚部)。输出目标为恢复两个                        发射功率时,Q值降低了0.03dB。但是,从图7中的插图可以
            偏振方向的第t个符号的实部和虚部,因此输出的批处理形状可                         看出,CNN-Bi  LSTM41-Attention模型的计算复杂度降低了约
            以定义为:(n batch ,4)。n feature 和n output 的值等于两个偏振方向的    31.6%。详细的复杂度计算由公式(8)和(9)得到。
            实部和虚部数,即n feature ,n output  = 4。
                使用AMD  Ryzen  7  5800H@3.20  GHz处理器,在Tensor       图7 DP-16QAM 30Gbaud系统传输1200km距离时,Q因子与发射功率的
                                                                      关系
            Flow-2.4.1环境下搭建和训练CNN-Bi  LSTM-Attention模型。
            在优化过程中采用均方误差作为损失函数,使用Adam算法作为
            梯度下降算法,默认学习率为0.001。CNN-Bi  LSTM的参数采用
            Hyperband算法进行调优     [21] 。通过Hyperband算法定义如下参数
            区间:n filter  = (1,150)、n k  = (1,10)、n unit  = (1,150)。
                3.2.1 注意力机制实验
                将注意力机制作用在Bi  LSTM的隐藏单元,通过Softmax
            函数计算特征的权重,图6展示了一个序列中Bi  LSTM的权重大
            小,通过比较前向和后向LSTM的权重大小检查注意力在前后两
            个方向上是否不同,并比较了注意力停留在前向和后向的符号
            指数。结果表明,注意力在两个方向上是均匀分布的。注意力
            停留在上的正向符号索引为12,反向符号索引的值也为12。中
            间符号的隐藏状态在两个方向上起着最重要的作用。输入符号
                                                                     注:右下角图为CNN-BiLSTM41和CNN-Bi  LSTM41-Attention
            n s =2N+1在经过Bi LSTM层后,根据注意力机制得到的权重信息,
                                                                 的复杂度。
            将前向和后向输入符号序列长度分别截断为                     和      ,因
                                                                     3.2.3 相似复杂度下性能比较
            此模型的计算复杂度会降低。
                                                                     为了进一步展示算法的性能,将CNN-Bi  LSTM模型的复杂
             图6 以一个序列为例的BiLSTM 权重大小                              度降低至与CNN-Bi  LSTM-Attention模型的复杂度相似条件下进
                                                                 行Q因子比较。因为RMp  S的大小与许多参数相关,无法保证复
                                                                 杂度相同,只能在近似的条件下进行比较,降低复杂度后CNN-
                                                                 Bi  LSTM的参数为:n filter =81、n k =5、n unit =31,CNN-Bi  LSTM-
                                                                 Attention保持参数不变。图8展示了在相似复杂度下的Q因子曲
                                                                 线变化。如图所示,在最佳发射功率下,相比于CNN-BiLSTM31
                                                                 模型,CNN-Bi  LSTM41-Attention模型的Q因子提高了0.43dB。
                                                                 与CNN-BiLSTM模型在相似复杂度下相比,CNN-Bi  LSTM-
                                                                 Attention模型具有更佳的性能,因此更加适合于光纤非线性损
                                                                 伤补偿。

                                                                  图8  DP-16QAM  30Gbaud系统传输1200km距离时,分别使用CNN-
                                                                  BiLSTM41-Attention 和CNN-BiLSTM31模型的Q因子与发射功率的关系




                3.2.2 相同参数下性能比较
                图7展示了在1200km传输距离上的Q因子随发射功率的变化
            曲线。其中CDC表示只进行色散补偿;DBP-5、DBP-10分别表示
            只使用每跨5步的DBP和每跨10步的DBP进行色散和非线性损伤补
            偿;CNN-Bi  LSTM41、CNN-Bi  LSTM41-Attention分别表示在进
            行CDC后采用CNN-Bi LSTM模型和CNN-Bi LSTM-Attention模型进
            行非线性损伤补偿,同时两种模型均采用Hyperband算法调优
            后的参数:n filter  = 81、n k  = 5、n unit  = 41。在20%的前向纠错
                             -2
            门限(BER  =  2.4×10 )下,与CDC相比,在2  dBm发射功率时,
            DBP-5、DBP-10、CNN-Bi LSTM41、CNN-Bi LSTM41-Attention模      注:右下角图为CNN-BiLSTM41-Attention和CNN-BiLSTM31
            型的Q因子大小分别提高了0.50、0.61、3.40、3.29dB。同时,                的复杂度。
            相较于CNN-Bi  LSTM41模型,在4  dBm(最佳发射功率)时,CNN-

                                                       网络电信 二零二三年十二月                                           55
   29   30   31   32   33   34   35   36   37   38   39