Page 34 - 网络电信2023年11月刊
P. 34
(n batch ,n s ,4),其中n batch 表示批处理大小,4表示每个符号的特征 Bi LSTM41-Attention模型的Q因子降低约0.23dB,在–1dBm
数(x和y两个偏振方向上的实部和虚部)。输出目标为恢复两个 发射功率时,Q值降低了0.03dB。但是,从图7中的插图可以
偏振方向的第t个符号的实部和虚部,因此输出的批处理形状可 看出,CNN-Bi LSTM41-Attention模型的计算复杂度降低了约
以定义为:(n batch ,4)。n feature 和n output 的值等于两个偏振方向的 31.6%。详细的复杂度计算由公式(8)和(9)得到。
实部和虚部数,即n feature ,n output = 4。
使用AMD Ryzen 7 5800H@3.20 GHz处理器,在Tensor 图7 DP-16QAM 30Gbaud系统传输1200km距离时,Q因子与发射功率的
关系
Flow-2.4.1环境下搭建和训练CNN-Bi LSTM-Attention模型。
在优化过程中采用均方误差作为损失函数,使用Adam算法作为
梯度下降算法,默认学习率为0.001。CNN-Bi LSTM的参数采用
Hyperband算法进行调优 [21] 。通过Hyperband算法定义如下参数
区间:n filter = (1,150)、n k = (1,10)、n unit = (1,150)。
3.2.1 注意力机制实验
将注意力机制作用在Bi LSTM的隐藏单元,通过Softmax
函数计算特征的权重,图6展示了一个序列中Bi LSTM的权重大
小,通过比较前向和后向LSTM的权重大小检查注意力在前后两
个方向上是否不同,并比较了注意力停留在前向和后向的符号
指数。结果表明,注意力在两个方向上是均匀分布的。注意力
停留在上的正向符号索引为12,反向符号索引的值也为12。中
间符号的隐藏状态在两个方向上起着最重要的作用。输入符号
注:右下角图为CNN-BiLSTM41和CNN-Bi LSTM41-Attention
n s =2N+1在经过Bi LSTM层后,根据注意力机制得到的权重信息,
的复杂度。
将前向和后向输入符号序列长度分别截断为 和 ,因
3.2.3 相似复杂度下性能比较
此模型的计算复杂度会降低。
为了进一步展示算法的性能,将CNN-Bi LSTM模型的复杂
图6 以一个序列为例的BiLSTM 权重大小 度降低至与CNN-Bi LSTM-Attention模型的复杂度相似条件下进
行Q因子比较。因为RMp S的大小与许多参数相关,无法保证复
杂度相同,只能在近似的条件下进行比较,降低复杂度后CNN-
Bi LSTM的参数为:n filter =81、n k =5、n unit =31,CNN-Bi LSTM-
Attention保持参数不变。图8展示了在相似复杂度下的Q因子曲
线变化。如图所示,在最佳发射功率下,相比于CNN-BiLSTM31
模型,CNN-Bi LSTM41-Attention模型的Q因子提高了0.43dB。
与CNN-BiLSTM模型在相似复杂度下相比,CNN-Bi LSTM-
Attention模型具有更佳的性能,因此更加适合于光纤非线性损
伤补偿。
图8 DP-16QAM 30Gbaud系统传输1200km距离时,分别使用CNN-
BiLSTM41-Attention 和CNN-BiLSTM31模型的Q因子与发射功率的关系
3.2.2 相同参数下性能比较
图7展示了在1200km传输距离上的Q因子随发射功率的变化
曲线。其中CDC表示只进行色散补偿;DBP-5、DBP-10分别表示
只使用每跨5步的DBP和每跨10步的DBP进行色散和非线性损伤补
偿;CNN-Bi LSTM41、CNN-Bi LSTM41-Attention分别表示在进
行CDC后采用CNN-Bi LSTM模型和CNN-Bi LSTM-Attention模型进
行非线性损伤补偿,同时两种模型均采用Hyperband算法调优
后的参数:n filter = 81、n k = 5、n unit = 41。在20%的前向纠错
-2
门限(BER = 2.4×10 )下,与CDC相比,在2 dBm发射功率时,
DBP-5、DBP-10、CNN-Bi LSTM41、CNN-Bi LSTM41-Attention模 注:右下角图为CNN-BiLSTM41-Attention和CNN-BiLSTM31
型的Q因子大小分别提高了0.50、0.61、3.40、3.29dB。同时, 的复杂度。
相较于CNN-Bi LSTM41模型,在4 dBm(最佳发射功率)时,CNN-
网络电信 二零二三年十二月 55