​ 近年来 AI 技术特别是深度学习在计算机视觉、自然语言处理、语音识别等多个领域获得了巨大成功。AI 技术使能的智能无线通信被认为是 6G 发展主流方向之一,其基本思想是通过无线通信技术与 AI 技术的有机融合实现智慧内生,大幅度提升无线通信系统的性能。

无线通信系统引入AI技术的价值

​ 无线通信系统中存在大量传统方法难以进行精确数学建模或者高效率求解的技术问题,例如覆盖增强、干扰消除、时频资源优化分配、波束管理、跨层优化等问题,这推动了近年来 AI 技术在通信系统中的广泛研究与应用。比如:在网管领域,AI 算法可以用来优化系统容量、覆盖、故障率、负载均衡、异常检测等方方面面的性能;在核心网,AI 的应用包括智能业务质量定义与分配、切片状态分析、用户体验分析等;在接入网,AI 的应用包含智能无线资源管理算法、接入控制、调度算法,以及最新的研究热点物理层 AI,包括基于 AI 的编码、调制、多址、多天线、波束管理、无线定位、信道估计/预测、接收机算法等。

​ 近年来,很多国际组织也开始了无线 AI 相关的研究与标准化,例如,ITU专门成立了机器学习焦点组,研究机器学习在未来网络的应用场景、潜在需求、用于移动网络优化的机器学习算法、支持机器学习的未来网络架构、接口、协议等。3GPP 也开展了 AI 应用于核心网、网管、接入网的标准化工作,尤其是近期 RAN1 也开始了物理层 AI 的标准化讨论。

​ 经过多年的发展演进,物理层的信道编码、调制、波形、大规模多输入多输出(MIMO)、正交频分复用(OFDM)等技术已日趋成熟。在实际系统中,当发射机获知信道信息后,可以在发送端做各种优化处理,例如自适应编码调制、MIMO预编码、功率控制等,这些自适应方案可以大幅提升通信系统的性能。然而,在很多情况下,由于信道的快速变化以及小区内和小区间干扰的存在,实现精确的信道估计很困难,再加上不理想的信道反馈等原因,发送端难以获得准确的信道信息。因此,发射端如何通过高效率的方式(低反馈开销、低参考信号开销、低复杂度、低时延)精确获知信道信息,是整个无线通信系统性能提升的关键因素之一。在传统物理层技术的基础上引入 AI,有望更全面的把握无线信道的特征和变化趋势(包括小区内和小区间的干扰),从而有助于提升无线通信物理层的性能。

物理层AI技术的定义和基本工作流程

​ 物理层AI设计包含两种主流方法:一是基于AI技术的端到端通信链路设计,二是基于 AI 技术的通信模块算法设计。物理层 AI 可以部署在基站侧或终端侧,侧重于对物理信道特征的提取,并针对不同的物理层技术进行相应的 AI 模型选择和训练,很多场合需要基站和终端之间 AI 能力的配合以及信令交互。物理层AI 的基本工作流程如下:

  • 数据采集:基站和终端收集需要的信息,包含信道信息、干扰信息、终端移动速度、终端位置、资源分配、业务信息等;
  • 模型训练:基站和终端针对要解决的问题有针对性的进行 AI 模型选择与训练,包含独立 AI 模型和分布式模型训练,并进行模型同步和参数传递;
  • 实时 AI 空口增强:基于实际的测量结果和训练好的模型,基站和终端相互配合,实时输出更优的辅助决策信息,供调度器进行更优的调度;
  • 智能调度:调度器基于物理层 AI 的输入信息以及其他高层和业务等信息进行全局的资源分配和用户调度,实现系统性能的提升;

物理层AI在无线通信网络中的作用

​ 在具有内生 AI 的无线通信系统中,AI 能力分布在系统不同的功能实体中。接入网 AI 和核心网 AI、网管 AI、以及终端 AI 互相配合,联合优化系统性能。接入网 AI 部署在基站内部,包含中心单元 CU (Centralized Unit)和分布单元 DU (Distributed Unit)),CU 与 DU 的 AI 功能需要根据各自的能力和需求进行分割与配合。CU 与 DU 之间、接入网 AI 与核心网、网管、甚至应用服务器都有相应的接口用于数据交互。

​ 基于采集的数据,接入网 AI 学习与预测移动业务的特征、用户移动性规律、用户业务行为、信道与干扰情况、业务质量(QoS)、业务体验(QoE)等信息;并酌情把分析的结果通过接口传递到核心网、网管、以及接入网功能(无线资源控制与管理、MAC 层以及高层协议栈、物理层等),支持网络的优化和业务的优化。其中,接入网 AI 可以针对不同的用户或者业务采用最合适的协议栈功能与处理算法,提高资源利用率。

​ 物理层 AI 是接入网 AI 能力的一部分,主要功能是基于物理信道相关的信息对于物理层功能(包含信道编码、调制、波形、多址、多天线 MIMO、接收机算法等)进行增强。物理层 AI 的输出信息(例如最优的编码调制方案、信道预测结果、多天线预编码矩阵等)提供给基站媒体介入控制(MAC)调度器,后者结合所有相关的信息进行更加智能的实时业务和资源调度。

​ 为了最大化 AI 对网络潜在的增益,接入网 AI 的算法可以是运营商、设备商、或者第三方设计,并通过接口作用到基站的调度器,推动接入网的开放和智能。

基于AI的发射机和接收机技术

​ 典型的无线通信系统由发射机、无线信道、接收机构成。其中,发射机主要包括信源、信源编码、信道编码、调制、波形多址、MIMO 和射频发送等模块;接收机主要包括射频接收、信道估计与信号检测、MIMO、波形多址处理、解调、信道解码、信源解码、信宿等模块。基于 AI 的发射机/接收机技术的工作原理为:以数据(主要为无线信道数据)驱动的方式使用机器学习方法优化发射机/接收机中的单个或多个功能模块,从而实现链路/系统级性能的提升或模块计算复杂度的降低等目标。

​ 按照优化目标涵盖的范围的大小,可以将基于 AI 的发射机/接收机技术分为以下两类:1)基于 AI 技术的端到端通信链路设计,其原理为使用深度学习联合优化整个端到端通信系统;2)基于 AI 技术的通信模块算法设计,即针对通信系统中的某一现有模块,或提高通信算法的性能,或降低通信算法的复杂度。

基于AI的端到端通信链路设计

​ 端到端通信是指利用深度学习技术,以最小化消息传输错误概率等为目标,联合优化收发机模块。端到端通信可以打破传统通信系统的模块化壁垒,对发射机和接收机进行联合优化,从而实现通信链路全局最优的误码率性能。

​ 端到端通信具有灵活的可拓展性,可以涵盖多种物理层新功能,包括非正交多址、不同的天线波束赋型架构、智能超表面技术等。例如,端到端通信可以将近来新提出的可重构智能超表面技术纳入联合优化范围,从而实现收发转联合优化来最大程度提升超表面部署的期望收益。此外,通过信源编解码和端到端物理层的联合优化,可以实现以最小化语义错误率为目标的语义通信。通过使用神经网络学习特定传输内容的语义特征,将其于信道特征加以匹配,更少的通信资源可以实现更大的传输速率。

端到端通信中的发射机/接收机联合设计是实现全局最优的性能保证。但实现发射机/接收机的联合设计需要解决损失函数梯度在无线信道上的传播问题,否则发射机部将难以进行优化。可以考虑采用基于对抗生成网络的梯度回传等手段使得发射机可以根据接收机反馈的梯度进行相应的更新。

基于AI的发射机/接收机模块算法设计

​ 基于 AI 的发射机/接收机技术使用深度神经网络模型替代传统发射机中的部分模块,以数据驱动的方式训练模型来取得更优的性能和/或更低的复杂度。此类方案中的数据来源一般有两类,即使用传统方案得到的标注数据与端到端的信道数据。相对应的,以传统方案得到的标注数据为学习对象的方案主要目标为以低复杂度实现高性能的传统算法;以端到端的信道数据为学习对象的方案主要目标为优化链路级性能。

​ 压缩感知技术是一类广泛应用在通信物理层设计中的技术,用来提升解码、信号检测、信道估计算法的精度。然而部分压缩感知算法需要进行多轮迭代,复杂度很高 。针对该问题,将经典的稀疏信号恢复算法AMP(Approximate Message Passing,近似消息传递)展开为深度神经网络,得到了一种基于学习的 AMP,即 LAMP 网络,可以用来估计稀疏信道。在 LAMP 网络中,每一层网络均与 AMP 算法中的每一次迭代完全对应。特别地,LAMP 网络可以通过网络训练优化 AMP 算法中仅凭经验设定的超参数,从而提高估计精度。在 LAMP 网络的基础上进一步改进网络结构,借鉴图像降噪的思想,将 LAMP 网络中的收缩函数替换为降噪卷积神经网络(Denoising Convolutional Neural Network,DnCNN)。利用稀疏信道近似服从混合高斯分布这一先验信息,将 LAMP 网络中的收缩函数替换为推导的混合高斯收缩函数。该类基于模型驱动深度学习的信道估计方法已经证明可以在相同的低导频开销下获得优于基于压缩感知方法的估计精度。上述基于 AI 的收发机方案在学习时需要首先使用传统算法生成带标签数据,因此其主要局限在于性能难以突破其标签方案的限制。

​ 信道编解码模块是收发机的重要组成部分,目前大多数信道编码方案都是基于领域专家知识设计,其中 Turbo 码作为一种典型的容量逼近码已经得到广泛研究。然而,Turbo 码会遭遇严重的错误平层和错误传播问题,现有研究表明可以通过基于 AI 的信道编码方案解决上述问题。Neural BCJR(Bahl Cocke Jelinek Raviv)方案代替传统的 BCJR 解码算法,解决错误层和错误传播的问题。最大化对数最大后验概率( max-log-MAP ,max-log-Maximum A Posteriori)算法展开为 TurboNet,并为 TurboNet 引入一些可训练的权重以提高性能并加快收敛速度。仿真结果表明,TurboNet 在高信噪比(SNR,Signal-to-Noise Ratio)状态下具有最佳纠错能力,而 NeuralBCJR在低 SNR 下具有最佳性能。这些现象表明,当先验知识准确率较低且接收信号干扰较多时,NeuralBCJR 具有更好的应对非理想场景的能力,而当先验更准确且接收信号干扰较少时,TurboNet 具有更好的性能。无论是 Neural BCJR 还是TurboNet,都需要进行端到端的训练来提升纠错性能,因此属于端到端方案。端到端方案的优势是能够带来性能提升,但不足在于目前无法完全理解深度神经网络通过何种原理实现这种性能提升。基于 AI 的收发机方案的机理解释是未来一个重要且挑战的方向。

​ 除了上述基于 AI 的信道估计和信道译码,业界还有大量基于 AI 的收发机设计的典型案例,例如基于 AI 的编码和调制方式识别、多用户星座联合设计、波形设计、MIMO 预编码等。此外,基于 AI 能力所提供的发送端精确的信道信息,还可以优化传统物理层技术方案,例如最优的下行大规模 MIMO 预编码方案、最优的编码/调制/交织方案、性能优异的非静态信道下的极化编码等。

小结

​ 基于 AI 的发射机/接收机方案主要呈现出两种设计思路:一种基于数据驱动;另一种则基于数据模型双驱动。基于数据驱动的方案将无线通信系统的多个功能块看作为一个未知的黑盒子,利用深度学习网络取而代之。相比之下,基于数据模型双驱动的方案在无线通信系统原有技术的基础上,不改变无线通信系统的模型结构,利用深度学习网络代替某个模块或者训练相关参数以提升某个模块的性能。基于数据驱动的深度学习网络主要依赖海量数据,而基于数据模型双驱动的深度学习网络主要依赖通信模型或者算法模型。

​ 基于数据驱动的深度学习网络通过大量实例学习,吸收了被人类分析员分别标记的大量数据,以生成期望的输出。然而,训练深度学习网络需要大量的标记数据,积累和标记大量信息的过程不但费时而且成本高昂。除了积累标记数据的挑战之外,大多数基于数据驱动的深度学习模型泛化性和鲁棒性较弱,即使网络部分结构发生微小变化,也会导致训练模型准确性大大降低。基于数据模型双驱动的深度学习网络以物理层已有模型为基础,可以显著减少训练或升级所需的信息量。此外,由于已有的模型具有环境自适应性和泛化性,因此数据模型双驱动深度学习网络也具有这些特性,并且能在原模型基础上进一步提升系统的性能,因此具有广阔的发展前景。