1. 引言
LEO卫星正在成为全球通信的重要补充,但其商业化落地仍面临着各种挑战。首先是业务多样性方面的挑战。随着网络与通信技术的不断发展,网络运营商往往需要在同一套物理网络设施上为各种用户提供多样化的服务,如支持宽带互联网、物联网、紧急通信等差异化服务[1]等。这些服务往往具有各异的、严格的服务质量(Quality of Service, QoS)需求。其中,LEO卫星网络系统的服务级别协议(Service Level Agreement, SLA)保障能力尤为重要,是商业化落地的核心。运营商需向客户承诺带宽、延迟、可用性等指标,否则难以规模化推广。其次,LEO卫星系统因其持续轨道运动导致星间连接状态频繁更迭,网络拓扑结构呈现出高度动态性,这不仅增加了空间环境复杂性,也对频谱等资源的分配和轨道规划提出了更严格的限制。同时,在应对不同垂直领域多样化业务需求时,该系统难以实现灵活化、定制化的服务供给,从而导致卫星资源的配置效率低下,整体利用效能受限。
四代移动通信向第五代的演进催生了网络切片技术[2],这项技术通过逻辑隔离为不同业务提供定制化虚拟网络,是解决业务多样化的关键。但与地面网络不同,LEO卫星系统的动态性导致了静态切片方案的不适用。
LEO卫星网络系统涉及的资源很多,本文主要研究无线接入网络(Radio Access Network, RAN)切片的资源的分配。在现有研究中,一些关于地面网络RAN切片的研究考虑了最大化运营商长期利益的问题。其中一些采用基于模型的优化方法来解决问题[3] [4]。然而,随着网络规模的增加和缺乏有关服务的先验信息,经典的优化技术很难应对可重构RAN切片问题。随着人工智能(Artificial Intelligence, AI)技术的发展,一些论文将原始问题转化为马尔可夫决策过程(Markov Decision Process, MDP),并使用深度强化学习(Deep Reinforcement Learning, DRL)算法来解决这些问题[5] [6]。除了服务需求波动外,由于卫星的移动性,卫星网络资源的可用性也是动态的。因此,地面网络的RAN切片策略不能直接用于卫星网络。有少数关于卫星RAN切片的研究[7] [8],其中对资源进行切片以提高吞吐量。然而,LEO卫星网络中的RAN切片的SLA波动控制问题尚未得到广泛研究。有研究者研究了天地一体化网络中的RAN资源切片和调度问题,提出了一种基于强化学习的两层联合资源切片和调度方案[9]。该方案通过分层决策机制,有效应对了资源动态性和任务多样性的挑战。有研究者则在天地一体化网络中建立了低延迟、高吞吐量和广覆盖的RAN切片模型,设计了一种集中式和分布式多智能体DDPG (Deep Deterministic Policy Gradient)算法,以联合优化服务延迟、吞吐量和覆盖范围[10]。
上述研究在进行切片决策时,尚未同时考虑RAN切片的基本性能——资源利用率(Resource Utilization)和SLA满足率(SLA Satisfaction Ratio, SSR)。同时,先前研究的主要限制在于它们使用了无模型的强化学习(Model-free Reinforcement Learning, MFRL)方法,如果使用仿真系统或从真实环境获得的样本离线训练智能体(Agent),这种方法会非常有效,但当智能体在真实的网络上学习时,这种方法并不特别合适。MFRL通常需要大量样本,这涉及对策略的广泛探索,包括低效策略。这可能会导致较长的训练时间,包含多次违反SLA的情况和额外的资源过度配置,这对租户和基础设施提供商都是不利的。最后,随着卫星网络规模的增大,资源管理变得更加复杂,需要为LEO卫星网络考虑合适的资源切片方案。
因此,本文计划在一个基于SDN的LEO卫星网络切片架构中,根据在线学习的思想,设计一个基于模型的强化学习(Model-based Reinforcement Learning, MBRL)的策略来应对上述问题和挑战。与其他基于MFBL的策略不同,MBRL通过构建环境模型来预测系统动态,从而减少对大量探索样本的依赖,提高学习效率和策略稳定性。本策略还包含一种自评估机制,控制环境模型出错概率。该策略可以更有效地管理卫星网络资源,优化资源利用率,同时确保SLA满足率,减少资源过度配置和SLA违约的风险。
2. 系统与问题建模
在本节中,本文首先描述了LEO卫星RAN的动态切片架构。然后,基于服务的特点,本文分析了eMBB (Enhanced Mobile Broadband)切片的资源利用率和SSR。最后,本文对切片的资源利用率和SSR的优化问题进行了建模和表示。
2.1. 切片架构与网络模型
本文基于图1所示的LEO卫星RAN资源分配的架构。本文考虑卫星与用户设备(User Equipment, UE)直接连接的场景,并将时间分为若干个切片窗口(Slice Window)。在每个切片窗口开始时,由地面的SDN控制器中的智能体负责分配切片间资源分配和切片编排。
在每个切片窗口内,地面SDN控制器中的智能体接收每个切片的观察向量,并且评估切片的 SLA 在上一决策阶段是否已实现。基于这些观察,智能体决定下一个切片窗口的各切片资源分配。控制目标是尽可能高效地分配资源块(Resource Block, RB),同时确保SLA以高概率得到满足。
为了回避切片网络功能编排和切片内部资源分配问题,降低问题的复杂性,本文假设切片与卫星的关系为一对一,即每个切片编排中仅包含一颗卫星,每颗卫星也仅为一个切片提供其网络功能。同时,为了应对LEO网络拓扑结构的动态变化,本文假设在每个切片窗口内,卫星拓扑不变。在每个切片开始时,卫星网络拓扑结构发生变化。在本文的实验实现中,表现为卫星位置的随机变化。
我们假设用户存在于一个固定的小陆地区域内,并且卫星网络拓扑在切片窗口中保持不变。当LEO卫星与用户之间的仰角大于最小仰角时,LEO卫星可用,记为
。因此,在切片窗口w中,当LEO卫星的一个RB分配给用户u时,可达传输速率(Achievable Transmission Rate)
可以表示为公式1。
(1)
Figure 1. Diagram of satellite network slicing architecture based on SDN
图1. 基于SDN的卫星网络切片架构示意图
其中,P为传输功率(Transmit Power),G 为常量功率增益因子(Power Gains Factor),
为高斯噪声(Gaussian Noise Power)。考虑到大尺度衰落(Large-scale Fading),传输功率也受到路径损耗指数(Path Loss Exponent)
和卫星l与用户u之间距离的
的影响。
在切片窗口w内的任意时间t,一个用户同时最多可以访问一颗LEO卫星。当LEO卫星l能满足用户u的SLA需求的时,令
,否则
。因此,有公式2所示的约束条件。
(2)
同时,在在切片窗口w内任意时间t,卫星l分配给用户u的RB数量,不能超过自身被分配的数量总和。因此有公式3所示的约束条件。
(3)
为用户被分配到的RB数量,
为卫星被分配到的RB总量。
在本文中,eMBB用户在一个切片窗口中会有一个固定的数据速率
,因此,RB以静态的形式被分配给用户。因此,eMBB切片的SLA可以表示为公式4。
(4)
为了达到这个需要,每个用户需要的RB可以表示为公式5。
(5)
由于大尺度衰落,传输功率随着距离衰减。因此,为了提高频谱效率,策略会优先选择距离最近且资源充足的LEO卫星连接用户;接着,根据用户的速率需求计算所需RB数量并进行分配,若当前卫星资源不足,则切换到下一个最近的卫星,卫星则记录当前切片窗口中被请求峰值RB数量中
,用于判断切片在本切片窗口内是否满足SLA需求,直到所有卫星的资源均分配完毕或者所有用户的均得到满足。
2.2. 问题建模
为智能体寻找有效切片资源分配策略的问题可以表述为受约束的马尔可夫决策过程(Constrained Markov Decision Process, CMDP),即公式6。这个CMDP的目标寻找一个策略
使得,分配的资源最少的同时,每个卫星SLA波动的数量的平均值控制在一个可接受的上界δ。
(6)
其中,
表示切片总数,N表示切片窗口数量。
表示智能体决策,Π表示智能体决策空间。
表示智能体对第i个切片在第n个切片窗口中所作的动作(Action)的所对应的随机变量。
表示智能体在第n个切片窗口结束时,观察到的第i个切片的观察向量
的所对应的随机变量。
用于指示切片SLA是否波动。
表示在第n个切片窗口SLA稳定未波动,否则
。根据本文的具体场景,
包括拓扑结构变化后切片被请求的RB数量
,和切片于上一个时间窗口中被请求的峰值RB数量
。
由于系统动态未知且系统状态无法直接观察,因此无法直接解决此CMDP问题。即使没有这些限制,状态和控制空间的较大维度也会使常规数值方法变得不可行。
为了将RL应用于此问题,有必要将问题进行转化。常规的方法是将SLA指示函数加权到目标函数中。得到MDP问题为公式7。
(7)
可以解释为系统在切片窗口n的代价,同时也可以表示为
,即对于
这组观察和动作的奖励的负数。很多RL算法都针对discounted MDP。因此,可以进一步转化为公式8。
(8)
其中,
是折扣因子,
表示系统轨迹在阶段n访问的随机观察-动作对。折扣MDP问题8在最大化期望回报,期望回报被定义为系统轨迹上折扣奖励的总和。
本文对于每一个切片,构建一个模型
。该模型根据上一阶段结束时收到的观察值
,预测特定的资源分配动作
是否能够满足SLA。在此基础上,我们可以将CMDP问题6转化为一个单步前瞻控制问题,从而得到一个模型预测控制器(Model Predictive Controller, MPC)。在这个控制器中,根据
,观察-动作对必须满足每个切片的SLA (
)。然而,这种方法没有考虑违反率界限
,预测器不够准确可能会导致过多的SLA违反情况。
因此,本文定义
给出的
为false negative的概率为错误函数
如公式9。
(9)
按照惯例,零假设为在阶段
中,没有出现SLA违反情况,即
。因此,
表示第二类错误概率。
本文将问题转化为一个单步前瞻控制问题,其中每个控制动作
应该是合法的,并且
中的每个元素
,根据
都应该是能够满足SLA的,并且错误概率控制在界限
以下。得到最终的问题建模为公式10。
(10)
我们可以将上述问题分解成K个子问题,有助于在线操作。误差函数
在线学习,辅助控制器做出决策。
3. 基于模型的强化学习资源分配策略
根据在线学习的思想。如图2所示,本文针对LEO卫星的RAN的基于模型的强化学习资源分配策略分为三个部分,分别是控制器(Controller),假设学习器(H-learner)和误差学习器(E-learner)。其中,假设学习器中包含假设函数集,即
;误差学习器中包含误差函数集合假设,即
。其中,n表示第n个决策阶段。假设函数集负责预测系统对资源的分配动作是否能满足SLA需求;误差函数集负责预测不同安全裕度(Security Margin)之下的误差概率。控制器在每个决策阶段会根据上一个阶段的结束时观察到的系统状态以及假设学习器和误差学习器中的函数集,并且根据系统约束,得到最终的控制动作向量,即资源分配方案。
分配策略的模型的整体流程如算法1所示。在每个控制阶段,控制器都会根据假设函数集
与误差函数集
,并基于上一阶段结束时的观察状态
生成控制动作向量
,安全裕度向量
和各切片SLA违反预测向量
。假设学习器会根据
更新假设函数集
;误差学习器会根据
更新误差函数集
。
3.1. 假设学习器
H-learner 并行运行K个在线分类学习算法,每个算法对应
中的一个假设函数。这些函数在每个阶段都会根据
和观察到的标签向量
进行更新和学习,并根据上一阶段的观察到的状态向量
,输出特定的控制动作向量
是否能满足切片的SLA需求的预测值
。在本文中,假设函数的算法为Projectron算法[11]。
在决策阶段
,假设学习器输入每个切片
,上一个决策阶段,即决策阶段n时接收的系统状态向量
、上一个阶段的控制动作向量
和观察到的结果
。
为了进一步提升假设学习器对资源分配和SLA满足关系的学习能力,本文引入了样本增强策略。对于每个切片
,如果
,则表示决策阶段n到
之间的切片的SLA已被满足;若
,则表示未被满足。对于本文的具体场景而言,如果动作向量
使得
,即决策阶段
分配的资源满足了切片的SLA需求的话,那么对于
,也可以认为其对应的结果为
,即大于
的资源量,即RB数量,也可满足切片的资源需求;相对应地,如果
使得的
,则对于
,也有
。通过这种方式扩充样本,能增强假设函数对资源分配与SLA满足关系的学习能力,使模型能更好地适应网络切片的动态变化。因此,对于每个切片
,当
时,对所有大于其的值都进行更新;当
时,对所有小于其的值都进行更新。
为了保证模型的稀疏性,在本文中,假设函数的算法为Projectron算法。Projectron是一种特殊的基于核的感知机的算法(Kernel-based Perceptron)。Projectron算法在模型的预测值与正确值不同时,会更新模型为
,其中
。同时,通过调整
,中的系数
,使得
最接近
。其中,
为支持向量集,
为核函数。若
与
的距离不大于一定的阈值
,则不将
加入支持向量集,将
更新为
,否则将
加入支持向量集合,并且将
更新为
。Projectron算法在每次更新时检查新加入的支持向量是否对分类结果有显著贡献,只有在满足一定的贡献条件时才将其纳入模型。这使得能够在降低计算复杂度的同时保持分类精度,有效适应动态变化的资源分配环境,从而提升模型的实时响应性和计算效率。
Figure 2. Diagram of model structure
图2. 模型整体结构图
3.2. 误差学习器
误差学习器中并行运行K个估计函数
,这些函数的输入包括当前预测值
、真实观测值
和安全裕度
。从本文的实际场景和假设学习器中的样本增强策略出发,对于
,若有
的话,容易推导出,有
,即动作控制向量分配的资源越多,假设函数犯第二类错误的概率越小。
(11)
基于上面结论,对于满足
的最小的a,我们定义动作控制向量
的安全裕度为
,可以表示为公式11。
使用函数
来估计在安全裕度m下的动作
的假设函数分类错误概率
。因为
表示第二类错误的概率,因此函数
仅在
时更新。采用贝叶斯更新的方法更新误差函数估计值,其具体更新公式为12。
(12)
其中
为学习率。在
时,因为动作向量越大,即安全裕度越大,分类错误概率
越小,所以误差学习器也采用类似于假设学习器的样本增强策略,即当
时,当
时,对所有
的m进行更新;当
时,对所有
的m进行更新。
3.3. 控制器
控制器是本文资源分配策略的核心模块,负责根据假设学习和误差学习器的输出生成资源分配决策。控制器的主要目标是保证切片的SLA要求得到满足的同时,最大化资源的利用效率,并避免资源的过度浪费。具体来说,在每个决策阶段n,控制器通过上一阶段的系统状态
和假设学习器与误差学习器的输出,生成资源分配向量
。在此过程中,控制器不仅考虑每个切片的SLA满足情况,还根据误差学习器输出的安全裕度
对资源分配进行保守调整,从而确保SLA违约概率保持在可接受范围内。
为了实现这一目标,控制器需要满足全局约束条件。资源分配的总量不能超过系统的总容量B,即必须满足
。当系统决策与此发生冲突时,控制器会将决策投影到可行动作空间,即生成
使得
,且满足公式13。
(13)
通过这一系列步骤,控制器能够在保证切片SLA的基础上,优化资源的利用效率,同时提高对系统动态变化的适应能力。最终,控制器输出的资源分配向量
会被用于指导下一阶段的资源分配决策,并根据不断更新的状态、SLA满足预测以及误差估计,逐步优化系统的整体资源分配策略。
4. 测试与评估
4.1. 实验设置
考虑到LEO网络切片系统的复杂性,本文没有采用仿真软件模拟星座一段时间的行动轨迹,同时据此模拟切片事宜的形式。而是仅利用python编码模拟,在每切片窗口结束的时候,组成切片的卫星位置会在切片中心点半径30 km范围之内随机变动,用来模拟卫星网络的动态性和变化性。本实验卫星高度为350 km,卫星视场角度为30度。同时用户请求根据指数分布随机生成,运行了1500个切片窗口。本文其他实验参数入表1所示。
为了验证策略的性能,本文选取了以下四个主流强化学习算法进行对比。
(1) A2C (Advantage Actor-Critic) [12]:一种基于策略梯度的强化学习算法,结合了优势函数估计和价值函数逼近,以优化策略网络并提高学习效率。
(2) TD3 (Twin Delayed DDPG) [13]:双延迟深度确定性策略梯度算法,是对DDPG算法的改进,通过使用双Q网络、延迟策略更新和目标策略平滑来减少高估偏差,进而更稳定高效地学习连续动作空间中的最优策略。
(3) TRPO(Trust Region Policy Optimization) [14]:一种基于策略梯度的强化学习算法,通过限制策略更新的幅度来保证算法的稳定性,从而更有效地优化策略以实现长期累积奖励的最大化。
(4) SAC (Soft Actor-Critic) [15]:一种基于模型无关的无模型强化学习算法,结合了策略梯度和值函数估计,通过最大化累计奖励和最小化策略的熵来学习最优策略,以实现探索与利用的平衡。
本文主要从以下四个方面评估策略性能:
(1) 资源利用率:在本文的场景下,也为频谱效率。因为资源总量固定,所以资源利用率以每个切片窗口分配的资源数量之和表示。
(2) SLA违约数:各个策略每个切片窗口的SLA违约次数。
(3) 累计SLA违约数:各个策略累计的SLA违约次数。
(4) 平均执行时间:策略每切片窗口平均执行时间。
Table 1. Experiment parameters
表1. 实验参数表
实验参数 |
值 |
|
0.25 |
G |
43.3 dBi |
B |
200 |
P |
2 W |
|
10 Mbit/s |
Bandwidth |
180 KHz |
|
0.01 |
|
0.1 |
|
0.01 |
|
10s |
4.2. 实验结果与分析
本实验的总分配RB数量,即频谱效率的结果图所图3所示。模拟实验共进行了10次,取平均值。从图3中可以得出,从策略的资源利用率角度出发,除去初始资源分配设定为的最大值的首个窗口之外,MBRL策略分配的RB数量绝大部分窗口低于100 RBs。其余四个策略中,A2C算法和TRPO算法分配的RB数量相当,大部分窗口都在150 RBs以上;SAC算法次之,有部分窗口分配RB数量在150 RBs以下;TD3算法再次,但分配的RB数量仍大部分在125RBs以上,明显高于MBRL策略分配的数量。由此可以得出,在5个策略中,MBRL策略有着最高的资源利用率,也即频谱效率,能够在更少的RB下满足资源需求,而其他策略则需要分配更多的RB来达到相似的效果。
从算法的分配结果的稳定性出发,TD3策略对应的曲线波动最小,SAC策略次之,A2C和TRPO算法波动最大。MBRL策略对应的曲线的波动介于A2C、TRPO和SAC之间,未出现过度波动,这表明MBRL在处理LEO卫星RAN切片网络动态资源分配时具备一定的稳定性。
从图4中可以看出 MBRL策略对SLA的保证能力最强:除去最开始策略尚未充分学习系统的规律与特性的一个窗口有较多SLA违约次数之外,紫色曲线代表的MBRL策略在整个仿真过程中SLA违约次数非常低,基本维持在接近0的水平,说明MBRL能够很好地满足SLA的要求。这表明MBRL在资源分配和网络服务稳定性方面具有显著的优势。TD3策略的SLA违约率最高:策略在切片窗口增多的情况下,SLA违约次数显著上升,尤其在切片窗口达到250之后,违约次数急剧增加并在较高水平上波动。这说明TD3在满足SLA方面效果较差,尤其在资源需求或环境波动较大的情况下,其稳定性较低。其余三个策略虽然优于TD3策略,但SLA违约次数仍高于MBRL策略。从图5中可以看出,MBRL在累积SLA违约方面表现最优,累积违约次数始终保持在较低水平,表明其在动态资源分配过程中能够有效减少长期的SLA偏差,实现较好的在线适应性和稳定性。相比之下,TD3的累积SLA违约最多,尤其在切片窗口增加时呈现显著上升,表明其无法有效应对环境变化,对SLA的保障能力较弱。A2C、TRPO和SAC的累积违约次数介于MBRL和TD3之间,表现中等,虽具备一定的SLA保障能力,但仍未能达到MBRL的稳定效果。整体来看,MBRL在动态LEO卫星网络的资源分配中最能有效控制SLA违约率,在长时间内保持较优的SLA违约率。
Figure 3. Results of total RBs allocated
图3. 总分配RB数量结果图
Figure 4. Results of SLA violations per stage
图4. SLA违约结果图
与MFRL的策略相比,MBRL的策略通常有着更高的计算需求,这不利于计算资源受限的卫星网络环境。然而,本文采取的Projectron算法采用投影假设技术,避免支持集无界增长,使支持集规模在实验中保持较低水平。在1500步的实验后,支持集元素数量不多于40个,大幅降低了计算开销。从表2中可以得出,在训练过程中,MBRL策略相较于其余四种策略有明显的优势。这方面也与策略的具体实现有密切关系。
Figure 5. Results of cumulative SLA violations
图5. 累计SLA违约结果图
实验结果表明,在动态LEO卫星网络的资源分配场景中,MBRL策略在资源利用率、SLA违约率、累积SLA违约方面和计算效率均表现最优。总体而言,MBRL在LEO卫星RAN切片资源分配中展现了优越的资源分配稳定性、SLA保障能力和计算效率,适合需要高服务质量保证的动态网络环境。
Table 2. Average execution time per slice window
表2. 策略每切片窗口平均执行时间
策略名称 |
平均用时(ms) |
A2C |
153 |
TRPO |
264 |
SAC |
212 |
TD3 |
258 |
MBRL |
77 |
5. 总结
本文针对LEO卫星RAN切片资源分配问题,在动态网络环境下提出了一种基于MBRL的动态优化策略。通过将问题建模为单步前瞻控制问题,要求分配策略在运行时进行在线学习,同时确保SLA违约率不超过设定阈值。所提策略创新性地引入了核方法分类器和模型自评估机制,以优化预测准确性并控制模型错误率。与传统强化学习方法相比,本策略在资源利用率、服务稳定性和执行效率等方面表现出显著优势,能够更好适应LEO卫星网络的动态环境,为LEO卫星网络的资源管理提供了有力的技术支持。
基金项目
本文由项目(D040304)资助。
NOTES
*通讯作者。