自适应速率

2024-07-05

自适应速率(精选五篇)

自适应速率 篇1

IEEE802.11标准中, 在物理层提供了多种数据速率[1], 但在MAC层没有给出如何选择速率的算法, 因此很多以ARF[2]、RBAR[3]t OAR[4]为代表的速率自适应算法被相继提出, 这些算法是依据信道的质量做出不同传输速率的选择, 但这些算法只针对数据帧进行速率自适应, 而控制帧则选用基本速率集合中的某个速率进行传输[5]。

基于接收端的自适应速率算法根据信道状况做出自适应选择, 依赖于RTS/CTS握手完成信道的评估和速率的选择。但该算法中控制帧RTS和CTS传输速率较低, 会耗费大量带宽。尤其随着数据帧传输速率的提高, 传输数据的开销相对减少, 控制帧开销的比重相对增大, 因此减少控制帧的开销对于减少总开销有着积极的意义。

针对经典速率自适应算法的研究, 提出对于数据帧速率选用RBAR 或OAR算法, 同时也对控制帧进行速率自适应。该改进算法既对数据帧也对控制帧选择最佳的速率进行传输, 以提高网络资源的利用率和系统吞吐量。

1 RBAR算法分析

RBAR算法是IEEE802.11多速率能力的加强协议。其核心思想是让接收端来控制发送端的传输速率, 通过RTS/CTS分组来进行信道评估, 并在发送端和接收端之间传递信息。

RBAR算法利用了IEEE 802.11中提供的隐藏终端冲突解决机制RTS/CTS。借助RTS/CTS机制隐藏终端问题在RBAR算法中已经有效地避免了。而其信道估计和速率自适应算法也利用了RTS和CTS帧结构, 在RTS和CTS中添加了特殊标识字段, 通过数据发送过程中RTS/CTS握手机制完成了信道估计、反馈和速率切换。

RBAR算法依据IEEE802.11协议物理层不同编码调制方式下进行自适应多速率设计, 计算在不同速率下接收信噪比理论值, 并与RTS/CTS握手机制中所添加的额外信息所得到的实际接收信噪比值 (接收功率) 进行比较。伪代码描述如下:

Μ1ifSΝR<θ1Μiifθi<SΝR<θi+1i=1, 2, , Ν-1ΜΝ

式中, MiSNR分别对应不同的发送速率 (调制方式) 和通过接收数据包计算的信噪比;θi为不同传输速率所对应的不同信噪比门限。

RBAR算法工作流程如下:

① 接收端提取RTS中携带的额外添加信息, 由PHY层来计算当前速率情况下的接收信噪比 (接收功率) , 根据信噪比的大小确定下一帧的发送速率;

② 接收端MAC层将速率信息附加到CTS帧中回传到发送端;

③ 发送端MAC层提取CTS帧的信息, 根据接收端传来的速率选择信息, 下传到PHY层进行速率调整。

从该算法中可以看出RBAR算法主要是通过RTS帧完成对信道质量的估计, 并且基于一种对实验数据进行统计得出的假设:足够高的接收信噪比说明信道足够好, 可以尝试更高的发送速率, 完成速率自适应。

2 OAR算法分析

OAR算法是一种针对多速率IEEE802.11的无线Ad Hoc网络增强型协议。其关键机制核心思想是当信道质量足够好的情况下, 能够以信道质量允许的比基速率更高的速率传输。在一般情况下, 对于移动用户和非移动用户而言, 无线信道保持一致的时间比多个数据包传输时间要长。为了提高网络的吞吐量, 应该在信道条件好的情况下传输更多的数据, 而在信道条件差的情况下传输较少的数据。在RBAR协议中, 无论信道条件是好还是差, 每次数据包的一个完整发送过程, 都要启动RTS/CTS机制。而OAR算法中, 信道条件好的情况下, 发送节点连续发送多个数据帧, 发送数据帧的数量等于所用传输速率与基本速率的比值。

OAR算法继承了RBAR的优点。实际中节点即使在高速运动中, 无线信道质量在某个门限值范围内的时间往往要长于多个数据包 (帧) 的传输时间;因此, 完全可以在无线链路中, 在某个门限值范围内的时间来传输较多的分组, 而不用像RBAR算法那样每次发完一个完整数据包 (或分组) 都要进行速率自适应。OAR和RBAR协议实例的时序图如图1所示。

不难发现OAR关键思想是让高速节点一次性传输多个连续的分组以充分利用高质量信道时刻的信道。当节点的多速率MAC机制表明信道当前条件较好, 就允许使用超过基本速率发送数据, OAR允许该节点一次性传输分组的数量为该速率与基本速率的比值, 发送节点就抓住机会连续地传输多个数据分组。OAR算法的特点如下:

① 接收节点对信道质量进行估计, 如可以使用RBAR算法, 通过一次RTS/CTS握手来完成信道估计;

② 如果通过信道估计, 发现信道质量好于基本速率时, 按照一定比例传输更多的数据包, 如果信道质量下降, 就停止传输。

OAR算法通过RTS/CTS完成对信道的估计, 如果发现信道质量较好则允许在发送端发送多个数据包而不是一个, 该算法还利用了IEEE 802.11中具有的时间公平性, 每次发送过程都从RTS开始, 到该分组数据最后一个ACK接收时间为止。它在信道条件好的情况下, 尽可能地以高速率发送更多的数据包提高系统的吞吐量, 并且避免每次发送过程中都需要开启RTS/CTS而造成的额外网络开销, 使节点用尽可能更多的时间来传送数据。

3 改进的速率自适应机制

通过对经典自适应算法的研究和分析可以得出, 速率选择可以在发送端, 也可以在接收端。基于发送端的速率自适应算法简单易行, 但是不能及时准确地反映信道质量;基于接收端的自适应速率算法能更好地根据信道状况做出自适应选择, 但依赖于RTS/CTS握手才能完成信道的评估和速率的选择, 相对而言这种算法是一种比较理想的算法。但在该算法中控制帧RTS和CTS以很低的速率传输, 会耗费大量的带宽。尤其随着数据帧传输速率的提高, 传输数据的开销相对越来越少, 控制帧开销占用总开销的比重相对增大, 因此减少控制帧的开销对于减少总开销有着积极的意义。

在IEEE802.11协议中明确指出:在基本速率集当中选用一个基本速率作为控制帧的传输速率。基本速率是由协议所支持最低的1个或几个速率组成的, 例如IEEE802.11b支持1 Mbit/s、2 Mbit/s、5.5 Mbit/s和11 Mbit/s四种速率, 基本速率集是由1 Mbit/s和2 Mbit/s组成。其结果是:不考虑Data帧的长度和传输速率, 控制帧将耗费相当可观的固定量值的带宽。

因此, 设想根据RBAR算法思想, 基于一种对实验数据进行统计得出的假设:足够高的接收信噪比说明信道足够好, 既可以尝试更高的数据帧发送速率, 又可以尝试下一帧时序序列更高的控制帧速率, 完成速率自适应, 提高网络资源的利用率和系统的吞吐量。

改进机制的伪代码描述如下:

CR1ifSΝR<θ1CRiifθi<SΝR<θi+1i=1, 2, , Ν-1CRΝ

式中, CRi对应不同的控制帧速率 (调制方式) ;SNR表示通过接收数据包计算的信噪比;θi为不同传输速率所对应的不同信噪比门限。

由于是基于接收端信噪比来调整速率, 所以该改进算法思想既可以在RBAR算法也可以在OAR算法基础上进行。由于基本速率是由协议所支持最低的1个或几个速率组成的, 所以在做仿真研究时, 可以假设最大控制帧速率为基本速率集中的最大值, 而相应最小控制帧速率为了基本速率集中的最小值。例如IEEE802.11b支持1 Mbit/s、2 Mbit/s、5.5 Mbit/s和11 Mbit/s四种速率, 基本速率集是由1 Mbit/s和2 Mbit/s组成, 则仿真中设定的控制帧速率最大为2 Mbit/s, 而最小为1 Mbit/s, 其余值介于最大最小值之间。

4 改进机制的仿真

基于RBAR和OAR基础上, 对控制帧速率自适应机制进行改进, 主要仿真对比对RBAR应用改进速率机制后与RBAR算法之间的吞吐量, 对OAR应用改进速率机制后与OAR算法之间的吞吐量。

采用NS2 (Network Simulator Version 2) [6]网络仿真工具进行改进机制的实验仿真。信道传播模型是采用Two Ray Ground衰落模型, 路由协议采用AODV (Ad Hoc on Demand Distance Vector) 协议, 节点运动最大速率为20 m/s, 正常传输范围和检测范围为1 000 m, 仿真时间为50 s, 每秒钟产生1 000个包以供发生。RBAR和改进后的吞吐量比较如图2所示。

从图2可以看出, 在RBAR算法基础上, 不仅对数据帧根据信道状况进行速率自适应, 而且采用改进机制对控制帧进行速率自适应。仿真结果表明相对RBAR算法, 采用控制帧速率自适应的改进机制, 明显提高了吞吐量。CAR和改进后的吞吐量比较如图3所示。

从图3可以看出, 在OAR算法基础上, 除了对数据帧根据信道状况进行速率自适应, 而且在信道状况的良好情况下发送多数据包, 还采用改进机制对控制帧进行速率自适应。仿真结果表明采用改进机制后相对经典的OAR算法明显提高了吞吐量。

采用控制帧速率自适应的改进机制, 具有如下特点:

① 接收端从RTS中提取额外的添加信息, 在物理层计算当前速率情况下的接收信噪比 (接收功率) , 根据信噪比的大小判定信道状况从而确定下一帧的发送速率和下一帧序列的控制帧速率;

② 接收端MAC层将速率信息附加到CTS帧中回传到发送端;

③ 发送端提取CTS中的信息, 根据接收端传来的速率选择信息, 下传到PHY层进行速率调整;

④ 通过一次RTS/CTS握手来完成信道估计, 如果通过信道估计, 发现信道质量好于基本速率时, 按照一定比例传输更多的数据包, 如果信道质量下降, 就停止传输。

由此可以看出, 改进的算法包含原有基于接收端速率自适应算法的优点, 通过RTS帧完成对信道质量的估计, 并且基于一种对实验数据进行统计得出的假设:足够高的接收信噪比说明信道足够好, 可以尝试更高的发送速率, 完成速率自适应, 并且按照一定比例传输更多的数据包。另外提高了控制帧的传输开销, 在一定程度上提高了吞吐量和信道使用效率。

5 结束语

上述针对经典自适应算法RBAR和OAR进行了分析研究, 并基于一种对实验数据进行统计得出假设:足够高的接收信噪比说明信道足够好, 既可以尝试更高的数据帧发送速率, 又可以尝试下一帧时序序列更高的控制帧速率, 完成速率自适应, 提高网络资源的利用率和系统的吞吐量。仿真试验与现有速率自适应机制比较表明, 提出的改进机制能显著降低控制帧传输开销, 提高系统吞吐量和网络的利用率。

摘要:针对目前经典的IEEE 802.11速率自适应算法进行分析研究, 提出了在基于接收端的自适应速率算法 (RBAR) 和机遇式自适应速率算法 (OAR) 基础上根据信道质量对控制帧采用速率自适应从而减少控制帧开销的改进机制, 以提高网络资源的利用率和系统的吞吐量。采用NS2网络仿真工具仿真验证其吞吐量, 并与经典算法吞吐量进行对比。仿真结果表明, 根据对于控制帧采用速率自适应, 可以有效提高系统吞吐量和网络资源的利用率, 性能优于传统经典的速率自适应算法。

关键词:IEEE802.11,速率自适应,控制帧,吞吐量

参考文献

[1]ANSI/IEEE Std 802.11-1999.Part 11:Wireless LANMedium Access Control (MAC) and Physical Layer (PHY) Specifications[S].

[2]KAMERMAN A, MONTEBAN L.A High PerformanceWireless LAN for the Unlicensed Band[C].Bell LabsTechnical Journal, 1997:118-133.

[3]HOLLAND G, VAIDYA N H, BAHL P.A Rate AdaptiveMAC Protocol for Multi-Hop Wireless Networks[C], MOBICOM'01, 2001:236-251.

[4]SADEFHI B, KAUODIA V, SABHARWAL A.Opportunistic Media Access for Multi-rate Ad HocNetworks[J].Communications, IEEE InternationalConference, 2004 (1) :154-158.

[5]金纯, 陈林星, 杨吉云.IEEE802.11无线局域网[M].北京:电子工业出版社, 2004.

数据有增加 图表自适应 篇2

如需利用柱形图展示员工的工作业绩,当员工人数增加或减少时,柱形图的个数实现自动进行相应的变化,即增加或减少(图1)。在一般操作中,实例中柱形图的数值系列的数据源是由手动选取的B2:B9,水平(分类)轴标签的数据源也是手动选取的A2:A9,这些数据源都是固定不变的。要想实现上述效果,需要将这两个数据源更改为可变的表达式。

用Excel 2013打开数据表,点击“公式→定义名称”,在弹出窗口的名称处输入“分类轴”,引用位置处输入“=OFFSET($A$2,,,COUNTA($A:$A)-1,1)”;以同样的方式再定义一个名称为“数值轴”的名称,引用位置处输入“=OFFSET($B$2,,,COUNTA($A:$A)-1,1)”(图2)。

数据源名称定义完成后,就该修改柱形图的两个数据源了。

右击柱形图,选择“选择数据”,在弹出的窗口中点击“图例项(系列)”下的“编辑”按钮,在弹出的窗口系列值处输入“Sheet1!数值轴”( Sheet1这要根据数据表的名称而定);点击“水平(分类)轴标签”下的“编辑”按钮,在弹出的窗口中输入“=Sheet1!分类轴”(图3)。

自适应速率 篇3

1 令牌漏桶算法

令牌漏桶算法进行流量控制的基本思路[1,2]是:令牌漏桶是一个上限为TCmax的计数器,一方面有分组到达时,漏桶计数值TCi会增大,一旦TCi> TCmax,则认为分组到达的过快,新到达分组因溢出而被丢弃; 另一方面漏桶计数值TCi按照固定速率Vi在不断减小,TCi减小到零时则不再减少。正常情况下,分组到达的平均速率与漏桶流出的速率Vi相等,设FGi是同一业务流中相邻分组的间隔,TCo是在时间FCi内漏桶的流出值,即Vi= TCo/ FGi。考虑到分组连续到达时非均匀传输,可能出现时延抖动Jitter,不过抖动总量受限,连续突发抖动之和≤Jmax,设FG是相邻分组的平均间隔,由此可确定漏桶上限值TCmax[3,4]

令牌漏桶算法的模型如图1 所示,图中TCo为时间间隔2 × FG内漏桶的流出量,Jmax等于FG/4,Ji是每次分组的时延抖动。

由图1 可知,TCi初始值为0。当分组1 到达后TCi为TCo/2; 由于分组2 到达时间迟于预期,所以分组2 到达前TCi已降为0,分组2 到达后TCi为TCo/2;分组3 和分组4 均提前到达,因而TCi持续增大; 当分组5 到达时,若接收分组5,TCi会超过漏桶上限TCmax,按照漏桶规则,分组5 被丢弃; 分组6 延迟到达,分组6 到达后TCi为TCo/2。

2 流量控制机制的处理过程

在式( 1) 中,参数FG和Jmax是系统设置的。运行过程中,根据到达分组的长度Li、FGi和FGo来更新漏桶计数值TCi。按照每次分组到达的时间,得出分组传输间隔FGi; 通过Vi与FGi相乘得出,时间间隔FGi内可输出的信息长度TCo。比较TCo与Li,如果TCo≥Li,则当前到达分组被接收; 反之漏桶计数值TCi变大,若TCi超过TCmax,则当前到达分组被丢弃。上述处理过程是按照令牌漏桶算法直接得出的,具体到FPGA实现时复杂度较高。

由式( 1) 可看出,若FGi与FG相等或成比例,则可大幅简化实现过程。进一步分析可知,FGi是单次分组时间间隔,FG是平均分组间隔,若有N个分组连续到达,则N个分组的时间间隔FG'i近似等于N ×FG,因此式( 1) 可等效为

其中,TC'o是N个分组的长度总和。从式( 3) 可知,漏桶输出信息长度TC'o对应的时间是FG'i,则比较N个分组的累计间隔时间 ΔT与FG'i的大小,若 ΔT ≥FG'i,以TC'o为单位漏桶计数值TC'i自减; 若 ΔT <FG'i,将实际分组总长度累加到TC'i上。处理过程省略了乘法运算,同时,从式( 1) ~ 式( 3) 转换后,算法只与N个分组的总长度有关,而不关心单个分组的长度,所以式( 3) 同样适用于变长分组传输[5]。

按照式( 3) 可推出流量控制的具体实现步骤如下:

步骤1 当新分组到达时,由全局时钟给出当前时间Tnow,并与时间寄存器中“上一分组”到达时间Ti取差值 ΔT( ΔT = Tnow- Ti) 。注: “上一分组”是指累加过程的第一个分组;

步骤2比较 ΔT与FG' + Jmax,若 ΔT ≥ FG' +Jmax,表示分组实际到达间隔大于漏桶流空的时间,即当前分组到达时漏桶计数值TCi为0,新分组被接收。分组接收后,更新对应寄存器内容,将漏桶计数值TCi更新为当前分组长度Li,“上一分组”到达时间Ti更新为当前时间Tnow;

步骤3若ΔT<FG'+Jmax,则再比较ΔT与FG'i。若FG'i≤ΔT,新分组被接收,因为单个分组长度Li不会>N个分组的总长度TC'o。随后按照TCi与TC'o的大小关系更新对应寄存器内容。当TCi≤TC'o时,即当前分组到达时漏桶计数值TCi为0。寄存器更新过程同步骤2;若TCi>TC'o,将TCi更新为TCi-TC'o+Li,“上一分组”到达时间Ti更新为当前时间Ti+FG'i,即Tnow-ΔT+FG'i;

步骤4若FG'i>ΔT,则比较TCi+Li与TC'max。若TCi+Li>TC'max,表示分组实际到达数目过多,超出带宽允许的范围,新分组被丢弃,对应寄存器内容不更新。若TCi+Li<TC'max,当前分组被接收,漏桶计数值TCi更新TCi+Li,“上一分组”到达时间Ti不更新。

3 流量控制模块的参数选择与实现

3. 1 分组长度的选择

速率自适应通信系统中传输的是变长分组( 64 ~1 500 Byte) ,因此每个业务流对应的参数均不同。为了降低FPGA处理的复杂度,将分组按照长度分为5个区间[64,127]、[128,255]、[256,511]、[512,1 023]、[1 024,1 500][6],N值取2 ~ 4,对应到TC'o取值为256、512、1 024、2 048 和4 096。TC'o确定后,TC'max也就确定了。

3. 2 参数寄存器的处理

速率自适应通信系统以分组目的地址( 16 位) 为标识对业务流进行区分,业务流的传输特性通过控制帧周期性更新。FPGA实现时,通过RAM存储业务流的参数寄存器,以分组目的地址对RAM进行索引来调用和更新相应地址内的参数,通过RAM存储参数寄存器可节省大量的逻辑资源[7]。RAM每一地址项内的具体格式如表1 所示。其中,TC'o和FG'i是N个分组的总长度和分组间隔; Jmax是分组最大时延抖动。上电后,Ti和TCi均为0,其余参数按照预置值初始化,业务传输过程中不断更新。

3. 3 全局时钟的选择与设计

漏桶算法是根据时间间隔进行流量控制的,因此时钟计数器的最大值和时间精度对流量控制效果有较大影响。

时钟精度决定了流量控制的准确性。通过实验测试表明,时间精度与分组间隔的比值小于1 /100便可较准确的控制流量,因允许分组时延抖动,进一步提高时钟精度也无较大意义。速率自适应通信系统的极限速率是300 Mbit· s- 1,分组间隔最小为256 Byte,即分组间隔时间最小为6. 83 μs,发射机的工作时钟是96 MHz,计数器每4 个时钟周期自增1,计数间隔0. 042 μs,相对比值1 /162 可满足精度要求。

流量控制模块在新分组到达时被触发,这样的设计有利于减少功耗,使得没有分组到达时流量控制模块处于空闲状态。但时钟计数器的位宽是有限的,当计数器全为1 时会清0 而重新计数,如果业务流前后两个分组的间隔时间过长,则从时钟计数器的角度看,后到分组可能比先到分组还要“早”,这时可能由于误判而出现正确分组被丢弃的现象。单纯增加时钟计数器的位宽只能降低问题出现的概率,而不能消除问题,尤其对于卫星系统,流量控制模块需要连续工作几年甚至十几年,增加计数器位宽不能解决问题,必须要周期性刷新流量控制模块中上一分组到达时间Ti。通过周期性刷新使上一分组到达时间Ti与时钟计数器的当前时间维持在一个计数周期内。设计中将时钟计数器按照最高位不同细分为两个计数周期,每次最高位翻转后触发一次刷新。由于刷新过程涉及所有RAM地址,处理时间长,为了与流量控制过程不冲突,刷新工作在没有分组到达时进行。

为降低刷新过程的资源消耗,设计中使刷新工作与流量控制工作采用相同的模块。流量控制工作时,通过工作使能信号en_frame接收目的地址addr_i和新到分组长度Li,模块按照漏桶算法对分组进行判断,流控使能en_traffic有效的同时,将流控结果result_traffic输出,其中result_traffic为1 时,表示当前分组可被接收,为0 时当前分组被丢弃。

刷新工作时也通过工作使能en_frame接收目的地址addr_i和新到分组长度Li,不同之处在于刷新时将新到分组长度Li设置为0,这样在更新上一分组到达时间Ti时不会对漏桶计数值TCi产生影响。为防止流量控制机制的步骤4 出现而导致刷新Ti失败,时钟计数器的最高位翻转后不是立刻开始刷新,而是等待一段时间( 大于系统最长分组间隔10. 9 ms) 后开始,这样即使出现刷新失败,Ti与时钟计数器的当前时间也在一个计数周期内。对应到流控结果result_traffic,由于刷新过程中,没有分组到达,所以刷新时对应流控结果的下一级模块不会响应。

速率自适应通信系统的最小速率是3 Mbit·s- 1,分组间隔最大为4 096 Byte,分组间隔时间最大为10. 9 ms,全部刷新一次共需时间约5. 9 ms ( 216× 9 ×0. 01 /1 000) 。按照计数间隔0. 042 μs,可推算出计数器位宽为23 位时,计数总时长约352 ms,再补充1 位翻转位,共24 位可满足计数时长的要求。

3. 4 流量控制模块的实例分析

对图1 中分组到达时间和间隔进行设定,设分组1 到达时刻510 ,分组2 到达时刻628 ,分组3 到达时刻640,分组到达时刻696,分组5 到达时刻702,分组6 到达时刻830。分组长度Li为128 Byte,FG为64 μs,Jmax为16 μs。按照流量控制模块参数选择与设定原则可知,FG'i为128 μs,TC'o为256 Byte,TC'max为320 Byte。按照流量控制模块的实现流程如下所述: 模块初始化后,TCi为0,Ti为0; 分组1 到达后,TCi为128,Ti为510,分组被接收; 分组2 到达后,TCi为256,Ti为510,分组被接收; 分组3 到达后,TCi为128,Ti为638,分组被接收; 分组4 到达后,TCi为256,Ti为638,分组被接收; 分组5 到达后,由于 ΔT为64,< 128,TCi自增到384 而超过了TC'max,所以分组5 被丢弃,TCi和Ti不更新,TCi为256 ,Ti为638; 分组6 到达后,TCi为128,Ti为830。按照流量控制模块实现流程对图1 策略机制进行更新如图2 所示。

从处理结果可看出: 流量控制模块的实现结果与令牌漏桶算法一致,但中间过程略有不同,这是因流量控制模块统计的是N个分组连续到达的累计时间,当实际间隔小于累计时间时,漏桶计数值可能不会减小反而越来越大。因此,参数选择过程中统计精度N不能过大,实现时N最大取4,所以时延抖动的累计有限,不会影响到系统的带宽控制。

4 结束语

本文提出的流量控制机制采用分组触发流控和多分组累计比较的方式,大幅简化了漏桶算法的实现过程,使得FPGA实现时既降低了复杂度又节省了逻辑资源。本方法应用在速率自适应通信系统中,对业务流带宽控制的实际效果理想。同时,作为一种针对变长系统的流量控制方法,也可推广到其他通信系统中。

参考文献

[1]Mischa Schwartz.ATM宽带网络性能分析[M].北京:清华大学出版社,1998.

[2]刘元峰.基于漏桶理论及令牌桶算法的网络流量整形策略的研究与实现[D].沈阳:东北师范大学,2008.

[3]Roy Courtney.Circulation prior to adoption consideration draft3 of project paper 664:aircarft data network,part 7-avionics full duplex switched ethernet network[C].Stockholm:AEEC,2004.

[4]陈彪,姚庆栋.VBR流令牌流量整形的研究[J].浙江大学学报:工学版,2004,38(4):443-446.

[5]高岭,李增智,王峥.缓冲区有限流量整形器性能参数的最小加代数表示[J].西安交通大学学报,2005,39(10):1068-1071.

[6]佘明辉,赵东风.基于流量和拥塞控制最佳速率调整算法的研究[J].贵州大学学报:自然科学版,2010,27(2):63-64.

自适应速率 篇4

一些较复杂的系统,例如航天器,内部的许多设备之间需要相互通信。如果每一对需要相互通信的设备之间都用一束电缆连接,整个系统内部就会布满密密麻麻的电缆,系统的重量自然增加。而对于航天器此类的系统,重量的增加意味着发射费用的增加,甚至事关发射的可行性问题。不仅如此,目前广泛散布于太空中的空间碎片随时都有击穿航天器外壳的可能,空间碎片一旦进入航天器内部,密集的电缆很容易被击断,导致卫星故障[1,2,3,4,5]。

自由空间激光通信是近年来兴起的一种热点通信技术,是利用激光作为信息载体在自由空间环境中传输信息的一种通信方式。自由空间激光通信系统以其传输码率高、安装方便、成本低、安全性好等诸多优点已广泛运用于卫星通信与地面视距通信领域,有着良好的应用前景和巨大的市场潜力。随着对超稳激光器、新型光束控制器、高灵敏度和高数据率接收器和适合空间应用的先进通信电子设备研究的基本成熟,空间激光通信已经成为下一代光通信的发展方向[6]。此外,自由空间激光大气通信系统跟其他无线电通信手段相比,还具有不挤占宝贵的无线电频率资源、电磁兼容性好、抗电磁干扰能力强、且不干扰其他传输设备、保密性强等特点,并且在有效通信距离和宽带等方面还蕴藏着巨大的发展潜力。在诸如航天器一类的复杂系统中,以自由空间激光通信代替电缆通信,既可以为航天器减少电缆的那部分重量和体积,也可以避免电缆被空间碎片击中造成的断路和短路,还可以提高通信过程中的抗干扰能力。

自由空间激光通信中,通常发射器发出的激光束通过直射方式到达接收器,这就对设备的安装提出了比较苛刻的要求,而航天器内部的空间比较狭窄,安装要求很难达到。若采用激光漫射的方法通信,由于航天器内部充满了各种设备必然产生多径问题,当然多径问题可以通过降低码速率的方法加以解决。但随航天器的不同内部设备多少、形状、格局都有所不同,码速率究竟降低到多少才能保证信息的准确接受?另一方面,如果码速率降得太低显然是对通信资源的浪费。因此在此类应用中根据每一个航天器的具体情况在保证信息能够正确传输的情况下,找到尽可能大的码速率,显得尤为重要。

1 激光漫射通信系统的及其操作阈值的确定

传统的舱内激光漫射通信采用固定的码速率,在保证信号正确传输的情况下,不能保证通信资源的充分利用,为此,改进的激光漫射通信系统在通信的开始阶段增加了一个码速率测试环节。在这一环节中,通信双方采用固定的低码速率0R(例如1 b/s,条件是保证正确传输)发送与接收一组“1”和“0”交替出现的测试数据,比如交替发送与接收N对“10”信号。设备1发送测试数据,设备2以常规的方式接收数据,计算“1”的持续时间,并确定在当前环境中合适的通信码速率,将该码速率传给设备1,然后改变本设备的码速率。设备1接收到码速率数据后对本设备的码速率作相应改变,并以此与设备2通信。

图1是在码速率测试环节发射器发送和接收机接收测试数据中第i对(i(28)2,1,(43),N)“10”信号示意图。

第i对“10”信号中“1”的发射时刻为(i-)1T0,终止时刻为iT0,其中T0=1/R0。设备2接收数据后,采用比R0更高的码速率R1对接收信号采样,采样信号的幅值记为f(t),其中t表示采样时刻。Mi表示第i对“10”信号的接收信号幅值达到最大的时刻,mi表示第i对“10”信号的接收信号幅值达到最小的时刻,令

如图2所示,定义操作阈值。上述对接收信号幅值最大值和最小值求平均获得M和m的方法有助于消除测量信号中的干扰和测量误差。

2 信号“1”延迟时间的确定

以ai表示对第i对“10”信号采样中接收信号幅值首次超过操作阈值H的时刻,ib表示对第i对“10”信号采样中接收信号幅值首次低于操作阈值H的时刻,其中i=,1,2…,N。于是:

其中T1=1/R1是设备2对接收信号采样的周期。

在发射信号由“0”变“1”的瞬间,接收信号立即响应,并产生一个大的跃变f(ai)-f(ai-1T),因此可以断定第i次发射信号“1”的开始时间在时刻ai-1T和ia之间。而根据上面第二个不等式,接收信号幅值衰减到H的时刻在bi-T1和ib之间,因此第i次发射信号“1”从开始到幅值衰减到H的时间不超过

而发射信号“1”的持续时间为T0,因此信号的延迟时间不超过bi-ai+T1-T0。

考虑到测量误差和随机干扰的影响,为保证延迟时间的准确性,不妨对N对“10”信号进行采样,并令

当N足够大时,信号“1”的延迟时间不超过,称为延迟时间上界。

3 码速率的自适应确定与锁相方法

以R表示自适应确定的设备1和设备2的漫射激光通信待定码速率,T=1/R为信号持续时间,现考虑保证信号能被正确接收情况下T所满足的条件。如图3所示,以a表示接收信号幅值首次超过操作阈值H的时刻,则在此刻脉冲信号“1”已经开始发射。若令b=a+T,则在此刻脉冲信号“1”的发射已经停止。但由于其延迟信号的存在,接收的脉冲信号“0”必然淹没在信号“1”的延迟信号之中。为了保证脉冲信号“0”能够被识别,信号的持续时间必须超过脉冲信号“1”的延迟时间。

令c=b+t,在此时刻之前,由于采样时刻和信号“1”的发射开始时刻可能非常接近,同时信号“1”的延迟时间上界也可能达到,因此不能断定信号“1”的延迟时间已经过去,但在此刻脉冲信号“1”的延迟时间已经过去,可以开始脉冲信号“0”的发射。为了保证脉冲信号“0”能够被采样,在信号“1”的延迟时间过去之后信号“0”至少需要持续2个采样周期,即累计持续时间至少为T=t+2T1。

对于无延迟的激光通信系统,相位锁定之后,为防止锁相误差的影响,通常将采样时刻选在脉冲信号开始和结束时刻的中点[7,8]。对于本文所述的激光漫射通信系统,如果采样时刻选在脉冲信号开始和结束时刻的中点,由于漫射对信号“1”的延迟作用,信号“0”就有可能失去被采样的机会。鉴于此,用于识别信号的采样应当是该信号接收信号的最后一个采样,而确定最后一个采样首先需要确定接收信号的相位。

发射器开始发射脉冲信号“1”,接收器立即响应,接收信号的幅值产生超过操作阈值H的跃变,如图3所示,可以认为接收信号幅值首次超过操作阈值H的时刻a和脉冲信号“1”的发射开始时刻相隔不超过1个采样周期1T,由此可以确定接收信号的相位,且误差不超过1T。因此,在时间区间:内的a+k T-T1处的采样,即使存在不超过1T的相位误差,当发射信号为“1”时采样幅值仍超过操作阈值H,当发射信号为“0”时采样幅值比仍小于操作阈值H。因此发射信号的码速率为R=1/T时可以保证信号的正确接收。

由上述分析可以看出,在采样周期为T1时,码速率的上界为

上述激光漫射通信过程可总结为

第一步:通信开始,通信双方采用固定的低码速率R0通信,设备1发送一组测试2N个“10”数据,设备2接收数据的同时采用数字锁相环完成相位锁定之后,采用比码速率R0更高的速率R1对接收信号进行采样,并计算测试数据中信号“1”的延迟时间上界;

第二步:设备2自适应确定脉冲信号持续时间以及码速率并将相关数据发送设备1;

第三步:设备1接收设备2的数据后结束测试阶段,开始以码速率传输数据;

第四步:针对码速率设备2仍以速率1R对接收信号进行采样,以a表示接收信号幅值首次超过操作阈值H的时刻,在时间区间内的a+kT-T1处的采样,并按照采样数据是否超过操作阈值H判定发送信号为“1”或“0”。

4 结论

上述激光漫射通信系统的通信方式在传统激光通信的基础上增加了测试环节,此环节通过对信号“1”接收数据的采样可以求出其延迟时间上界t。由于激光漫射对信号“1”的延迟作用,信号“1”的接收信号超过操作阈值H的区间长度大于信号“0”的接收信号低于操作阈值H的区间长度,而信号“0”的接收信号低于操作阈值H的区间出现在其发送区间的后沿,因此,应当在信号发射t+T1后采样。该方法的特点之一是既不会因激光漫射的延迟导致通信误码,也不会因码速率太低而浪费通信资源;该方法的特点之二是应用过程中不必考虑具体的通信环境,码速率可以由软件自动设置。

参考文献

[1]Swift H F.Impact dynamics[M].New York:John Wiley&Sons,1982.

[2]Schonberg W P,Williamsen J E.Empirical Hole Sizeand Crack Length Models for Dual-Wall System sunder Hypervelocity Projectile Impact[J].International Journal of Impact Engineering(S0734-743X),1997,20:711-722.

[3]Sch fer F K.An engineering fragmentation model for the impact of spherical projectiles on thin metallic plates[J].International Journal of Impact Engineering(S0734-743X),2006,33:745-762.

[4]唐蜜,柏劲松,李平,等.超高速撞击中影响碎片云形状因素分析[J].高压物理学报,2007,21(4):425-431.TANG Mi,BAI Jingsong,LI Ping,et al.Factors Analysis of Debris Cloud's Shape of Hypervelocity Impact[J].Chinese Journal of High Pressure Physics,2007,21(4):425-431.

[5]贾光辉,黄海.超高速撞击航天器二次碎片云能量特性分析[J].北京航空航天大学学报,2007,33(3):257-260.JIA Guanghui,HUANG Hai.Characters on kinetics energy of debris cloud in spacecraft[J].Journal of Beijing University of Aeronautics and Astronautics,2007,33(3):257-260.

[6]佟首峰,姜会林,张立中.高速率空间激光通信系统及其应用[J].红外与激光工程,2010,39(4):649-653.TONG Shoufeng,JIANG Huilin,ZHANG Lizhong.High date-rate space laser communication system and its application[J].Infrared and laser engineering,2010,39(4):649-653.

[7]Godfrey R.Wavelength Domain Optical Network Techniques[J].Proceedings of the IEEE(S0018-9219),1989,7(1):121-132.

自适应速率 篇5

对3G移动无线网络而言, 流媒体的服务质量常常受到无线链路的不稳定性影响, 同时还受到客户端缓存和处理能力的制约。目前, 在流媒体自适应速率控制和拥塞控制策略的研究上, 主要以链路特性或客户端缓存的某个方面使用特定的自适应速率控制策略研究为主。本文在结合通信链路的丢包率、抖动以及回路时延等数值对网络状况进行预测, 参照客户端缓冲区信息, 提出了一种自适应3G网络流媒体速率控制算法, 即自适应AIMD速率控制算法。

1 自适应AIMD速率控制算法设计

1.1 通信链路状况估计

链路带宽、时延等特性在3G无线网络中有很高的的时变性和不确定性, 同时, 流媒体自适应速率控制的丢包率和抖动等数值常具有突变性的特点[1]。因此, 本文对网络参数, 即丢包率 (PLR) 等数值进行了平滑处理, 以减少计算误差。

参照资料数据, a的取值以0.9为宜, 若a的取值过大, 则将失去平滑的意义;若a的取值过小, 则将影响自适应AIMD速率控制算法对链路特性的实时估计, 导致算法对链路响应迟钝。同时, 本文涉及的丢包率、抖动以及回路时延等数值均采取平滑处理。

另外, 本文通过实验数据得知, 回路延时作为一个对网络状况的十分敏感的参数, 在网络负载加重时, 拥塞情况也会发生, 回路延时将逐渐增大。因此, 回路延时可以作为预防网络拥塞的关键参数[2]。

1.2 自适应AIMD速率控制算法

本文将链路特性参数网络状况阈值设置为Lth, 若L在 (0, Lth) 范围, 则说明网络状况良好, 服务器的发送速率能变得更快。若L在 (Lth, 1) 范围, 则说明网络拥塞严重, 服务器需要采取措施降低发送速率。

本文将客户端缓存Clev设置两个阈值Ctarget和Cth, Ctarget即需要预缓存的大小, Cth即缓存区数据上限。自适应AIMD速率控制算法在经典的加性增乘性减AIMD算法的基础上, 根据客户端缓存状况, 分区采取不同的速率控制和流切换。

若L

若Clev

若L≥Lth, 则说明网络拥塞, 这时要降低服务器发送速率, 自适应AIMD速率控制算法会根据链路特性和缓冲状况进行适应性调整。当Clev

2 自适应AIMD速率控制算法性能验证

2.1 仿真实验设计

本文将仿真实验参数具体数值设置如下:仿真时长100s, 链路带宽200kbps (0-25s) 、80kbps (25-60s) 、300kbps (60-100s) , 链路时延10ms。网络流媒体最大丢包率是3%, 最大抖动是0.05, 最大回路时延是0.12s, 最大链路特性数值是0.41。客户端缓存区数值是400KB, 网络缓存数值是35KB, 客户端目标保护时间5s。实验所用的媒体文件码率分别是64kbps、128kbps和256kbps, 自适应AIMD速率控制算法会参照带宽及链路具体数值自动切换至对应的码流。

2.2 自适应AIMD速率控制算法性能分析

在具体实验过程中, 带宽出现了不同的三个阶段, 即200kbps、80kbps和300kbps, 自适应AIMD速率控制算法能根据网络状况自动调整发送速率, 在0-25s这段时间内, 媒体流码率值128kbps, 发送速率保持在150-200kbps, 速率快且稳定, 带宽资源得到有效利用。在25-50s这段时间内, 为适应网络带宽, 发送速率直线下降, 缓存区数值也在下降。在50s时媒体码流是64kbps, 到了60s后, 带宽达到600kbps, 服务器发送速率逐渐增加, 缓冲区数值也有所增长, 在85s后, 自适应AIMD速率控制算法将服务器发送速率切换至256kbps。

服务器能够根据丢包率、抖动及回路时延进一步得出链路特性参数, 以衡量网络状况。在0-25s这段时间内, 链路特性相对稳定, 服务器发送速率高, 基本上大于媒体流码率, 客户缓存比例也随之增长。在25-60s这段时间, 链路特性始终保持在较高水平, 此时网络拥塞比较严重, 服务器发送速率直线下降, 客户缓存比例也逐渐下降。在网络带宽达到300kbps时, 服务器发送速率开始上升, 缓存比例也随之升高, 媒体流码率也被切换到一个相对较高的码流, 从而实现更好的网络服务。

在3G移动无线网络中, 因链路带宽具有不稳定性, 只有在客户端缓存媒体数据很多的情况下, 才能确保流媒体的服务质量, 传统AIMD算法容易出现缓存区参数为0的情况, 使得客户端播放中断, 且当传统AIMD算法缓存比例达到100%后, 会导致缓存区数据上溢, 造成客户端数据丢失[4]。相比之下, 自适应AIMD速率控制算法不会出现客户端缓存区参数为0或数据上溢的情况, 在缓存比例方面, 具有更好的缓存性能。

本文基于链路特性及客户端缓存的自适应速率控制, 提出了自适应AIMD速率控制算法, 能更快地调整发送速率以适应链路带宽, 确保客户端缓存数据充足, 能有效防止缓存区参数为0的情况。另外, 随着客户端缓存比例逐渐升高, 发送速率的增加幅度将会变小, 并将其控制在一个相对稳定的数值内, 放置缓存区数据上溢而造成的数据丢失[5]。

3 结束语

综上所述, 基于客户端缓存和数据处理能力控制速率, 避免客户端缓存出现大幅波动等, 主要以3G移动无线网络中流媒体传输问题为主, 而对链路考察比较少, 本文提出的自适应AIMD速率控制算法从带宽、抖动和回路时延等方面评估网络状况, 并且综合考虑客户端和网络缓存区所反馈的信息, 实现自适应调整发送速率, 自适应切换媒体流, 能更好的适应网络状况的改变。

参考文献

[1]刘国柱, 王洪林.RTCP反馈和缓冲区的传输控制算法研究[J].计算机工程与设计, 2010, 10 (12) :153-154.

[2]胡平, 韩兴.基于3G的无线实时视频监控系统设计[J].计算机工程与设计, 2011, 16 (12) :85-86.

[3]翟霄宇, 陈钊正, 陈启美.基于3G网络的船载视频传输及保障系统[J].计算机应用, 2011, 02 (11) :261-262.

[4]李晓城, 钱松荣.3G网络中流媒体点对点自适应传输策略[J].计算机工程, 2011, 06 (20) :28-29.

本文来自 360文秘网(www.360wenmi.com),转载请保留网址和出处

【自适应速率】相关文章:

系统自适应05-06

煤质自适应05-14

空间自适应05-15

自适应定位05-27

温度自适应05-28

自适应教学06-13

自适应补偿06-13

自适应抑制06-17

自适应校正06-25

压力自适应06-28

上一篇:VFP系统下一篇:瓦斯报警