干扰指标汇总

这里的“干扰指标”,指的是出了接收机静态灵敏度之外,各种施加干扰下的灵敏度测试。实际上研究这些测试项的由来是很有意思的。

我们常见的干扰指标,包括Blocking,Desense,Channel Selectivity等。

 

Blocking(阻塞)

Blocking实际上是一种非常古老的RF指标,早在雷达发明之初就有。其原理是以大信号灌入接收机(通常最遭殃的是第一级LNA),使得放大器进入非线性区甚至饱和。此时一方面放大器的增益骤然变小,另一方面产生极强非线性,因而对有用信号的放大功能就无法正常工作了。

另一种可能的Blocking其实是通过接收机的AGC来完成的:大信号进入接收机链路,接收机AGC因此产生动作降低增益以确保动态范围;但是同时进入接收机的有用信号电平很低,此时增益不足,进入到解调器的有用信号幅度不够。

Blocking指标分为带内和带外,主要是因为射频前端一般会有频带滤波器,对于带外blocking会有抑制作用。但是无论带内还是带外,Blocking信号一般都是点频,不带调制。事实上完全不带调制的点频信号在现实世界里并不多见,工程上只是把它简化成点频,用以(近似)替代各种窄带干扰信号。

对于解决Blocking,主要是RF出力,说白了就是把接收机IIP3提高,动态范围扩大。对于带外Blocking,滤波器的抑制度也是很重要的。

 

AM Suppression

AM Suppression是GSM系统特有的指标,从描述上看,干扰信号是与GSM信号相似的TDMA信号,与有用信号同步且有固定delay。

这种场景是模拟GSM系统中邻近小区的信号,从干扰信号的频偏要求大于6MHz(GSM带宽200kHz)来看,这是很典型的邻近小区信号配置。所以我们可以认为AM Suppression是一个反映GSM系统实际工作中接收机对邻小区的干扰容忍度。

 

Adjacent (Alternative) Channel Suppression (Selectivity)

这里我们统称为“邻信道选择性”。在蜂窝系统中,我们组网除了要考虑同频小区,还要考虑邻频小区,其原因可以在我们之前讨论过的发射机指标ACLR/ACPR/Modulation Spectrum中可以找到:因为发射机的频谱再生会有很强的信号落到相邻频率中(一般来说频偏越远电平越低,所以邻信道一般是受影响最大的),而且这种频谱再生事实上是与发射信号有相关性的,即同制式的接收机很可能把这部分再生频谱误认为是有用信号而进行解调,所谓鹊巢鸠占。

举个例子:如果两个相邻小区A和B恰好是邻频小区(一般会避免这样的组网方式,这里只是讨论一个极限场景),当一台注册到A小区的终端游走到两个校区交界处,但是两个小区的信号强度还没有到切换门限,因此终端依然保持A小区连接;B小区基站发射机的ACPR较高,因此终端的接收频带内有较高的B小区ACPR分量,与A小区的有用信号在频率上重叠;因为此时终端距离A小区基站较远,因此接收到的A小区有用信号强度也很低,此时B小区ACPR分量进入到终端接收机时就可以对原有用信号造成同频干扰。

如果我们注意看邻道选择性的频偏定义,会发现有Adjacent和Alternative的区别,对应ACLR/ACPR的第一邻道、第二邻道,可见通信协议中“发射机频谱泄漏(再生)”与“接收机邻道选择性”实际上是成对定义的。

 

Co-Channel Suppression (Selectivity)

这种描述的是绝对的同频干扰,一般是指两个同频小区之间的干扰模式。

按照之前我们描述的组网原则,两个同频小区的距离应该尽量远,但是即便再远,也会有信号彼此泄漏,只是强度高低的区别。对于终端而言,两个校区的信号都可以认为是“正确的有用信号”(当然协议层上有一组接入规范来防范这种误接入),衡量终端的接收机能否避免“西风压倒东风”,就看它的同频选择性。

 

点评:Blocking是“大信号干扰小信号”,RF尚有周旋余地;而以上的AM Suppression, Adjacent (Co/Alternative) Channel Suppression (Selectivity)这些指标,是“小信号干扰大信号”,纯RF的工作意义不大,还是靠物理层算法为主。

 

Single-tone Desense

Single-tone Desense是CDMA系统独有的指标,它有个特点:作为干扰信号的single-tone是带内信号,而且距离有用信号很近。这样就有可能产生两种信号落到接收频域内:第一种是由于LO的近端相噪,LO与有用信号混频形成的基带信号、和LO相噪与干扰信号混频形成的信号,都会落到接收机基带滤波器的范围之内,前者是有用的信号而后者是干扰;第二种是由于接收机系统中的非线性,有用信号(有一定带宽,譬如1.2288MHz的CDMA信号)可能与干扰信号在非线性器件上产生交调,而交调产物有可能同样落在接收频域之内成为干扰。

Single-tone desense的起源是北美在发起CDMA系统时,与原有的模拟通信系统AMPS采用了同一频段,两张网长期共存,作为后来者的CDMA系统必须考虑AMPS系统对自身的干扰。

到这里我想起当年被称为“通则不动,动则不通”的小灵通,因为长期占用1900~1920MHz频率,所以天朝TD-SCDMA/TD-LTE B39的实施一直是在B39的低段1880~1900MHz,直到小灵通退网为止。

 

再论Blocking

在写这篇文章的过程中,我跟以前的老同事一起讨论了一下Blocking的物理含义。

教科书上对Blocking的解释比较简单:大信号进入接收机放大器使得放大器进入非线性区,实际增益变小(对有用信号的)。

但是这样很难解释两种场景:

场景一:前级LNA线性增益18dB,当大信号灌入使其达到P1dB的时候,增益是17dB;如果没有引入其他影响(默认LNA的NF等都没有发生变化),那么对整个系统的噪声系数影响其实非常有限,无非是后级NF在计入到总NF时分母变小了一点,对整个系统的灵敏度影响不大。

场景二:前级LNA的IIP3很高因此没有受影响,受影响的是第二级gain block(干扰信号使其达到P1dB附近),在这种情况下整个系统NF的影响就更小了。

我在这里抛砖引玉,提出一个观点:Blocking的影响可能分两部分,一部分是教科书上所讲的Gain受到压缩,另一部分实际上是放大器进入非线性区之后,有用信号在这个区域里发生了失真。这种失真可能包括两部分,一部分是纯粹的放大器非线性造成有用信号的频谱再生(谐波分量),另一部分是大信号调制小信号的Cross Modulation(参考阅读:http://www.radio-electronics.com/info/rf-technology-design/receiver-overload/crossmodulation.php)。

由此我们还提出另一个设想:如果我们要简化Blocking测试(3GPP要求是扫频,非常费时间),也许可以选取某些频点,这些频点出现Blocking信号时对有用信号的失真影响最大。

从直观上看,这些频点可能有:f0/N和f0*N(f0是有用信号频率,N是自然数)。前者是因为大信号在非线性区自身产生的N次谐波分量正好叠加在有用信号频率f0上形成直接干扰,后者是叠加在有用信号f0的N次谐波上进而影响到输出信号f0的时域波形——解释一下:根据帕塞瓦尔定律,时域信号的波形实际上是频域基频信号与各次谐波的总和,当频域上N次谐波的功率发生变化时,时域上对应的变化就是时域信号的包络变化(发生了失真)。

作者介绍:

猪头是头猪,80年代人,射频攻城狮,闲时爱好码字儿,喜欢即兴发挥,也擅命题作文。现为FindRF特约专栏作者,自己也经营着一个低产微信公众号“猪头是头猪”(没错,正着念倒着念是一样的),公众号ID:Huey-Dewey-Louie(没错,就是唐老鸭的那三个侄子)。