盲源分离是什么意思?盲源分离是如何分类的?
盲信号分离最早由Herault和Jutten在1985年提出,指的是从多个观测到的混合信号中分析出没有观测的原始信号。通常观测到的混合信号来自多个传感器的输出,并且传感器的输出信号独立性(线性不相关)。盲信号的“盲”字强调了两点:1)原始信号并不知道;2)对于信号混合的方法也不知道。从字面意思理解,信号分离就是从接收到的混合信号(典型情况下是感兴趣信号+干扰+噪声)中分别分离或恢复出原始源信号。信号分离是信号处理中的一个基本问题。各种时域滤波器、频域滤波器、空域滤波器或码域滤波器都可以看作是一种信号分离器,完成信号分离任务。只不过这时的“分离”仅仅是分离出需要的感兴趣的信号而已,与前面讲的“分离”稍有不同。由此可见,信号分离是许多信号处理共性的体现。
盲源分离是如何分类的?
基于信息论或似然估计的盲分离算法
这类算法以信息论为基础,判断信号分离的准则是分离系统输出信号的统计独立性最大化(互信息最小化、负熵最大化等)。这类算法除了要求源信号间相互独立外,还要求源信号中最多只能包含一个高斯信号。Cardoso等人证明,似然估计算法等价于信息论算法,因此可以把似然估计算法与信息论算法归到同一类中。基于信息论的典型算法有Amari的基于神经网络的自然梯度算法,Imformax算法等。此外,非线性算法也归到此类。虽然非线性方法与信息论及似然估计方法的出发点不同,但它们在算法上很相似,而且都用非线性神经网络实现。
基于信息论的盲分离算法通常都是自适应在线学习算法。这类算法的不足之处在于非线性激励函数与信号的统计分布特性(是亚高斯分布还是超高斯分布)有关。当源信号中同时存在亚高斯信号和超高斯信号时会带来麻烦。解决的办法有两种,其一是自适应地估计激励函数的类型,然后在给定的激励函数中选择合适的函数方法。另一种方法是对源信号的概率密度函数进行Edegworth或Gram Charlier展开,从而把非线性激励函数表示为分离信号各阶累积量的函数,并自适应地估计这些统计量。基于信息论的BSS方法通常具有较好的稳定性和收敛性。
基于二阶统计量的盲分离算法
这类算法也称为去相关算法。这类算法要求源信号间具有统计不相关性。此外,还要求源信号具有非白性或非平稳性。换言之,去相关算法不能分离统计独立的、平稳的白噪声过程(无论其概率分布如何)。去相关算法的主要优点是算法比较简单,并具有较好的稳定性,适用于具有任何概率分布的源信号。在二阶矩理论框架下,要想完整描述一个非白且非平稳的随机过程,必须用它的二维自相关函数。从盲信号分离角度来看,源信号的非白性与非平稳性具有等价性。
基于高阶统计量(HOS)的盲分离算法
在盲信号分离领域,HOS算法占有重要地位。事实上,BSS算法的早期工作是从高阶统计量算法似一网络开始的。这类算法利用源信号的高阶统计量的性质来分离信号。最常用的是信号四阶累积量,也有人用信号的三阶累积量来分离信号。这类算法除了要求源信号具有统计独立性外,源信号中最多只能有一个高斯信号,即利用源信号的非高斯性。而对于源信号的非白特性及非平稳特性没有做任何考虑。因此可以说,HOS算法可以用来分离任何统计独立的非高斯信号或准确地说,不多于一个高斯信号。