脑电信号处理的机器学习

   脑电图(EEG)自发现以来,一直是确定患者某些健康状况的主要方法。由于可使用的分类器类型多种多样,因此可采用的分析方法也同样众多。在本文中,我们将研究专门用于脑电分析和生物工程应用的机器学习方法。回顾了1988年至2018年的文献,以获取脑电在多种应用中的先前和当前分类方法。根据这些信息,我们能够确定每种机器学习方法的总体有效性以及关键特性。我们发现机器学习中使用的所有主要方法都以某种形式应用于脑电分类。从朴素贝叶斯到决策树/随机森林,再到支持向量机(SVM)。有监督的学习方法整体上比无监督的学习方法具有更高的准确性。这包括支持向量机和KNN。虽然每一种方法在各自的应用中各自的精度都受到限制,但希望在正确实现方法的同时获得更高的总体分类精度。本文发表在IEEE Reviews in Biomedical Engineering杂志。

1 EEG信号采集中的10–20系统的电极排布

EEG的机器学习方法

   A.概览

    机器学习是利用一组数学模型和算法,逐步提高单个任务的性能。它以训练数据集作为输入,用作估计的指南,而不需要专门编程。任务在这个空间中变化很大,可以分为两大类:有监督学习和无监督学习。无监督学习是指算法从只包含输入而不包含输出的数据集建立识别模式。监督学习有一个部分是半监督学习。它们在某种意义上是相同的,即它们都从具有给定输入和已知输出的数据集学习,除了半监督有部分数据集缺失有监督学习主要用于分类和回归,而无监督学习则用于特征学习和降维本文将讨论一些最常用的机器学习方法,并根据学习类型对它们进行分类,并将其应用于脑电领域。借助机器学习方法,脑电信号可以作为较难检测的病情的指标。在图2中,机器学习在脑电信号上的应用是基于有监督和无监督学习的。有监督学习利用输入和期望输出的数据建立预测模型,分类和回归产生相应的离散和连续。无监督学习提出了一种预测模型,利用输入的数据进行聚类和降维,从而产生相应的离散性和连续性。

基于监督学习和无监督学习的EEG机器学习应用

 

    3描述了机器学习如何实现对所需的数据集进行分类的一般流程。第一步是信号采集。即未经编辑原始数据。然后进行预处理:去除数据集中的噪声和其他异常值。特征提取决定了数据的频谱及其对应的特征。特征选择是分离出所需的分类器,机器学习方法将对这些分类器进行后续训练。机器学习训练涉及到使用训练数据集,无论是否有已知的输出来细化分类方法。最后,测试阶段是处理真实的测试数据集,并比较所需特征的总体精度。

3 EEG机器学习分析的整体步骤:预处理、特征提取、特征选择、模型训练、模型测试。


   B.回归

   回归建模是统计学中一种常用的工具,因为它是创建变量之间函数关系的一种简单方法各种类型的回归包括:

   定量反应变量的单变量回归和多变量回归

    预测变量的简单和多变量回归;

    线性可转换数据的线性回归;

    非线性可转换数据的非线性回归;

    定性变量预测变量的方差分析;

    定性组合的协方差分析以及定量变量预测因子;

    以及定性反应变量的logistic分析。

    LegendreGauss首先应用最小二乘法进行回归。该方法通过求各方程残差的平方和来进行逼近,使数据最为拟合,并应用于线性回归中。如下式所示:

    线性回归是最常用的回归方法之一。在这个模型中,参数以线性组合的形式指定,而每个自变量不一定是线性的。多元线性回归与其类似,除了包含多个自变量,而不是只有一个。当参数不是线性时,必须使用非线性回归。使用平方和技术,尽管它使用迭代过程来最小化函数。

1 EEG分析中的回归模型应用

   C.SVM支持向量机

   支持向量机(SVM)是监督学习的一个子类,用于分类和回归分析其目的是映射空间中的点,使目标类别的示例被最大可能的差额分割。这使得支持向量机作为分类器具有较低的泛化误差。它的目标是在N维空间中找到一个超平面或一组超平面。支持向量是更接近给定超平面的数据点。它们通过改变超平面的位置和方向来最大化分类器的边缘。此外,在这个空间内,由于数据的位置,这些点也可能是不可线性分割的。支持向量机能够利用生成的核函数或更常见的核技巧来解决这个问题。这个技巧涉及到现有算法从低维数据集到高维数据集的转换。信息量保持不变,但在这个高维空间中,可以创建线性分类器。每个点都有几个K核,这有助于确定新变换特征空间的最佳拟合超平面。有了足够的K函数,就有可能得到精确的分离。它唯一的主要问题是过度拟合。4描绘了2D3D中的数据分离的示例。

硬边界线性支持向量机分类器

最小化W的核函数方程:

高维核分离内核

技巧涉及到现有算法从低维数据集到高维数据集的转换

   D. KNN K近邻

   KNN是一种有监督的机器学习算法。在有监督学习中,已经为训练数据集建立了输入和输出之间的关系,即对于给定的输入,输出是已知的。监督学习分为回归学习和分类学习。KNN既可用于分类,也可用于回归。分类和回归的输入是相同的,但输出是不同的。示例中的输入-输出对用于预测未训练数据集的输出。KNN基于K邻居的分类对输入进行分类。为了找到最近的邻居,需要计算从输入到所有已知数据点的欧氏距离或马氏距离。计算距离后,选择K个最近邻。然后根据输入与其K-邻居之间的相似性对输入进行分类。K的选择基于数据集的大小。取数据集大小的平方根,如果结果是偶数,则加上或减去1。然后将该数据集的结果确定为K。选择K为奇数,以避免在预测输入时出现偏差。

支持向量机在EEG分析中的应用

   E.ANN人工神经网络

   神经网络,在计算机界通常被称为人工神经网络,是一种数学模型,与人脑中的神经网络结构非常相似。为了了解模型的工作原理,研究人员提出了一些理论和例子,说明了神经网络的不同层之间的相互作用,以将给定的输入转换为期望的输出。

    想象一下你在一家酒吧,看着菜单点了一杯好啤酒。你最喜欢的是IPA,当你在列表上看到它时,你就点它。所以在你的大脑中发生的事情是,你为你的大脑神经网络提供了多种啤酒选择的输入,IPA的选择有一个可取的重量,因为那是你最喜欢的啤酒;大脑做出决定并给你输出。这是神经网络运作的一个基本例子。模型的体系结构显示了决策过程,其中涉及到输入层和输出层之间更深层的交互。图5示出了ANN的不同层的分类。

一种具有输入层、隐含层和输出层的前向神经网络

       从神经网络的数学模型可以看出,在第一层的任何给定输入都要经过该算法提出的函数,该函数将缩小多个组合和选项的范围,以描述期望的输出。这可以在图6中观察到。对于ANN,分类技术可以通过以下方式实现:输入权重乘积和偏差的总和:

对输入节点、隐藏节点和输出节点三种类型的神经网络进行结构分解

 

    与其他有监督和无监督的学习技术相比,神经网络通过将数据分离到预定的最深层次来提供最优化的结果。现代一代已经成功地识别和记录了许多技术,包括使用人工神经网络对脑电信号进行分析和分类,并模拟不同医疗条件下的结果。脑电信号或通常称为脑电图是一组高度复杂的信号,研究这些信号可以发现人脑活动的异常。后者是在大脑中的神经元开始放电并在树突内产生电流时测量的。因此,这种电流会在头皮上产生一个磁场,这个磁场通过一个信号发生器被记录下来,这个信号发生器在大脑的任何一个特定位置都会产生活动。这些信号需要针对我们关注的异常类型进行研究和分离,为此,我们正在讨论可用于不同脑电应用的不同机器学习模型。与传统的脑电分析方法相比,对脑电信号进行正确的分类和分析是当务之急。标准程序包括脑电信号的时频分析和频谱分析。EEG的特征波形落在特定的频带上,即alpha815Hz)、beta1430HZ)、theta48Hz)和delta<4Hz),以往的分类方法如FFT(快速傅立叶变换)具有很高的噪声敏感性,限制了对信号的有效分析。因此,如何利用神经网络或人工神经网络来有效地测量脑电的活动性成为人们关注的焦点。本节讨论了神经网络在脑电数据综合中的应用,并根据不同信号的属性和特征对其进行分类。正如我们现在所知道的,ANN的工作原理是分析针对多种可能性和连接提供的数据集,以根据需要提供最佳输出。网络架构的主要特征取决于以下几个突出的因素:

    1.输入信号类型(信号维数和行为)

    2.连接的拓扑结构

    3.不同网络层之间的交互

    4操作方式

    5输出解释

    由于每个应用的不同,必须有一种特定的方法可以很容易地使用神经网络进行定位和合成。一旦脑电信号图转换成波形后,便可通过神经网络对这些信号进行分类,并针对特定的用例选择特定类型的网络——前向神经网络、径向基函数、递归神经网络。重要的是了解不同类型的人工神经网络是如何运作的,以及促进这种运作的架构。

3 ANNEEG分析中的应用

   1.前向神经网络这是一种网络类型,数据只向一个方向流动,从输入节点开始,经过隐藏节点,到达输出节点。这个网络确保没有循环或循环的形成,使信息只在特定的方向流动。

前向神经网络

信息流有两个方向,前向传播和后向传播。预测时间采用前向传播,后向传播调整权值以使损失最小化。

 

   2.径向基函数在人工神经网络和数学建模领域,径向基函数是一种利用径向基函数(一个任意的实值函数,其值由函数从原点处的位置决定)的神经网络。因此,该网络通过输入和神经元参数的RBF线性组合来确定输出。如图8所示,该结构通过将点的中心/宽度与相关权重相加来操作,以获得最终输出。

    典型的RBF是高斯分布,在标量输入的情况下,由:

其中c是中心,r是半径参数。高斯径向基函数分布随距离中心的增加而减小。

对于具有标量输入的多二次RBF,可以显示为:

在这种情况下,高斯径向基函数随着距中心距离的增加而增加。

径向基函数网络

    这是一种以径向基函数作为激活函数的神经网络。神经网络的输出采用径向基函数和神经元参数的线性组合。这些结构有许多应用,如时间序列预测,分类和函数逼近。

 

   3.递归神经网络(RNN):

   顾名思义,RNNRecurrent Neural Networks)是一种在不同节点之间建立连接的人工神经网络,具有特定的输出流向在这里,数据循环可以反馈给特定的节点。在图9中示出了该技术,其示出了信息从一个层到另一层以及到特定预定节点的反向传播。

递归神经网络

其中节点之间的连接形成一个沿时间序列的有向图。它使之前的输出被用作输入。

    要理解RNN的工作原理,必须定义从一个先前状态到新状态的转换。设Xt为输入向量,Ht为新状态,Ht-1为前一状态。RNN是输入向量和前一状态的函数,它将使我们进入新状态Ht。我们可以通过获得权重函数Fw并实现该函数以找到输出函数Yt来表示RNN的一个简单的版本。具体表现为:

通过应用tan双曲函数,即先前状态关联权重的点积,以及关联权重与输入状态的点积,我们将得到新状态的值。最终输出函数为:

   F.朴素贝叶斯     

    朴素贝叶斯分类器是一种常见的文本分类方法,它将贝叶斯定理应用于基于简单训练特征的数据分离。本质上,该模型在一个有限的集合中指定标签作为特征向量。虽然简单,但有足够的预处理,它可以匹配更先进的方法,如上面讨论的支持向量机。朴素贝叶斯方法的一个缺点是,它认为所有的特征向量都是相互独立的,而不考虑任何实际的相关性它的主要优点是只需要少量的训练数据就可以开始正确估计分类所需的参数贝叶斯方法可以实现几个模型,其中最常见的是概率模型。在该模型中,特征由向量表示,并将概率分配给给定的结果或案例。事件模型可以分为两类:高斯朴素贝叶斯和多项式朴素贝叶斯。在具有连续值的数据集中,一个好的假设是它遵循高斯分布。使用这种方法,贝叶斯方法根据曲线分配概率。多项式事件模型表示由多项式产生的特定事件的频率,通常是直方图。一个潜在的问题是:当一个特征根本没有出现在数据集中,这将导致所有估计值的倍数为零。它可以用伪计数进行校正,以消除数据集中的任何异常值。

朴素贝叶斯在EEG分析中的应用

   G.决策树和随机森林

   决策树使用关于项目特征的问题来分类数据。每个问题都可以表示为一个节点,其中每个问题的答案都有一个子节点。这将创建层次结构,换句话说,树,最基本的树是二叉树,每个问题都有一个是或否的答案。因此,每个父节点问题都有一个子节点。通过从最顶层的节点(也称为根节点)开始,向下移动到叶子或没有子节点的节点,对数据进行排序。所采用的路径取决于数据的功能。一旦数据到达叶,就可以将其分类到与该特定叶相关联的类下。

10 决策树技术确定健康状况的示例

   决策树的优点是它们简单,可以很容易地与其他决策技术相结合。决策树的缺点是它们有点不稳定,也不准确,特别是不同的层次大小会导致对更大层次的偏差。

   在机器学习和不同的分类和分布方法的研究中,我们遇到了随机森林技术,它可以用于数据分类和回归操作。顾名思义,随机森林是通过产生大量的决策树来进行操作的,并通过bagging操作来训练,将多个决策树或模型组合起来,从而得到更稳定、更准确的数据预测。随机森林为被构造的数据创建了额外的随机性;也就是说,它不是从给定的集合中找到最重要的特征,而是在定义的特征子集的随机集合中寻找最佳特征。这就产生了一个更加多样化和更好的结果模型。

11 随机森林

它是一种集成学习方法,主要用于分类和回归。它通过在数据集的不同子样本上创建多种决策树来操作,并使用多数投票或平均来查找输出。该模型提高了预测精度,并能控制过拟合。

决策树和随机森林的应用概览


   H.
集成学习

   集成学习是一种有监督的学习算法。顾名思义,集成学习集成了许多不同的算法,使模型具有更好的预测性能。总体思路是通过组合从不同的多个模型接收到的决策来提高整体性能。它基于多样性的概念,与单一模型相比,考虑了更多不同的模型来获得同一问题的结果。这给出了一组假设,这些假设可以组合起来以获得更好的性能。所有的单一模型被称为基础学习者,当组合被称为一个集成时,这个合奏比组成合奏的基础学习者大多要好。集成学习可以应用于医学、欺诈检测、银行、恶意软件和入侵检测、人脸和情感识别等领域。集成学习应用概览

   I.模糊逻辑

   模糊逻辑是一种机器学习技术,它通过在0.01.0之间分配一系列真值来分离给定的数据。这种方法不仅依靠指定一个确定的真值或假值(二进制值01)来接受或拒绝数据。相反,它还通过指定一个真实值的程度来决定正当性,例如数据不是完全真实的,但在某种程度上可以被某个值视为真实的。考虑下面的例子:我们有两种已知的蓝色色调:浅蓝色和深蓝色。如果您正在训练您的计算机,以确定给定输入(海蓝)的确切蓝色,我们可以为该输入指定一个0.01.0的真值,该值表示输入可以接近所需真彩色的80%

12 模糊系统示例

13 模糊系统操作

    几乎所有的家用机器或设备(如空调、洗衣机等)都是在模糊逻辑的概念上运行的。这种逻辑被输入到一个通常称为模糊系统控制的控制系统中,其中的每个组件被设计用来运行和改变另一个物理操作系统,以达到预期的功能。为了了解模糊系统是如何工作的,有必要分析系统需求和使用模糊系统的意图。要使一个系统成为一个以知识为基础的功能元素,具有应用人类认知过程(如推理和思考)的能力,就必须有一个稳定的组件,能够为一组给定的输入变量提供真实程度方面的输出。从控制理论到人工智能,模糊逻辑被观察到在机器学习领域的许多应用中被实现。这是一个精确模拟人类大脑的思考和推理能力。为了使模糊系统有效地工作,需要保证以下特性和部件的性能:

    1模糊集:模糊集被认为与成员函数相对应,成员函数定义在变量集的模糊空间中。成员函数的特点是为定义良好的模糊集合中的任何元素提供一定程度的隶属度。然后,成员函数为这些元素分配一个介于01之间的数值,其中0表示对应的元素不是模糊集合中的元素,或者1表示对应的元素是模糊集合中的元素。

   2模糊规则模糊逻辑的作用方式是由一组应用模糊规则定义的,它决定了由IFTHEN规则指定的输出。观察IF-THEN规则来创建一个由模糊逻辑组成的条件语句。例如,IF-THEN假设XY是预期项,并用范围为UV的模糊集的项进行求值,这将语句分为前因和后果两部分。这形成了一个规则:如果XU,那么Y就是V。但是,这些规则是基于自然语言和模型表示,基于给定的模糊集和逻辑。

    3.模糊逻辑推理或模糊推理系统(FIS):一旦定义了模糊规则集和隶属函数,就可以实现过程仿真和控制,并根据所提供的数据或知识类型来完成。FIS系统通常分为三个阶段:

    在第一阶段,提供给系统的数值输入变量被映射成与各自模糊集的相容程度,这就是所谓的模糊化过程。这个过程允许系统以模糊易读的语言术语表达输入和输出。

    在第二阶段,系统根据每个输入变量的强度对规则进行处理。

    在第三阶段,通过去模糊化过程将得到的模糊值转换回数值。此过程因此将模糊域输出映射回crisp域,从而使输出变得清晰。

    4模糊分数FIS系统的输出以模糊分数的形式表示,对于已知由系统生成的所有个人输入分数。FIS系统通过考虑所有定义的模糊约束和隶属函数来计算模糊分数。分数取决于应用的规则类型和输入变量的类型。FIS根据模糊规则准则为每个输入变量分配一个分数。研究发现,典型的模糊系统作为机器学习的主要应用是在脑电信号的模式识别中,模糊逻辑可以用来确定不同阶段脑电分类的正确识别率。然而,模糊逻辑和神经网络的结合通常被称为神经模糊系统,系统可以应用模糊参数(如模糊集、模糊规则)并将其与神经网络逼近技术相结合进行广泛的分析。神经模糊系统被发现是非常有益的医疗条件诊断,密度和回归估计,模式识别和数据分析。

模糊逻辑在EEG分析中的应用

    J. LDA线性判别分析

      对于一个随机变量选择范围很广的给定数据集,需要进行降维处理,以减少特定主变量的参数个数,从而缩小数据集的维数空间。由于数据的分类方法有很多种,因此降维技术主要有两种:主成分分析法和线性判别法分析。PCALDA具有相似的功能和应用。然而,LDA技术可以处理类内频率不需要相等的情况,突出的因素是它在类间方差和类间方差之间提供了一个高比率和显著的分离。PCALDA的主要区别在于,PCA更适用于特征分类,LDA更适用于数据分类。

线性判别分析

    最常用的降维技术是线性判别分析(LDA。这项技术背后的主要标准是在不同类别之间提供良好的可分性,并避免曲线过拟合。通过将给定的具有n维样本的特征空间投影到一个精确且更小的特征子空间,这将大大降低计算成本并提供更好的分类。在典型的主成分分析中,数据集的位置、形状和结构都会发生完全的变化。但对于LDA来说,当数据集被转换成不同的更小的空间时,该技术可以保持数据集的位置和形状。这是通过在变换后的空间上定义一组向量来区分和分离的。在LDA技术中,通常采用两种不同的方法:       

    1.类别独立转换:这种方法主要关注提高总体方差与类内方差的比率,只使用一个准则来优化数据集转换过程。这将转换所有必需的数据点,而不考虑它们的类。所以在这里,每个类都被认为是独立于所有其他类的。

    2.类别相关变换:这种方法的主要目的是提高类变量与类内变量的比值,为脑电信号分析和BCI(脑机接口)应用提供足够的分类可分性范围,探索有效分离和分离多变量数据集的先进方法。接收到的脑电信号可能会受到噪声干扰而失真,必须对其进行有效的分离,才能得到准确的结果。为此,正在实施降维技术,以减少数据集并将不需要的信号频率从感兴趣的频率中分离出来。

    K.K-Means

   K-means是一种用于聚类问题的无监督学习方法它的工作方式是使用一种算法来定位一个分区,以最小化聚类的经验平均值和其中的点之间的误差。使用这些K个聚类,K-means试图最小化平方误差的总和。

14 K-means聚类法

   有两种常用的初始化方法:ForgyRandom分区。在上述方法中,K个观测值是从数据集中随机选取的,然后将这些观察结果用作初始手段。

    K-means的一个优点是,由于K相对较小,它易于实现较高的计算速度。K-means的一些缺点包括初始条件对最终输出的高显著性、对缩放的敏感性以及数据顺序与最终结果之间的相关性。

10 K-meansEEG分析中的应用

   L. RL强化学习

   机器学习可分为三类:有监督学习、无监督学习和强化学习。强化学习使用给定的数据为环境选择一个能产生最大预期长期回报的行动。强化学习比给定的数据更关注性能。对于给定的数据,强化学习可以描述为有监督学习和无监督学习的结合。强化学习可能有,也可能没有已知的结果输入/输出对。

15 强化学习操作

一个典型的强化学习设置由S表示的可能状态,A是可能的动作集合,Delta:S*A给出的状态转移函数,S*A*S给出的趋向于R的奖励函数,以及定义趋向于动作A的状态的策略pi

表示如下:

   使用RL模型的优点之一是它保持了探索和利用之间的平衡,其他有监督的算法无法实现这种平衡。在脑电分析应用中,RL模型已经显示出不断向脑-机接口系统的控制机制发展,在状态转换和最佳功能的奖励机制之间保持平衡。
   M.
方法的结合

   方法的结合包括使用两个或多个机器学习算法来利用每种方法所具有的独特特性。这允许多模式算法提取额外的期望特征。多模式集成的意义在于,它允许使用主要已经存在的方法进行高分辨率分类。此外,该分辨率通常高于单独的方法。然而,多模式提取并非没有限制。由于算法的复杂性增加,可能很难确定真正的准确度,因为它不能直接与现有的方法相比较。 

    总结

   本文归纳总结了机器学习在脑电分析中的应用,并详细介绍每种方法的总体有效性、关键特性及其最适合的应用场景。


微信扫码或者长按选择识别关注思影


如对思影课程感兴趣也可微信号siyingyxf或18983979082咨询。觉得有帮助,给个转发,或许身边的朋友正需要。请直接点击下文文字即可浏览思影科技其他课程及数据处理服务,欢迎报名与咨询,目前全部课程均开放报名,报名后我们会第一时间联系,并保留名额。


第二十八届磁共振脑影像基础班(重庆,7.6-11)


第十四届磁共振脑网络数据处理班(重庆,7.26-31)


第三十届磁共振脑影像基础班(南京,7.31-8.5)


第十六届磁共振脑网络数据处理班(南京,8.12-17)


第十届脑影像机器学习班(南京,6.30-7.5)


第十一届脑影像机器学习班(南京,8.25-30)


第十二届磁共振弥散张量成像数据处理班(南京,6.18-23)


第九届磁共振脑影像结构班(南京,8.6-11)


第七届磁共振ASL(动脉自旋标记)数据处理班(预报名)


第六届任务态fMRI专题班(预报名,南京)


弥散磁共振成像数据处理提高班(预报名)

小动物磁共振脑影像数据处理班(预报名,南京)

第七届脑电数据处理入门班(重庆,8.2-7)


第二十届脑电数据处理中级班(重庆,8.9-14)


第八届脑电数据处理入门班(南京,7.7-12)


第十九届脑电数据处理中级班(南京,7.13-18)

第二十一届脑电数据处理中级班(南京,9.7-12)

第七届眼动数据处理班(南京,7.26-30)

脑电信号数据处理提高班(预报名)

脑磁图(MEG)数据处理学习班(预报名)


近红外脑功能数据处理班(预报名)


数据处理业务介绍:

思影科技功能磁共振(fMRI)数据处理业务

思影科技弥散加权成像(DWI/dMRI)数据处理

思影科技脑结构磁共振成像数据处理业务(T1)


思影科技啮齿类动物(大小鼠)神经影像数据处理业务

思影数据处理业务三:ASL数据处理

思影科技脑影像机器学习数据处理业务介绍


思影数据处理业务四:EEG/ERP数据处理

思影科技脑电机器学习数据处理业务

思影数据处理服务五:近红外脑功能数据处理

思影数据处理服务六:脑磁图(MEG)数据处理


思影科技眼动数据处理服务


招聘及产品:

招聘:脑影像数据处理工程师(重庆&南京)

BIOSEMI脑电系统介绍

目镜式功能磁共振刺激系统介绍