做的好的地方网站,北京海淀互联网公司,做美工好的网站,WordPress太占空间了本次讲解一下于2020年发表在IEEE TRANSACTIONS ON NEURAL SYSTEMS AND REHABILITATION ENGINEERING上的专门处理EEG信号的EEG-Inception模型#xff0c;该模型与EEGNet、EEG-ITNet、EEGNex、EEGFBCNet等模型均是专门处理EEG的SOTA。 我看到有很多同学刚入门#xff0c;不太会…本次讲解一下于2020年发表在IEEE TRANSACTIONS ON NEURAL SYSTEMS AND REHABILITATION ENGINEERING上的专门处理EEG信号的EEG-Inception模型该模型与EEGNet、EEG-ITNet、EEGNex、EEGFBCNet等模型均是专门处理EEG的SOTA。 我看到有很多同学刚入门不太会看EEG的SCI论文我这里简单说一下
网页打开Pubmed然后打上关键词 EEG CNN 然后呈现的都是诸如此类的文章但文章水平有高有低建议打上pubmed的插件能显示期刊IF,建议只看3区以上的文章好了现在我们拿到一篇文章使用ML/DL处理EEG/PPG/EMG的然后我们需要关注的有
论文关注点
1、设计了**模型提高了BCI ** 的任务的分类/预测的性能
2、数据选择与处理方式
3、模型是如何设计的、为何这样设计
4、本文模型与其他模型在多个数据上对比提高了多少
5、模型可靠性评估方式
6、结论与意义
本科生来问我我理解我会耐心教授他如何读文章但是硕士来问我我一般不会有好脸色都读研了甚至研二了自己研究方向的论文都不会看还有的找都不会找还能做什么有些同学就等着喂这种同学我该批评就批评不批评是进步不了的。老师不管是正常的这不是借口这样的同学给我的感觉就是读幼儿园的小孩子这么大的人了学习还要一勺一勺喂我也不是你硕导我更没这责任和必要在如何读论文上一步步教你哇人的精力都是有限的每天还有很多同学微信问我技术问题的。现在都联网了哪里不会你可以直接查啊比如我上面说的pubmed插件一定还会有同学来问我需要哪些插件你知乎一搜答案多的是....心累。有些读研的同学自学能力我感觉不如一些本科生都。批评该批评你要是问我某论文的细节问题那说明你学进去了来问我我看到了肯定答疑。下面我们看文章我会列出我读这个文章的重点标记
Abstract
近年来深度学习模型因其优异的性能和从原始数据中提取复杂特征的能力而受到脑电图(EEG)分类任务的关注。特别是卷积神经网络(CNN)在基于事件相关电位(ERP)等不同控制信号的脑机接口(BCI)中表现出了良好的结果。在这项研究中我们提出了一种新的CNN称为EEG-Inception它提高了基于erp的辅助脑机接口的准确性和校准时间。据我们所知EEGInception是第一个集成了用于ERP检测的Inception模块的模型它与轻量级架构中的其他结构有效地结合在一起提高了我们方法的性能。该模型在73名受试者中得到验证其中31人有运动障碍。
结果表明与rLDA、xDAWN 黎曼几何、CNN-BLSTM、DeepConvNet和EEGNet相比EEG-Inception的命令解码准确率分别提高了16.0%、10.7%、7.2%、5.7%和5.1%优于之前的5种方法。此外EEG-Inception需要很少的校准试验来实现最先进的性能。 INTRODUCTION
没啥说的简要概述前几十年人们使用ML处理EEG的历程和不足。我们直接看最后一段
本研究的主要目标是设计、开发和测试一种新颖的CNN以提高基于erp的拼写器的准确性和校准时间。为此我们的模型称为EEG-Inception有效地集成了Inception模块和其他针对EEG处理优化的结构。此外本研究使用的数据集共有73名受试者(42名对照31名重度残疾人)的701615项观察结果是相关研究中样本量最大的。利用该数据集我们设计了一种新的训练策略使用跨主题迁移学习和微调来减少测试对象所需的校准时间。最后我们对基于erp的拼写器中最成功的先前方法进行了直接和公平的比较。值得注意的是大多数研究都没有对严重残疾受试者(这些系统的最终用户)的新分类算法进行评估。这是脑机接口文献中常见的局限性可能是由于缺乏残疾受试者的公共数据集[30]。为了解决这个问题我们在http://dx.doi.org/10.21227/6bdr-4w65[31]中发布了本研究中使用的代码和数据库为基于erp的拼写器提供了一个新的公共基准。 读到这我们知道了创新了个模型叫EEG-Inception用于提高ERP的准确性的并设计了一种新的训练策略使用跨被试的迁移学习和微调来减少测试所需的校准时间代码开源了啥没说这模型好不好肯定好不好也要好不然他发不了论文 RELATED WORK
本节概述了先前的研究这些研究提出了在脑机接口框架中进行ERP检测的深度学习模型[22]-[28]。表1总结了这些方法突出了它们的主要贡献、评估方法、研究对象和结果。可以看出cnn是最受欢迎的方法。其中Lawhern等人[26]提出的EEGNet模型是最成功的模型之一它使用深度和可分离卷积来提供鲁棒和紧凑的架构。事实上这个模型赢得了ERP检测发起的科学挑战
由国际医学与生物工程联合会(IFMBE)于2019年颁发[32]。值得注意的是第二名是由另一个深度学习模型CNNBLSTM取得的该模型结合了一个卷积层提取空间模式和基于双向长短期记忆单元(bidirectional long-short term memory units, BLSTM)的2个循环层来学习时间模式[28]。rnn在EEG处理中的应用很少尤其是在ERP检测中[14]。这可能是因为这些架构在计算方面非常昂贵比cnn的训练时间要长得多。然而rnn是专门为处理时间序列而设计的这使得它们成为cnn处理EEG的一个有希望的替代方案
值得注意的是据我们所知之前的研究未能在运动障碍受试者身上测试他们的深度学习模型。Liu等[25]、Cecotti和Gräser[22]分别只纳入了2名和3名健康受试者。在这方面众所周知由于与患者疾病相关的个别方面如神经损伤、视力障碍、持续注意能力有限、不自主震颤或认知能力有限等患者的分类准确率通常较低[9][10]。此外这些症状在个体之间是高度可变的甚至在具有相同条件的人之间也是如此这使得严重残疾的受试者尤其具有异质性对ERP检测具有挑战性。因此需要对该组进行综合评估以评估用于辅助脑机接口应用的新模型的性能。 本节列举了之前使用CNN处理ERP的模型重点点出了EEGNet对其给予高度的评价最成功的Model是里程碑
Subjects and Signals
数据做了简单的预处理没有自己弄些公式设计特征作为输入预处理有 降采样至128Hz带通滤波0.5-45工频滤波50Hz共同平均参考CAR、提取1s的epoch
Novel CNN: EEG-Inception
我们来看下模型结构我先列出我读到这里的标记 首先要关注的是模型需要注意的地方Note每层Conv2D torch.nn.Conv2dBNRELUDrop并不仅仅代表一层二维卷积下面我们看模型图和结构图 其实只要看结构图就可以了足够详细了我也自己重新画了整个模型结构下面使用我自己画的图进行讲解重点就在模型是咋设计的对我们有啥启发
模型结构设计[还是按照EEGNet的三个Block设计的我和你说了多少遍了设计创新模型主体框架就要按照EEGNet的3个block设计这就是模型房子的大梁你可以设计4个block但最少不低于3个这是通往SOTA的康庄大道]
输入12881128hz采样率 1s的数据8个通道又扩出一个维度为1
一、Block-1
第一个block交叉提取时间、空间特征信息顺序为
1、先时间卷积时间卷积核A1的设计与采样率密切相关核为采样率128的几分之几则时间尺寸为整个时间尺寸的几分之几例卷积核设计为641则在500ms的尺寸上提取特征
2、后空间卷积EEG-Inception在block1中多次提取空间卷积核大小1B Channel Block-1结构图盗图必究
Block-1解析
对8个通道1000ms128的数据逐级提取特征 1、先时间、后空间
2、时间卷积、空间卷积堆叠使用
3、时间卷积核提取3个不同时间尺寸500ms、250ms、125ms分别对应64、32、16卷积核大小长度的特征空间卷积核都是8channel
4、时间卷积paddingsame空间卷积paddingvalid
5、滤波器
3层时间卷积都是8这里我思考是与原始EEG通道有关我们在设计滤波器时也可以参照
3层深度卷积深度都是2把前一层的Conv2D滤波器数量*2加倍
6、时间卷积Conv2D torch.nn.Conv2dBNRELUDrop
7、N1把三个空间卷积的输出合并此时输出 ·128*1*48每层空间卷积输出128*1*16
8、平均二维池化降维核4*1与下个block的时间卷积核大小设置有关下个block若要提取时间特征【提取空间特征核大小还是不变】则提取同一时间尺寸核大小缩小4倍负相关
此时经过池化后的shape32*1*48
二、Block-2 Block-2结构图盗图必究
Block-2解析
一、3个时间卷积C4、C5、C6通过堆叠的方式在更高的、抽象的层次上提取额外的、更加精细化的500ms、250ms、125ms三个时间尺度的时间信息因为上个block的平均池化4*1所以这三层卷积相较于block-1的三个时间卷积核大小分别除以4
二、卷积填充 sameF8channel核大小分别为16*18*14*1 每层卷积出来的shape相同32*1*8
三、N1合并三次时间特征信息 32*1*24
四、池化 2*1依旧是偶数成倍的增加/减小 16*1*24
三、Block-3 Block-3解析
1、使用2层二维卷积提取最有价值的特征用于分类这里就不是提取时间、空间特征了而是在已经提取的特征上提选取有利于分类的特征纯粹是提取特征的没有时间、空间相关性卷积核大小分别8*14*1
2、二维卷积和二维池化交叉使用2层池化核大小都是2*1进一步降维作用
3、两层卷积的滤波器大小分别为F 12、F 6F逐渐减小起到了和池化一样降维的作用并避免过拟合这里前面F一直8其实也就是经历了8-12-6的起伏也符合滤波器的倒瓶颈先进的结构
EEG-Inception EEG-Inception结构图盗图必究
剩下的就是实验对比和总结了基本大差不差不说了