基于改进VGG–16和通道注意力机制的脑电图抑郁症辅助检测

司马飞扬 李鸿燕 张丽彩 蒙志宏

司马飞扬, 李鸿燕, 张丽彩, 等. 基于改进VGG–16和通道注意力机制的脑电图抑郁症辅助检测 [J]. 工程科学与技术, 2023, 55(2): 204-213. doi: 10.15961/j.jsuese.202200461
引用本文: 司马飞扬, 李鸿燕, 张丽彩, 等. 基于改进VGG–16和通道注意力机制的脑电图抑郁症辅助检测 [J]. 工程科学与技术, 2023, 55(2): 204-213. doi: 10.15961/j.jsuese.202200461
SIMA Feiyang, LI Hongyan, ZHANG Licai, et al. Depression Auxiliary Detection by EEG Based on Modified VGG–16 and Channel Attention Mechanism [J]. Advanced Engineering Sciences, 2023, 55(2): 204-213. doi: 10.15961/j.jsuese.202200461
Citation: SIMA Feiyang, LI Hongyan, ZHANG Licai, et al. Depression Auxiliary Detection by EEG Based on Modified VGG–16 and Channel Attention Mechanism [J]. Advanced Engineering Sciences, 2023, 55(2): 204-213. doi: 10.15961/j.jsuese.202200461

基于改进VGG–16和通道注意力机制的脑电图抑郁症辅助检测

基金项目: 山西省自然科学基金项目(201701D121058);山西省回国留学科研资助项目(2020–042);山西省研究生教育创新项目基金(2022Y234)
详细信息
    • 收稿日期:  2022-05-12
    • 网络出版时间:  2022-12-10 11:28:50
  • 作者简介:

    司马飞扬(1998—),男,硕士生. 研究方向:人工智能与模式识别. E-mail:smfy_0514@163.com

    通信作者:

    李鸿燕, 教授,E-mail: tylihy@163.com

  • 中图分类号: R318.04;R749.92

Depression Auxiliary Detection by EEG Based on Modified VGG–16 and Channel Attention Mechanism

  • 摘要: 利用脑电图信号,结合深度学习方法进行抑郁症辅助诊断目前仍存在特征提取不足及模型诊断准确率不高的问题。为了提取更具抑郁症表征的特征,提高抑郁症辅助诊断的准确率,本文从特征提取和网络框架两个方面进行改进,提出一种结合改进VGG–16(visual geometry group–16)和基于压缩激励网络的通道注意力机制(modified VGG–16 network based on SE–NET,SEMod–VGG)的抑郁症辅助检测模型。首先,提取脑电图信号中α(Alpha)、θ(Theta)和β(Beta)频段的微分熵特征,与对应通道的功率谱密度特征相融合,构成一种同时具有时频属性和能量属性的4维融合特征;其次,针对该4维特征,改进现有的VGG–16模型,同时采用5×5和7×7两种不同尺度的卷积核,在提取脑电信号的时频信息和功率信息的同时,提高特征的泛化表征能力;再将基于压缩激励网络的通道注意力机制与改进的检测模型相结合,对电极通道的权重进行2次标定;最后采用10折交叉验证使得最小二乘支持向量机取得最佳检测准确率。对所提模型在准确率,召回率以及网络性能这3个方面进行实验评估,在MODMA数据集上的结果表明:当使用4维融合特征作为输入时,SEMod–VGG可达到最佳检测性能,其抑郁症检测准确率在3通道、16通道及128通道分别为92.21%、93.47%和95.76%;检测召回率在3通道、16通道以及128通道分别为91.57%、92.46%和96.80%。相较于现有的抑郁症辅助检测模型,本研究所提出的融合特征对抑郁症的表征性更强,且所提出的模型在检测准确率,召回率以及模型效率上均取得明显提升。

     

    Abstract: At present, using electroencephalogram signals combined with deep learning methods for depression auxiliary detection still suffers from some problems such as insufficient feature extraction and low accuracy of detection. In order to extract more representative features and improve the accuracy of depression auxiliary detection, this study modifies the model from two aspects: feature extraction and network framework. A depression auxiliary detection model was proposed by combining the modified VGG–16 network and the channel attention mechanism based on the Squeeze-and-excitation Networks(SEMod–VGG). Firstly, the differential entropy of frequency bands named α(Alpha), θ(Theta) and β (Beta) in electroencephalogram were fused with the power spectral density for the corresponding channels to form a four-dimensional fusion feature which takes on time-frequency and energy attributes; Then, for the four-dimensional feature, the existing VGG–16 model was modified and two different scales convolution kernels , 5×5 and 7×7 were simultaneously used to improve the generalized characterization of the feature while extracting the time-frequency and power information of the electroencephalogram signals. Subsequently, the channel attention mechanism based on Squeeze-and-excitation Networks was combined with the modified detection model to calibrate the weights of the electrode channels. Finally, the ten-fold cross validation was utilized to optimize the least squares support vector machine, which improves the limitations of traditional support vector machine. Experimental evaluation in three aspects, namely, auxiliary detection accuracy, recall and network performance were conducted in the paper. The results on the MODMA dataset showed that SEMod–VGG yields the best accuracy for detection when four-dimensional fusion features are used as input: 92.21% for 3 channels, 93.47% for 16 channels and 95.76% for 128 channels. Besides, the detection recall of the model also reaches a higher level: 91.57% for 3 channels, 92.46% for 16 channels and 96.80% for 128 channels. Compared with the existing models of depression auxiliary detection, the proposed fusion features are more characterizing for depression, and the model achieves significant improvements in detection accuracy, recall and model efficiency.

     

  • 流行病学调查数据和心理疾病的相关研究显示,抑郁症已成为全球威胁人类健康的第2大疾病[1-2]。借助深度学习方法,构建抑郁症辅助诊断模型将为抑郁情绪的早期发现提供新思路,相关研究仍处于起步阶段[3]

    随着人机交互方式的进步,脑机接口在人机交互领域占有重要地位。脑电图(electroencephalogram,EEG)信号包含丰富的频率、时间和空间信息,可反映被试者潜意识中的内心精神状态或情感状态。神经科学和脑科学研究表明,人类大脑皮层存在某些特定区域与重度抑郁症(major depressive disorder,MDD)紧密关联[4]

    目前基于EEG的抑郁症研究主要集中在以下两方面:一是寻找更优的特征表达,使之能够涵盖更多与MDD相关的信息;二是设计一种有效利用EEG进行MDD识别的深度学习模型。研究指出,异常的大脑放电活动存在于大部分的抑郁症患者中,并且抑郁症患者通常会在前部脑区表现出功率强度的增加、活动不对称性和低相干性[5]。基于健康人(healthy control,HC)和MDD患者在大脑活动上存在差异这一情况,抑郁症研究领域的科研人员基于EEG进行了诸多尝试。

    Hosseinifard等[6]提取了EEG4个波段的功率谱密度(power spectral density,PSD)特征和4种非线性特征,将这两类特征分别与K邻近算法(K–nearest neighbors,KNN)、线性判别分析(linear discrimination analysis,LDA)和逻辑回归(logistics regression,LR)算法相结合,在MDD数据集上取得了83.3%的识别准确率;Cai等[7]利用额部Fp1、Fp2及Fpz这3个通道的EEG数据,通过提取其功率谱熵、香农熵等特征,分别利用KNN、深度信念网络(deep belief networks,DBNs)及支持向量机(support vector machine,SVM)进行识别测试,最终在自制MDD数据集上取得了78.24%的分类准确率。

    随着深度学习技术的发展,研究人员将深度学习方法应用于MDD诊断领域。Ay等[8]将长短时记忆网络(long–short term memory,LSTM)和卷积神经网络(convolutional neural networks,CNN)相结合,通过LSTM学习序列特征,利用卷积层学习EEG中的时域特征,取得了91.67%的MDD识别准确率;Kwon等[9]利用原始的VGG–16网络模型,将位于人脑前额叶Fp1和Fp2电极所包含的EEG信号输入至预测模型中,利用Softmax进行分类测试,达到了87.5%的识别准确率,这表明Fp1和Fp2两个电极的信息对抑郁症诊断具有一定的辅助作用。Wan等[10]提出一种由平行双路卷积网络构成的HybridEEGNet,将EEG空域特征作为网络输入,用于区分HC、服药及未服药的MDD患者,最终在3分类上取得了79.08%的识别准确率;Zhang等[11]选取16个静息EEG通道数据,通过提取通道间的符号传递熵和加权相位滞后指数,进行抑郁症的辅助诊断,最终该方法的MDD识别准确率达到了93.27%;Deng等[12]提出了一种由5个卷积滤波器和压缩激励网络(squeeze–and–excitation networks,SE-NET)组成的卷积神经网络SparNet,用于学习EEG的空域特征和频域特征,最终取得了94.37%的识别准确率。

    上述方法虽在分类准确率上有所提升,但使用的EEG特征仍具有一定的局限性,没有充分利用EEG带有的频率和功率信息,且未对电极通道差异做出区分。

    为了进一步提高MDD的识别性能,本文对现有基于深度学习的MDD诊断方法进行改进,提出一种以融合微分熵(differential entropy,DE)特征和PSD特征的4维特征作为输入,基于改进VGG–16和SE–NET通道注意力机制(Modified VGG–16 Network based on SE–NET,SEMod–VGG)的MDD辅助诊断模型。

    首先,提取EEG信号的DE特征和PSD特征,构建一种4维融合特征表示,有效融合EEG中的时频信息和能量信息,使融合特征同时具有时频属性和能量属性;其次,提出一种基于VGG–16改进的MDD辅助检测网络模型Mod–VGG,该模型可同时学习4维融合特征中的时频和能量信息,且可以规避网络训练中部分神经元无法有效激活及网络收敛速度过慢的问题;同时,为了加强与MDD相关度更高通道的权重值,将基于SE–NET的通道注意力与Mod–VGG相结合,组成SEMod–VGG网络模型,对电极通道的权重进行2次标定;最后利用10折交叉验证对最小二乘支持向量机(least squares support vector machine,LSSVM)进行测试,利用两者组成十折交叉最小二乘支持向量机(ten–fold cross–validation lSSVM,TCV–LSSVM),以获取最佳检测准确率。 本文提出的SEMod–VGG模型在MODMA数据集[13]的平均准确率在3通道(Fp1,Fp2,Fpz这3个通道)、16通道(FP1、FP2、F3、F4、C3、C4、P3、P4、O1、O2、F7、F8、T3、T4、T5和T6这16个通道)以及128通道(Fp1,Fp2,···,CB2等共128个通道)分别为92.21%,93.47%和95.76%;检测召回率在3通道、16通道以及128通道分别为91.57%,92.46%和96.80%,均高于现有的抑郁症辅助检测模型。

    图1为本文提出的MDD辅助检测模型框架。首先将原始EEG分段信号按Fp1,Fp2,···,CB2共128个电极通道进行分离,再分别筛选其α、β和θ波段,提取DE特征和PSD特征,通过特征融合算法,构成4维融合特征,最后通过本研究提出的SEMod–VGG模型和优化后的TCV–LSSVM模型进行实验验证。本研究工作主要在于特征的选取与4维特征的构建、VGG–16模型的改进、通道注意力机制的加入及建立CV–LSSVM分类器,下面将对每一部分做详细介绍。

    图  1  SEMod–VGG检测模型框架
    Fig.  1  Framework of SEMod–VGG auxiliary detection model
    下载: 全尺寸图片

    研究表明,异常的脑电活动存在于大多数的MDD患者中,MDD患者的α和θ波段功率强度通常会在前部脑区增强,且具有严重的不对称性和较低相干性;Kan等[14]分析对比HC和MDD患者的32通道EEG闭眼数据和睁眼数据,发现MDD患者多个脑区的α波段能量值都要小于HC;Knott等[15]在针对成年MDD患者的研究中发现,成年MDD症患者在前部脑区两侧的β波段的绝对功率值相较于HC要高出不少;Mahato等[16]发现HC的θ频段平均不对称比要高于MDD患者。本研究基于上述HC和MDD患者在大脑皮层活动存在差异性这一情况,利用快速傅里叶变换提取EEG的α、β和θ波段作为初始输入。

    图2为本文提出的4维融合特征构建过程。由于DE特征在情感识别领域应用更加广泛并且取得较好的情感识别性能,因此选取DE特征来表征EEG信号中的时频信息;又由于MDD患者的情感表达与正常人相比更为强烈[17],其所表达的情感唤醒度(arousal)和效价(active)更高,相较于其他脑电特征,PSD特征在MDD辅助诊断领域应用更加广泛,且取得了良好的分类性能,故利用Hjorth算法[18],通过时长为1 s的滑动窗口计算得到目标通道的PSD特征。

    图  2  4维特征构建过程
    Fig.  2  Process of constructing the four–dimensional feature
    下载: 全尺寸图片

    首先将原始EEG信号切割为N段;再逐段进行频谱分离,提取EEG的θ(4~8 Hz)、α(8~14 Hz)和β(15~30 Hz)3个频段的脑电信号。

    对脑电信号在每个频段上分别计算DE特征 $h\left( x \right)$

    $$ h\left( x \right) = \int_{ - \infty }^\infty {f\left( x \right){\text{ln}}\left( {f\left( x \right)} \right){\text{d}}x} $$ (1)

    式中, $f\left( x \right)$ 为输入信号x的概率密度函数。

    对于近似服从高斯分布 $ {\text{N}}(\mu ,{\delta ^2}) $ 的EEG信号,其DE特征可表示为[19]

    $$ \begin{aligned}[b] {\text{DE}} =& h(x) = \int_{ - \infty }^{ + \infty } \frac{1}{{\sqrt {2{\text{π}}{\delta ^2}} }}{{{\rm{e}}} ^{\frac{{{{(x - \mu )}^2}}}{{2{\delta ^2}}}}}\ln \left(\frac{1}{{\sqrt {2{\text{π}}{\delta ^2}} }}{{{\rm{e}}} ^{\frac{{{{(x - \mu )}^2}}}{{2{\delta ^2}}}}}\right){\rm{d}}x =\\& \frac{1}{2}\ln 2{\text{πe}}{\delta ^2}\\[-15pt] \end{aligned} $$ (2)

    EEG的PSD特征计算过程如下,首先利用如式(3)所示的公式来计算单波段的功率谱密度值。

    $$ p(w) = \varphi _w^2{\left(1 + \sum_{k = 1}^Q {{a_k}{{\rm{e}}^{ - jwk}}} \right)^{ - 2}} $$ (3)

    式中, $ p(w) $ $ w $ 波段的功率谱密度取值,Q为模型阶数, $ \varphi _w^2 $ 为通道方差, $ {a_k} $ 为第k个片段的EEG数据。对于输入的脑电信号,PSD特征可表示为:

    $$ {\text{PSD}} = \sum\limits_{w=4}^{30} {p(w)} $$ (4)

    Concat特征融合算法如式(5)所示,利用该算法将3个频段的DE特征和PSD特征进行融合,使得EEG每个通道的电信号转变为一个大小为3×N×T×2的4维特征图,更多保留了EEG时频信息和功率信息。

    $$ {F_{{\text{concat}}}} = {\text{DE}} + {\text{PSD}} = \frac{1}{2}\ln 2{\text{πe}}{\delta ^2} + \sum\nolimits_w {p(w)} $$ (5)

    4维特征矩阵G如式(6)所示。

    $${\boldsymbol{G}}= {\left[ {\begin{array}{*{20}{c}} {{{\left[ {\begin{array}{*{20}{c}} {A_{_{1,1}}^{{{\text{α}}}} }&{B_{_{1,1}}^{\text{α}} } \\ \vdots & \vdots \\ {A_{_{1,T}}^{\text{α}} }&{B_{_{1,T}}^{\text{α}} } \end{array}} \right]}_{T \times 2}}}&{\left[ {\begin{array}{*{20}{c}} {A_{_{2,1}}^{\text{α}} }&{B_{_{2,1}}^{\text{α}} } \\ \vdots & \vdots \\ {A_{_{2,T}}^{\text{α}} }&{B_{_{2,T}}^{\text{α}} } \end{array}} \right]}& \cdots &{\left[ {\begin{array}{*{20}{c}} {A_{_{N,1}}^{{{\text{α}}}} }&{B_{_{N,1}}^{\text{α}} } \\ \vdots & \vdots \\ {A_{_{N,T}}^{\text{α}} }&{B_{_{N,T}}^{\text{α}} } \end{array}} \right]} \\ {\left[ {\begin{array}{*{20}{c}} {A_{_{1,1}}^{\text{β}} }&{B_{_{1,1}}^{\text{β}} } \\ \vdots & \vdots \\ {A_{_{1,T}}^{\text{β}} }&{B_{_{1,T}}^{\text{β}} } \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} {A_{_{2,1}}^{\text{β}} }&{B_{_{2,1}}^{\text{β}} } \\ \vdots & \vdots \\ {A_{_{2,T}}^{\text{β}} }&{B_{_{2,T}}^{\text{β}} } \end{array}} \right]}& \cdots &{\left[ {\begin{array}{*{20}{c}} {A_{_{N,1}}^{\text{β}} }&{B_{_{N,1}}^{\text{β}} } \\ \vdots & \vdots \\ {A_{_{N,T}}^{\text{β}} }&{B_{_{N,T}}^{\text{β}} } \end{array}} \right]} \\ {\left[ {\begin{array}{*{20}{c}} {A_{_{1,1}}^{\text{θ}} }&{B_{_{1,1}}^{\text{θ}} } \\ \vdots & \vdots \\ {A_{_{1,T}}^{\text{θ}} }&{B_{_{1,T}}^{\text{θ}} } \end{array}} \right]}&{\left[ {\begin{array}{*{20}{c}} {A_{_{2,1}}^{\text{θ}} }&{B_{_{2,1}}^{\text{θ}} } \\ \vdots & \vdots \\ {A_{_{2,T}}^{\text{θ}} }&{B_{_{2,T}}^{\text{θ}} } \end{array}} \right]}& \cdots &{\left[ {\begin{array}{*{20}{c}} {A_{_{N,1}}^{\text{θ}} }&{B_{_{N,1}}^{\text{θ}} } \\ \vdots & \vdots \\ {A_{_{N,T}}^{\text{θ}} }&{B_{_{N,T}}^{\text{θ}} } \end{array}} \right]} \end{array}} \right]_{3 \times N}} $$ (6)

    式中,T为每一特征向量的维数, $ A_{_{1,1}}^{\text{α}} $ $ A_{_{1,T}}^{\text{α}} $ 为α波段的第1个DE特征, $ B_{_{1,1}}^{\text{α}} $ $ B_{_{1,T}}^{\text{α}} $ 为α波段的第1个PSD特征,依次类推。式(6)即为本文所使用的4维融合特征。

    整体SEMod–VGG的模型框架如图3所示。

    图  3  SEMod–VGG模型结构
    Fig.  3  Struct of SEMod–VGG
    下载: 全尺寸图片

    由于所使用的4维融合特征中包含了α、β、θ对应波段的DE特征以及PSD信息,传统VGG–16网络无法对该4维融合特征进行直接识别。提出一种SEMod–VGG网络模型,将VGG–16网络的输入转变为4通道输入,使得其可以对所提取的4维特征进行运算;再通过由不同尺度的卷积核所构成的卷积层来提取深层特征;采用LeakyReLU激活函数代替原有的ReLU激活函数,使得每个神经元都可被激活;再利用通道注意力机制,提高与MDD相关度较高的电极通道权重;最后通过全连接层将所学习到的特征空间映射到分类器中,得到检测结果。

    1.2.1   Mod–VGG模型

    现有的CNN模型主要包括VGGNet[20]、残差网络(residual network,ResNet)[21]以及稠密卷积网络(dense convolutional network,DenseNet)[22]等,然而ResNet和DenseNet网络结构较复杂,且各卷积层之间存在很强的相关性,对后续加入通道注意力机制造成不便,故选取结构较为简单的VGG–16网络为初始模型,在此基础上对其进行改进。

    在VGG–16网络中,用多个小尺寸卷积核来代替原有大尺寸卷积核,以多次小感受野的卷积核代替具有较大感受野的卷积核。而本文将尺寸为5×5和7×7的卷积核联合使用(5×5&7×7,&表示联合使用),增加卷积核的移动步长,在牺牲部分计算效率的情况下,通过多尺度卷积,可以增加网络的检测准确率;优化模型可通过5×5的卷积核来提取EEG中与MDD相关的特征信息,利用7×7的卷积核来增加特征和泛化表征能力。

    图4为提出的Mod–VGG模型结构,该模型包含1个4维特征输入层、3个5×5的卷积层(其中第1、2、3层分别由两组64、128、256个5×5的卷积核组成(Conv1/2/3–1/2:64/128/256@5×5))、1个7×7的卷积层(由4组512个7×7的卷积核组成(Conv4–1/2/3/4:512@7×7))、全连接层及输出层。在该模型中,利用5×5的卷积层提取融合特征的深度时频域和功率特征;通过7×7的卷积层将两者进行泛化处理,提取特征图的整体信息;通过全连接层将泛化后的融合特征映射到样本空间;最后,通过分类器得到检测结果。

    图  4  Mod–VGG网络框架
    Fig.  4  Framework of Mod–VGG
    下载: 全尺寸图片

    由于VGG–16采用非零中心化的ReLU激活函数,使得轻微的偏置偏移产生于网络后层中,且ReLU神经元在网络的训练过程中比较容易发生网络参数的错误更迭,导致某个神经元在之后的所有训练进程中都无法被激活,产生一定的训练误差;利用LeakyReLU代替传统的ReLU激活函数[23],LeakyReLU激活函数如式(7)所示:

    $$ {{{\rm{Leaky}}}}{{{\rm{ReLU}}}}(x) = \left\{ {\begin{array}{l} {x,\; x \gt 0}; \\ {\gamma x,\; x \leqslant 0,\; \gamma \ne 0} \end{array}} \right. $$ (7)

    从式(7)可看出,LeakyReLU通过在ReLU负半轴加入一个不为0的权重系数γ,从而避免某些神经元无法被激活的情况。

    1.2.2   通道注意力机制

    注意力机制在人类感知中起着重要作用,近年来诸如通道注意力、空间注意力、语义注意力等[24]被广泛使用在各个领域中。研究表明,在全部128个通道中,只有部分通道所带有的信息与MDD的相关性较强,若在网络训练中对这些相关度较差的通道给予和相关度较强的通道一样的权重值,会对识别诊断产生一定的干扰。将基于SE–NET的通道注意力模块与提出的Mod–VGG相结合,利用SE–NET中的挤压(squeeze)、激励(excitation)和标定(scale)操作重新标定前面得到的通道权重[25],实现对电极通道权重的2次确定。

    挤压利用全局池化(Global Pooling)操作,将尺寸为 $ c \times h \times r $ 的特征图转化成大小为 $ c \times 1 \times 1 $ 的特征,其具体操作为:

    $$ {{\boldsymbol{Z}}_{{\text{squeeze}}}} = \frac{1}{{h \times r}}\sum\limits_{i = 1}^h {\sum\limits_{j = 1}^r {{x_N}(i,j)} } $$ (8)

    式中, ${{\boldsymbol{Z}}_{{\text{squeeze}}}}$ 为挤压操作后得到的特征矩阵,chr分别为输入特征图的维度值, $ {x_N}(i,j) $ 为特征向量在i,j处的取值。

    激励的目的是提取不同通道之间的互相关性,利用两个全连接层(full connected,FC)和激活函数,融合全部的输入特征信息。

    $$ {{\boldsymbol{S}}_{{\text{excitation}}}} = {F_{ex}}({{\boldsymbol{Z}}_{{\text{squeeze}}}},{\boldsymbol{W}}) = \sigma ({{\boldsymbol{W}}_2}{\boldsymbol{\chi}} ({{\boldsymbol{W}}_1}{{\boldsymbol{Z}}_{{\text{squeeze}}}})) $$ (9)

    式中, ${{\boldsymbol{S}}_{{\text{excitation}}}}$ 为激励操作后得到的权重矩阵,Fex $({{\boldsymbol{Z}}_{{\text{squeeze}}}}, {\boldsymbol{W}})$ 为对 ${\boldsymbol{Z}}_{{\text{squeeze}}}$ W进行激励操作, ${{\boldsymbol{W}}_1}$ ${{\boldsymbol{W}}_2}$ 为两个FC的权重矩阵, $ \sigma $ 为Sigmoid激活函数, $\;{\boldsymbol{\chi}}$ 表示LeakyReLU激活函数,W为可训练权重矩阵。

    标定利用数学运算,将重新计算得到权重值与原始特征进行融合。

    $$ \hat x = {F_{{\text{scale}}}}({{\boldsymbol{Z}}_{{\text{squeeze}}}},{{\boldsymbol{S}}_{{\text{excitation}}}}) = {{\boldsymbol{Z}}_{{\text{squeeze}}}} \times {{\boldsymbol{S}}_{{\text{excitation}}}} $$ (10)

    式中, $\hat x$ 表示标度的最后输出, $ {F}_{\text{scale}}()$ 表示通道维度的乘法运算。

    SE–NET本质上是在电极通道上做注意力操作,实现不同通道权重的差异计算,更有效地利用EEG信号中与MDD相关度较高的通道所带有的MDD信息。在Mod–VGG的每个卷积层后,均加入SE–NET模块,其结构如图5所示,这样在网络的训练过程中,即可实现对电极通道权重的注意力机制,提高模型对与MDD相关度较高的电极通道的权重值。

    图  5  通道注意力机制结构
    Fig.  5  Struct of channel attention mechanism
    下载: 全尺寸图片

    现有用于MDD检测的分类器有很多,例如KNN[26]、Softmax[27]、SVM[28-29]等。Suykens等[30]在SVM基础上,提出了LSSVM分类器,该分类器以SVM为基础,引入最小二乘理论,将传统的二次规划问题转化为求解线性方程组。LSSVM算法基本原理是构造如式(11)所示的最优决策函数:

    $$ y = {\omega ^{\text{T}}}\varPhi (x) + b $$ (11)

    式中, $ \omega $ 为权向量, $ b $ 为偏差, $ \varPhi (x) $ 为对输入x的映射操作,可将低维样本映射至高维空间,则LSSVM的优化问题为:

    $$ \begin{aligned} & \quad\;\; \mathop {\min }\limits_{\omega ,b,t} {F_{{\text{lssvm}}}}(\omega ,b,t) = \frac{1}{2}{\omega ^{\text{T}}}\omega + \frac{\lambda }{2}\sum\limits_{k = 1}^N {t_k^2} \\& {\rm{s.t}}.\quad {{{y}}_k}[{\omega ^{\text{T}}}\varPhi ({x_k}) + b] = 1 - {t_k},k = 1,2, \cdots ,N \end{aligned} $$ (12)

    式中, $ {y_k} $ 为输入 $ {x_k} $ 的高维映射,λ为标准化参数, ${t_k}$ 为标准误差。

    LSSVM分类器在测试和使用过程中仍存在一定误差,为了在每次实验中都获取最佳的检测结果,本文将10折交叉验证(ten–fold cross validation,TCV)与LSSVM相结合,构成TCV–LSSVM分类器,利用交叉验证使得LSSVM获取最佳检测结果。

    引入TCV后,式(12)变为:

    $${\begin{aligned} & \mathop {\min }\limits_{{\omega _k},b,t} {F_{{{{\rm{tcv}} - {\rm{lssvm}}}}}}({\omega _k}|{\omega _N},b,t) = \frac{1}{2}{\omega _k^{\rm{T}}}{\omega _{N - k}} + \frac{\lambda }{2}\sum\limits_{k = 1}^N {t_{k|N}^2} \\& {\rm{ s.t.}}\quad {{{y}}_{k|N}}[{\omega _k^{\rm{T}}}\varPhi ({x_{k|N}}) + b] = 1 - {t_{k|N}} \end{aligned} }$$ (13)

    式中, ${\omega _k}|{\omega _N}$ 为权向量的验证留出, ${t_{k|N}}$ 为第k个标准误差,xk|N为对N个输入数据的第k个验证留出。综上,即可利用10折交叉验证来使得每次检测分类结果达到最优。

    用拉格朗日法,采用如式(14)所示的径向基(radial basis function,RBF)核函数:

    $$ \varphi ({x_k}) = \exp \left( - \frac{{||x - {x_k}|{|^2}}}{{2{\lambda ^2}}}\right) $$ (14)

    式中, $ \lambda $ 为和函数宽度, $ ||x - {x_k}|{|^2} $ 为两点间的平方欧式距离。

    对式(13)求解,得到TCV–LSSVM分类器公式:

    $$ y({x_k}|X) = \sum\limits_{k = 1}^N {{\alpha _{k|N}}K({x_k},{x_{k|N}})} + b' $$ (15)

    式中,X为数据全集, $ y({x_k}|X) $ 为分类器的第k轮输出, $ {\alpha _{k|N}} $ 为第k个拉格朗日算乘系数, $ {x_k} $ 为第k个特征样本点, $ b' $ 为经过10折交叉验证计算后的偏差值。最后选取最佳结果,即可获取最优的MDD分类准确率。

    所有测试实验的硬件环境为AMD R7处理器,16 GB运行内存,GPU型号为NVIDIA GTX–1650Ti;软件环境为Python 3.7.4编程语言以及Pytorch 1.7.0深度学习框架。测试SEMod–VGG模型时,使用常见的Adam优化算法和交叉熵损失函数(cross entropy loss)来进行训练,模型的学习率及单次训练样本数(batchsize)分别设置为0.0001和128。为了处理网络训练过程中的过拟合现象,设置丢失率(dropout)为0.2。最终计算所有被试的平均准确率(accuracy,Acc)和召回率(recall),以评估本文所提出模型的识别检测性能。Acc和recall的计算公式分别如式(16)和(17)所示:

    $$ {\text{Acc}} = \frac{{{\text{TP}} + {\text{TN}}}}{{{\text{TP}} + {\text{TN}} + {\text{FP}} + {\text{FN}}}} \times 100{\text{%}} $$ (16)
    $$ {\text{recall}} = \frac{{{\text{TP}}}}{{{\text{TP}} + {\text{FN}}}} \times 100{\text{%}} $$ (17)

    式中,TP和TN分别为正样本和负样本的正确分类数目,FP和FN分别为正样本和负样本的错误分类数目。

    模型的性能由损失函数曲线给出,损失Loss计算公式由式(18)得出。

    $$ {\text{Loss}} = - \sum\limits_{i = 1}^c {{y_i}\ln {y_i'}} $$ (18)

    式中, $ {y_i} $ 为实际值, ${y_i'}$ 为模型预测值,c为模型训练总分类类别数。

    为了测试文中所提出的SEMod–VGG重度抑郁症检测模型的性能,分别进行了不同电极通道数目(3通道、16通道、128通道),不同尺寸卷积核(3×3、5×5、7×7、3×3&5×5、3×3&7×7及5×5&7×7),不同输入特征(DE、PSD、4维融合特征),不同网络模型(DBNs[7],LSTM&7L–CNN[8],VGG–16[9],HybridEEG[10],NetSparNet[12]及SEMod–VGG),以及不同分类器(KNN[26],Softmax[27],SVM[28],LSSVM[30]以及TCV–LSSVM)的测试实验,本文所有的测试或验证实验均采用统一环境、同一数据集划分及评价指标。

    兰州大学潜意识和智能解决方案实验室(Ubiquitous Awareness and Intelligent Solutions Lab,UAIS)于2020年发布了公开数据集MODMA(multi-modal open dataset for mental–disorder analysis)( http://modma.lzu.edu.cn)。该数据集共包含3个部分,分别为128个通道的事件相关电位EEG、128个通道的静息状态EEG、3个通道的静息状态EEG[13]。实验数据均来自MODMA数据集的3通道和128通道静息状态EEG数据。

    该数据集的MDD–EEG数据来源于兰州大学第二医院的患者,且所有患者都经过了至少1位专业精神病医生严谨的临床诊断,且都接受了国际神经精神障碍交谈检查表(mini international neuropsychiatric interview,MINI)或病人健康问卷调查表(patient health questionnaire–9,PHQ–9)的评估,患者的MINI评估结果均符合抑郁症的标准,PHQ–9的分数至少为5分。实验中使用了由兰州大学普适感知与智能系统实验室开发的EEG采集设备,该设备可以采集3通道或128通道的EEG信号。

    研究表明,人体头部的FP1、FP2、F3、F4、C3、C4、P3、P4、O1、O2、F7、F8、T3、T4、T5和T6这16个电极对应的记录对抑郁症患者和正常人群具有很好的区分度,在抑郁症研究中被广泛使用[6,31]。因此,从MODMA数据集的3通道数据和128通道EEG数据中,筛选出该16个电极通道的EEG数据进行验证。

    实验选取3电极通道信号、16电极通道信号和128电极通道信号的EEG数据进行测试。由于额部3个电极通道位于大脑的前额叶,无大量头发遮盖,采集时电信号较为稳定,且前额叶与情感过程和精神障碍有着密切的联系;16电极通道均匀分布于头皮各处,可以较全面地收集大脑各部分的电信号,用作MDD的识别分析;128电极通道数据包含几乎所有的脑部信号,可以对MDD患者的EEG进行更详细准确地分析。

    由于EEG信号的通道数决定了其所带有的MDD信息量的差异,为了研究不同通道数目EEG数据作为输入对MDD识别准确率的影响,以及独立特征输入与融合特征输入检测结果的差异,分别进行了3种不同电极通道数目(3、16、128)以及3种特征的(DE特征、PSD特征和融合特征)作为输入时,SEMod–VGG模型的检测准确率测试实验,计算各通道下不同特征输入下的准确率和召回率,结果见表1

    表  1  各通道下不同特征输入检测结果
    Table  1  Results for different feature and channels
    电极通
    道数
    准确率/% 召回率/%
    DE输入 PSD输入 融合特
    征输入
    DE输入 PSD输入 融合特
    征输入
    3 84.62 87.27 92.21 84.75 87.61 92.84
    16 87.34 90.61 93.47 92.89 91.87 92.58
    128 89.29 92.25 95.76 90.09 91.24 96.80

    表1可以看出,当128通道的EEG数据作为输入时,在3种特征输入下,识别准确率都有明显的提高;当输入融合特征时,在3种通道的输入下,SEMod–VGG均取得良好的MDD诊断正确率。当输入128通道的融合特征时,模型的平均准确率为95.76%,分别较3通道和16通道提升了3.55%和2.29%,召回率也分别提高了3.96%和4.22%。由此可见,本文所设计的4维融合特征在MDD识别诊断领域具有良好的性能,能够更好地表征EEG信号的时频域和能量特征。在后续的实验中,若无特别说明,均采用128通道的4维融合特征作为输入。

    为了验证本文所提出的多尺度卷积相较于原单尺度卷积的进步性,分别对使用3×3、5×5、7×7、3×3&5×5、3×3&7×7以及5×5&7×7这6种不同尺寸卷积核的网络模型进行实验验证,结果见表2

    表  2  不同尺度卷积核分类结果
    Table  2  Results for different size of convolution kernel
    卷积核
    尺寸
    准确率/% 召回率/%
    VGG–16 Mod–VGG SEMod–VGG VGG–16 Mod–VGG SEMod–VGG
    3×3 91.62 91.72 92.36 88.31 89.43 91.20
    5×5 91.43 92.04 92.91 91.88 90.82 91.68
    7×7 91.83 92.51 93.07 92.03 91.77 90.29
    3×3&5×5 92.30 92.81 94.22 90.10 93.57 93.05
    3×3&7×7 92.48 93.34 94.37 93.26 90.12 89.46
    5×5&7×7 92.67 92.96 95.76 94.52 91.97 96.80

    表2可以看出,在MDD识别方面,VGG–16使用5×5或7×7的卷积核所取得的分类准确率有轻微的提升,但其召回率有所提高,表明虽然使用5×5或7×7的卷积核的运算量要大于3×3的卷积核,但其增大了网络模型的感受野,在牺牲一定运算效率的情况下,可以获取更多信息;另外,VGG–16在使用5×5&7×7的卷积核时,分类准确率达到了92.67%,相较于只使用3×3卷积核的情况,MDD分类准确率只提高了1.05%,但召回率提高了6.21%;在使用5×5&7×7多尺度卷积核的情况下,SEMod–VGG的分类准确率和召回率都得到了明显的提高,分别达到了95.76%和96.80%,相较于VGG–16模型,分别提高了4.14%和8.49%。

    以上结果表明,使用5×5&7×7的多尺度卷积核,可有效提高模型的分类准确率和召回率,对MDD的辅助诊断起到一定的优化作用。

    在第2.2节及第2.3节的实验中,分别研究了不同通道数目、不同输入特征以及不同尺寸卷积核对MDD检测性能的影响。下面分别对融合特征和模型改进对MDD检测模型影响大小进行验证。

    在3种特征输入下,分别对VGG–16模型,Mod–VGG模型以及SEMod–VGG的分类准确率和召回率进行对比验证。其结果见表3

    表  3  优化模型与传统模型的检测结果
    Table  3  Detection results for modified model and traditional model
    模型 准确率/% 召回率/%
    DE输入 PSD输入 融合特
    征输入
    DE输入 PSD输入 融合特
    征输入
    VGG–16 87.33 88.16 91.62 85.20 89.13 88.31
    Mod–VGG 88.72 91.04 92.96 90.63 88.82 91.97
    SEMod–VGG 90.57 91.62 95.76 88.38 93.04 96.80

    通过表3可以看出,在3种模型中,当输入所设计的融合特征时,模型的诊断准确率和召回率均有所提高,且相较于单一特征的输入,4维融合特征输入在3种模型下的诊断准确率平均提高了4.57%,召回率平均提高4.29%;在同种特征的输入下,模型的调整及激活函数的替换可以小幅度提升对MDD检测的准确率;加入SE–Net通道注意力机制后,SEMod–VGG模型对MDD的诊断准确率和召回率均得到有效提升,其诊断准确率平均提高了3.61%,召回率平均提高5.40%。

    综合上述分析,4维融合特征的输入以及网络模型的改进对MDD的诊断识别领域都具有一定的贡献,且相较于模型改进,融合特征对提高识别准确率所做出的贡献更大,而模型改进对提高模型的召回率贡献更大。

    此外,为了进一步验证所提出的SEMod–VGG模型对MDD诊断的有效性,分别将本文模型与LSTM&7L–CNN[7]、DBNs[8]、VGG–16[9]、HybridEEGNet[10]以及SparNet[12]等模型的识别准确率、召回率以及网络性能作对比,其识别准确率对比结果见表4

    表  4  不同模型使用MODMA数据集检测结果
    Table  4  Results for different model on the MODMA dataset
    模型 准确率/% 召回率/%
    3 通道 16通道 128通道 3 通道 16通道 128通道
    DBNs[7] 86.34 86.35 87.55 84.31 83.33 86.26
    LSTM&7L–CNN[8] 85.45 86.67 88.14 83.40 85.68 88.02
    VGG–16[9] 86.12 86.29 91.62 88.13 87.28 88.31
    HybridEEGNet[10] 88.25 90.17 92.30 89.10 92.76 95.39
    SparNet[12] 91.23 91.97 93.26 88.13 89.39 94.17
    Mod–VGG 90.12 91.87 92.96 91.15 90.79 91.97
    LSTMod–VGG 91.02 92.18 92.97 89.06 91.15 90.88
    SEMod–VGG 92.21 93.47 95.76 92.84 92.58 96.80

    通过表4可以看出,所提出的SEMod–VGG在3通道、16通道和128通道较传统的诊断识别方案或是近期所提出的MDD识别模型都取得了较大提升。其中,文中提出的SEMod–VGG在128通道的诊断准确率和召回率都达到最高水平,分别较VGG–16网络模型提高了4.14%和8.49%,较近期提出的网络模型HybridEEGNet和SparNet模型,准确率分别提升了3.46%和2.50%,召回率分别提升了1.41%和2.63%。这表明提出的基于EEG的SEMod–VGG重度抑郁症检测模型在时频域以及能量特征的学习方面要优于现有的模型。

    另外,为了验证基于SE–NET的通道注意力机制的有效性,将提出的SEMod–VGG与无注意力机制的Mod–VGG以及结合了LSTM的LSTMod–VGG的准确率和召回率进行对比验证。表4中实验结果表明,当使用4维融合特征作为输入时,注意力机制的加入可有效提高模型的诊断准确率,SE–NET在128通道输入下的准确率较LSTM提高了2.79%,较Mod–VGG提高了2.80%。召回率较LSTM模型提高了8.92%,较Mod–VGG提高了4.83%。

    上述结果进一步验证了基于SE–NET的通道注意力机制可以更好地利用与MDD相关度高的电极通道,提高其训练权重值,进而提升整体的检测准确率。

    传统的CNN能从EEG中提取频率和空间信息,LSTM只能提取脑电信号的时间和频率信息,将两者结合的LSTM&7L–CNN虽然能同时提取EEG的频率和时间信息,但未考虑能量属性,进而导致其准确率不高;直接调用VGG–16网络,虽然在128通道EEG信号上取得了较高的识别准确率,但其并没有区分不同通道的权重赋值,导致部分与MDD相关度较差的通道获得了较大的权重值,致使分类误差较大;HybridEEGNet模型同时使用两种不同大小的卷积核,分别学习EEG的同步特征和区域特征,但其将两种卷积核划分为两条不同的卷积路线,使得两种特征被独立分析计算,没有将同步特征和区域特征进行结合,致使对MDD的识别产生一定误差;SparNet模型与本文模型均采用了基于SE–Net的通道注意力机制,且诊断准确率得到了明显提升,但其只考虑了EEG中的频域特征,并没有针对MDD患者的情感表达进行分析,存在一定的局限性。

    为了验证改进的模型相较于前人研究的优势,对SEMod–VGG,VGG–16,HybridEEGNet和SparNet进行网络性能对比实验,通过损失曲线来分析网络性能。

    网络模型的性能对比如图6所示。通过图6可以看出,随着迭代次数的增加,SEMod–VGG网络的损失值下降更快,且更平稳。这表明其收敛速度更快更稳定,其网络性能较VGG–16、HybridEEGNet以及SparNet模型存在显著的提升。

    图  6  不同网络模型性能对比
    Fig.  6  Performance for different network
    下载: 全尺寸图片

    为了寻求最佳的MDD检测结果,对传统分类器,LSSVM以及本文构建的TCV–LSSVM分类器进行测试。各分类器在SEMod–VGG网络模型下的分类结果见表5

    表  5  不同分类器检测识别结果
    Table  5  Results of different classifiers
    分类器 准确率/% 召回率/%
    3 通道 16通道 128通道 3 通道 16通道 128通道
    KNN 82.54 82.94 84.11 81.50 83.03 74.10
    Softmax 85.06 86.36 88.92 83.01 86.30 88.88
    SVM 87.72 89.32 90.34 88.75 89.25 90.33
    LSSVM 89.24 91.73 93.88 90.34 91.78 93.81
    TCV–LSSVM 92.21 93.47 95.76 91.57 92.46 96.80

    通过表5可以看出,相较于传统的KNN和Softmax分类器,SVM在MDD识别领域具有优秀的表现,而以SVM为基础的LSSVM也取得了部分进步,而作者所构建的TCV–LSSVM分别在3通道输入,16通道输入和128通道输入的检测准确率分别达到了92.21%、93.47%和95.76%,召回率也分别达到了91.57%、92.46%以及96.80%。由此可见,相较于传统的分类器,作者所构建的TCV–LSSVM在MDD检测的分类结果更优秀。

    本文提出一种基于SE–NET优化的SEMod–VGG辅助MDD检测模型。根据EEG信号中所包含的DE特征和PSD特征,构建一种同时包含时频信息和功率信息的4维融合特征;针对该特征,对VGG–16模型进行改进,利用5×5和7×7混合尺度的卷积核来代替原有3×3卷积核,使得模型可更好地提取融合特征中的信息;针对EEG信号电极通道的权重差异,利用基于SE–Net的通道注意力机制,对与MDD相关度较高的通道进行重新标定,加重其在网络中的影响权重,削弱与MDD相关性较弱的通道权重;在LSSVM中加入10折交叉验证,使得提出的模型对MDD检测取得最优结果。最终,在MODMA数据集上的实验结果表明,文中提出的SEMod–VGG模型对MDD的诊断准确率和召回率都要高于现有的方案,且网络模型性能也有所提升。在后续的工作中,可以考虑利用生理视听情绪分析数据集(a dataset for emotion analysis using physiological and audiovisual signals,DEAP)数据集[32]对网络进行预训练,使得网络获取对EEG信号中情绪表达的敏感度,再通过对比HC与MDD患者情绪表达唤醒度、效价及优势度的区别,通过EEG或语音等多种模态的数据来进一步辅助判断MDD患者的患病程度,以实现对不同患病程度的抑郁症患者进行诊断。

  • 图  1   SEMod–VGG检测模型框架

    Fig.  1   Framework of SEMod–VGG auxiliary detection model

    下载: 全尺寸图片

    图  2   4维特征构建过程

    Fig.  2   Process of constructing the four–dimensional feature

    下载: 全尺寸图片

    图  3   SEMod–VGG模型结构

    Fig.  3   Struct of SEMod–VGG

    下载: 全尺寸图片

    图  4   Mod–VGG网络框架

    Fig.  4   Framework of Mod–VGG

    下载: 全尺寸图片

    图  5   通道注意力机制结构

    Fig.  5   Struct of channel attention mechanism

    下载: 全尺寸图片

    图  6   不同网络模型性能对比

    Fig.  6   Performance for different network

    下载: 全尺寸图片

    表  1   各通道下不同特征输入检测结果

    Table  1   Results for different feature and channels

    电极通
    道数
    准确率/% 召回率/%
    DE输入 PSD输入 融合特
    征输入
    DE输入 PSD输入 融合特
    征输入
    3 84.62 87.27 92.21 84.75 87.61 92.84
    16 87.34 90.61 93.47 92.89 91.87 92.58
    128 89.29 92.25 95.76 90.09 91.24 96.80

    表  2   不同尺度卷积核分类结果

    Table  2   Results for different size of convolution kernel

    卷积核
    尺寸
    准确率/% 召回率/%
    VGG–16 Mod–VGG SEMod–VGG VGG–16 Mod–VGG SEMod–VGG
    3×3 91.62 91.72 92.36 88.31 89.43 91.20
    5×5 91.43 92.04 92.91 91.88 90.82 91.68
    7×7 91.83 92.51 93.07 92.03 91.77 90.29
    3×3&5×5 92.30 92.81 94.22 90.10 93.57 93.05
    3×3&7×7 92.48 93.34 94.37 93.26 90.12 89.46
    5×5&7×7 92.67 92.96 95.76 94.52 91.97 96.80

    表  3   优化模型与传统模型的检测结果

    Table  3   Detection results for modified model and traditional model

    模型 准确率/% 召回率/%
    DE输入 PSD输入 融合特
    征输入
    DE输入 PSD输入 融合特
    征输入
    VGG–16 87.33 88.16 91.62 85.20 89.13 88.31
    Mod–VGG 88.72 91.04 92.96 90.63 88.82 91.97
    SEMod–VGG 90.57 91.62 95.76 88.38 93.04 96.80

    表  4   不同模型使用MODMA数据集检测结果

    Table  4   Results for different model on the MODMA dataset

    模型 准确率/% 召回率/%
    3 通道 16通道 128通道 3 通道 16通道 128通道
    DBNs[7] 86.34 86.35 87.55 84.31 83.33 86.26
    LSTM&7L–CNN[8] 85.45 86.67 88.14 83.40 85.68 88.02
    VGG–16[9] 86.12 86.29 91.62 88.13 87.28 88.31
    HybridEEGNet[10] 88.25 90.17 92.30 89.10 92.76 95.39
    SparNet[12] 91.23 91.97 93.26 88.13 89.39 94.17
    Mod–VGG 90.12 91.87 92.96 91.15 90.79 91.97
    LSTMod–VGG 91.02 92.18 92.97 89.06 91.15 90.88
    SEMod–VGG 92.21 93.47 95.76 92.84 92.58 96.80

    表  5   不同分类器检测识别结果

    Table  5   Results of different classifiers

    分类器 准确率/% 召回率/%
    3 通道 16通道 128通道 3 通道 16通道 128通道
    KNN 82.54 82.94 84.11 81.50 83.03 74.10
    Softmax 85.06 86.36 88.92 83.01 86.30 88.88
    SVM 87.72 89.32 90.34 88.75 89.25 90.33
    LSSVM 89.24 91.73 93.88 90.34 91.78 93.81
    TCV–LSSVM 92.21 93.47 95.76 91.57 92.46 96.80
  • [1] World Health Organization.Depression and other common mental disorders:global health estimates[EB/OL].Geneva:WHO,(2017−02−01)[2020−02−10].http://apps.who.int/iris/bitstream/10665/254610/1/WHO-MSD.
    [2] World Health Organization.World health statistics 2021[R].Geneva:WHO,2021.
    [3] 韩佳丽,丰雷.人工智能在抑郁症领域中应用的研究进展[J].北京医学,2020,42(4):317–319. doi: 10.15932/j.0253-9713.2020.04.013

    Han Jiali,Feng Lei.Research progress of artificial intelligence in the field of depression[J].Beijing Medical Journal,2020,42(4):317−319 doi: 10.15932/j.0253-9713.2020.04.013
    [4] Gayathiri R R,Devi M B,Kavya G A,et al.EEG based Visualization and Analysis of Emotional processing in Major Depressive Disorder[C]//Proceedings of the 2020 6th International Conference on Advanced Computing and Communication Systems (ICACCS).Coimbatore:IEEE,2020:336−341.
    [5] Hughes J R,John E R.Conventional and quantitative electroencephalography in psychiatry[J].The Journal of Neuropsychiatry and Clinical Neurosciences,1999,11(2):190–208. doi: 10.1176/jnp.11.2.190[PubMed
    [6] Hosseinifard B,Moradi M H,Rostami R.Classifying depression patients and normal subjects using machine learning techniques and nonlinear features from EEG signal[J].Computer Methods and Programs in Biomedicine,2013,109(3):339–345. doi: 10.1016/j.cmpb.2012.10.008[PubMed
    [7] Cai Hanshu,Sha Xiaocong,Han Xue,et al.Pervasive EEG diagnosis of depression using Deep Belief Network with three-electrodes EEG collector[C]//Proceedings of the 2016 IEEE International Conference on Bioinformatics and Biomedicine (BIBM).Shenzhen:IEEE,2017:1239−1246.
    [8] Ay B,Yildirim O,Talo M,et al.Automated depression detection using deep representation and sequence learning with EEG signals[J].Journal of Medical Systems,2019,43(7):1–12. doi: 10.1007/s10916-019-1345-y
    [9] Kwon H,Kang S,Park W,et al.Deep Learning based Pre-screening method for Depression with Imagery Frontal EEG Channels[C]//Proceedings of the 2019 International Conference on Information and Communication Technology Convergence (ICTC).Jeju:IEEE,2019:378−380.
    [10] Wan Zhijiang,Huang Jiajin,Zhang Hao,et al.HybridEEGNet:A convolutional neural network for EEG feature learning and depression discrimination[J].IEEE Access,2020,8:30332–30342. doi: 10.1109/ACCESS.2020.2971656
    [11] Zhang Yangting,Wang Kejie,Wei Yu,et al.Minimal EEG channel selection for depression detection with connectivity features during sleep[J].Computers in Biology and Medicine,2022,147:105690. doi: 10.1016/j.compbiomed.2022.105690[PubMed
    [12] Deng Xin,Fan Xufeng,Lv Xiangwei,et al.SparNet:A convolutional neural network for EEG space-frequency feature learning and depression discrimination[J].Frontiers in Neuroinformatics,2022,16:914823. doi: 10.3389/fninf.2022.914823[PubMed
    [13] Cai Hanshu,Yuan Zhenqin,Gao Yiwen,et al.A multi-modal open dataset for mental–disorder analysis[J].Scientific Data,2022,9:178. doi: 10.1038/s41597-022-01211-x
    [14] Kan D P X,Lee P F.Decrease alpha waves in depression:An electroencephalogram(EEG) study[C]//Proceedings of the 2015 International Conference on BioSignal Analysis,Processing and Systems (ICBAPS).Kuala Lumpur:IEEE,2015:156−161.
    [15] Knott V,Mahoney C,Kennedy S,et al.EEG power,frequency,asymmetry and coherence in male depression[J].Psychiatry Research,2001,106(2):123–140. doi: 10.1016/s0925-4927(00)00080-9[PubMed
    [16] Mahato S,Paul S.Classification of depression patients and normal subjects based on electroencephalogram (EEG) signal using alpha power and theta asymmetry[J].Journal of Medical Systems,2020,44(1):1–8. doi: 10.1007/s10916-019-1486-z
    [17] 李春彬.基于脑电信号的情感识别与抑郁症诊断[D].合肥:合肥工业大学,2020.

    Li Chunbin.Eeg-based emotion recognition and depression diagnosis[D].Hefei:Hefei University of Technology,2020.
    [18] Hjorth B.EEG analysis based on time domain properties[J].Electroencephalography and Clinical Neurophysiology,1970,29(3):306–310. doi: 10.1016/0013-4694(70)90143-4[PubMed
    [19] Shi Lichen,Jiao Yingying,Lu Baoliang.Differential entropy feature for EEG–based vigilance estimation[C]//Annual International Conference of the IEEE Engineering in Medicine and Biology Society.Osaka:IEEE,2013:6627−6630.
    [20] Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[EB/OL].(2015–04–10)[2022–05–01]https://arxiv.org/abs/1409.1556.
    [21] He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Deep residual learning for image recognition[C]//Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas:IEEE,2016:770−778.
    [22] Huang Gao,Liu Zhuang,Van Der Maaten L,et al.Densely connected convolutional networks[C]//Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu:IEEE,2017:2261−2269.
    [23] Demİr A,Yilmaz F.Inception–ResNet–v2 with leakyrelu and averagepooling for more reliable and accurate classification of chest X–ray images[C]//Proceedings of the 2020 Medical Technologies Congress (TIPTEKNO).Antalya:IEEE,2020:1−4
    [24] 高广尚.深度学习推荐模型中的注意力机制研究综述[J].计算机工程与应用,2022,58(9):9–18. doi: 10.3778/j.issn.1002-8331.2112-0382

    Gao Guangshang.Survey on attention mechanisms in deep learning recommendation models[J].Computer Engineering and Applications,2022,58(9):9–18 doi: 10.3778/j.issn.1002-8331.2112-0382
    [25] Hu Jie,Shen Li,Sun Gang.Squeeze-and-excitation networks[C]//Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:7132−7141.
    [26] Kramer O.K–nearest neighbors[M]//Dimensionality Reduction with Unsupervised Nearest Neighbors.Berlin:Springer,2013:13−23.
    [27] Qi Xingqun,Wang Tianhui,Liu Jiaming.Comparison of support vector machine and softmax classifiers in computer vision[C]//Proceedings of the 2017 Second International Conference on Mechanical,Control and Computer Engineering (ICMCCE).Harbin:IEEE,2018:151−155.
    [28] Vapnik V.The Nature of Statistical Learning Theory[M].Berlin:Springer,1999
    [29] Wang Haifeng,Hu Dejin.Comparison of SVM and LS-SVM for regression[C]//Proceedings of the 2005 International Conference on Neural Networks and Brain.Beijing:IEEE,2006:279−283.
    [30] Suykens J.A.K,Lukas L,Moor D,et al.Least squares support vector machine classifiers[J].Neural processing letters,1999,9(3):293–300. doi: 10.1023/A:1018628609742
    [31] 孙淑婷.基于脑电信号的抑郁识别及数据挖掘算法的研究[D].兰州:兰州大学,2017.

    Sun Shuting.A study of depression detection and data mining algorithm based on EEG signal[D].Lanzhou:Lanzhou University,2017.
    [32] Koelstra S,Muhl C,Soleymani M,et al.DEAP:A database for emotion Analysis;Using physiological signals[J].IEEE Transactions on Affective Computing,2012,3(1):18–31. doi: 10.1109/T-AFFC.2011.15
图(6)  /  表(5)

本文结构

    /

    返回文章
    返回