情感在相互理解中扮演着关键角色自然沟通在日常生活中。脑电图(EEG)、基于情感分类、被广泛利用领域的跨学科研究,因为情感表达的客观性。本文旨在介绍朝鲜连续情感数据库和研究大脑活动在情感处理。此外,我们选择emotion-related渠道验证生成的数据库使用支持向量机(SVM)。首先,我们记录EEG信号,从28日主题,收集调查大脑活动在大脑区域在观看影片剪辑五情绪(愤怒、兴奋、恐惧、悲伤、幸福)和一个中立的状态。我们分析EEG原始信号调查emotion-related大脑区域并选择合适的emotion-related渠道使用跨频段光谱功率,即。α和β的乐队。因此,我们选择八通道设置,即AF3-AF4, F3-F4, F7-F8,大脑和P7-P8,从统计和地形分析。我们执行使用SVM的分类和实现最好的精度94.27%当利用选定的频道设置五个情绪。总之,我们提供一个基本的情感数据库反映韩国感受和不同的情感的证据申请扩大面积。
情感是人类最重要的因素,在日常生活中起着至关重要的作用。与此同时,它提供了多样化的人类经验的信息。同样,人类和机器之间的情感互动日益关注的一个关键问题伴随着人工智能系统的最新发展。对于一个成功的情感分类的人类,这是最关键的一步来开发一种情感分类系统保证分类精度、鲁棒性与工件,和实际应用场景
在过去的几十年里,许多研究人员试图探讨生理信号,如脑电图(EEG)、心电图(ECG),皮肤温度(sk电讯)情感分类。生理信号提供更客观的和适当的信息代表情绪状态比脸和声音等行为反应(
然而,由于反应或更多的渠道一般记录脑电图(即原始信号,包括许多噪音。,body movement, muscle activity, and electrical power line), it is required to conduct the more sophisticated preprocessing and artifact removals. If raw EEG signals included many artifacts or are of low quality (e.g., noisy), we cannot achieve more stable results. To overcome these issues, it needs to implement good quality EEG signals throughout the sophisticated preprocessing steps ahead of emotion-related EEG feature extraction. As final outputs, we achieve reliable signals from raw EEG signals.
有几个脑电图情感数据库,即。情感分析、数据库(DEAP) [
在本文中,我们介绍了使用韩国影片剪辑和脑电图情感数据库验证生成的数据库。向这个目的,我们记录脑电图信号由主题情感的刺激,这是选择通过观看韩国影片剪辑。生成的数据库已经在一系列的预处理措施验证数据库的特征提取。预处理脑电图数据提取特征相应的情感和调查emotion-related通道组,研究大脑的激活相关的情绪处理与统计分析。最后,我们进行情感分类使用支持向量机(SVM)和评估的分类精度验证生成的数据库。主要贡献如下:
因为它使得基于脑电图我们收集连续情感数据库,复制使用韩国影片剪辑。
我们进行验证生成的数据库使用机器学习的方法,支持向量机(SVM)。
许多不同的情绪状态已定义,从基本情绪结合社会情绪。这样的分类一般分为两种方法,即、离散和维方法
一种方法是组织的主要情绪(例如,恐惧,悲伤,和幸福)匹配环境独特的参数,生理和行为。埃克曼的理论非常有影响力和他的面部表情作为一个离散模型的研究(
另一种方法,维度模型,描述了足够的空间设计的有限数量的潜在维度罗素(
脑电图(EEG)的测量大脑电活动产生的。EEG信号记录同时通过多种渠道在头皮上网站。脑电图信号是有益的工具,有很高的时间分辨率,是易于使用,不是入侵。脑电图记录时,国际频道10 - 20体系通常是建议作为标准布局(
脑电图信号通常可以表示为信号功率在不同频谱的分布。大脑神经活动与各种生理状态和心理功能在不同的频段
五个频段:δθ,α,β,γ。
| 频带 | 范围(赫兹) | 心理活动 |
|---|---|---|
| δ | 1 - 4 | 慢波睡眠(深),婴儿 |
| θ | 4 - 8 | 睡眠和做梦 |
| α | 8日至13日 | 放松,但意识到 |
| β | 13-30 | 警惕,思考,积极的精神状态 |
| γ |
|
超级大脑活动 |
根据研究,它不同于几赫兹,开始和结束的。此外,大多数研究都集中在α和β频段有关情感处理。众所周知,阿尔法乐队反映注意处理,和大脑中β频带反映情感和认知处理对应之前的研究(
当涉及到情感,事实证明,有相关的大脑区域的每个主要的情绪。例如,幸福激活大脑的几个区域,包括正确的额叶皮质。左额叶皮层的激活区域的恐惧。悲伤与活动增加右枕叶(
在以前的研究中,大部分的研究都是采用情绪处理后戴维森的模型(
同样,他们报告更高的频带(α,β)显著影响低频段(δθ)在情感分类。赵et al。
最近,许多研究人员试图利用机器学习方法分类情感如再(资讯)算法,支持向量机(SVM)和人工神经网络(ANN)。其中,支持向量机是比其他分类器更可取的有效性和准确性,然后,它普遍存在,用于情感分类(
郑et al。
根据穆哈马迪et al。
此外,一些研究提出了情感分类使用更多细分的情感类别,即。、愤怒、快乐、悲伤等等。Yousaf et al。
因此,因为它使得基于脑电图研究人员进行情感分类与机器学习方法使用所有或部分选定的渠道。同时,他们没有考虑大脑活动,然后随机选择通道。例如,枕叶与大脑的视觉作用,与情感处理。此外,从两到四情绪情感类别使用先前的研究。因为情绪价和唤醒水平有不同的特点,对应的类别应该更加细分,价和兴奋。例如,愤怒和悲伤等于唤醒水平,但价不同,由人类行为表现和感觉也不同的反应。因此,它更需要情感类别分为更适当的情感分类的详细类别根据拉塞尔(
我们选择60电影从韩国电影列表的情绪刺激释放过去十年由韩国电影协会(KOFIC)。所有电影也是年级作为老少皆宜的影片(额定)和排除限制级。同时,电影被排除在具体场景包含许多可恶的场景,即。,用刀刺伤一个人,突然惊讶。该调查使用纸进行了两次问卷调查。二百名参与者进行了调查(调查:一百六十参与者,第二个调查:四十参与者,年龄从15岁到50)。关于调查的详细信息如表所示
的详细的问卷调查,以选择情绪刺激。
| 调查 | 问题列表 |
|---|---|
| 1日调查(60电影海报) | (1)你看过电影吗? |
|
|
|
| 2调查(24影片剪辑) | (1)你看过电影吗? |
注意:(a)情绪刺激提取由一流的电影列表从韩国电影委员会(KOFIC) (2018)。(b)在第一次调查中,参与者没有看电影之前,去下一个问题。(c)自我评估人体模特(SAM)的规模从1(低)到9(非常高),规模5表示中立。
在第一次调查中,160名参与者被要求评价电影的感受,这是填写只有当他们从来没有见过。使用的评估标准是自我评估人体模特(山姆)
自我评估人体模特(SAM)改编与许可布拉德利(
在第二次调查中,40名学员不参与调查是谁要求观看影片剪辑后填写一份调查问卷。24影片剪辑准备4分钟评级使用维度模型根据第一调查。激发参与者的情绪状态,影片剪辑选择基于以下标准;(1)影片剪辑应该避免诱发多种情感,(2)影片剪辑应该理解参与者没有任何解释,和(3)影片剪辑应该引起一个有针对性的情感。
年代ec>所有科目都要求相匹配的评估情感刺激目标情感或不是在每个实验在实验中使用的基本情感类别和山姆。
表
平均值和标准偏差(SD)维度模型。
| 情感 | 价 | 唤醒 | ||
|---|---|---|---|---|
| 的意思是 | SD | 的意思是 | SD | |
| 愤怒 | 6。9 | 1.07 | 6。5 | 1.17 |
| 兴奋 | 5.5 | 1.17 | 6。8 | 1.12 |
| 恐惧 | 2.8 | 1.16 | 7.6 | 0.88 |
| 幸福 | 6。9 | 1.11 | 6。0 | 1.13 |
| 悲伤 | 3所示。3 | 1.12 | 3所示。3 | 1.14 |
| 中性 | 4.3 | 1.15 | 4.5 | 1.44 |
注意:(1)测量:分数。(2)评分:1 =非常弱,5 =中立,9 =很强。
如图
愤怒:资深律师(2013),(2016)
兴奋:咆哮的电流(2014),小偷(2012)
恐惧:火车去釜山(2016 2剪辑)
幸福:阳光(2011),速度丑闻(2008)
悲伤:奇迹在细胞7号(2012),秘密大大(2013)
正确的目标识别情感:手段和标准偏差(SD)的情感识别精度(%)。中性的被公认为最好的精度,而愤怒是最糟糕的。
示例场景的影片剪辑。
| 情感 | 电影的场景 | |
|---|---|---|
| 愤怒 |
|
|
| 律师(2013) | 资深(2016) | |
| 兴奋 |
|
|
| 咆哮的屏幕(2014) | 小偷(2012) | |
| 恐惧 |
|
|
| 火车去釜山(2016) | 火车去釜山(2016) | |
| 幸福 |
|
|
| 阳光(2011) | 速度丑闻(2008) | |
| 悲伤 |
|
|
| 在细胞没有奇迹。7 (2012) | 秘密大大(2013) | |
| 中性 |
|
|
| 黑色屏幕crossmark | 黑色屏幕crossmark | |
我们还增加了中性状态作为一种控制状态(
本研究的指导下进行使用人体机构审查委员会批准的延世大学(IRB)(批准号7001988 - 201807 -人力资源- 424 - 03)。所有受试者签署书面知情同意之前的实验,收到了30000韩元(26美元)。
年代ec>28健康受试者(13个男性和15个女性;年龄从20到35岁;意味着= 24.46;SD = 3.74),右撇子的人,参加了实验。所有受试者在延世大学研究生或本科生。他们之前也没有神经或精神疾病和正常视力或矫正视力正常。类似地,每个参与者都要求放弃咖啡因,烟草和酒精使用实验前24小时。
年代ec>实验在延世大学执行在一个安静的房间。我们控制了声音和光线条件。参与者被要求坐在舒适的椅子前面的班长。实验介绍了监控。参与者正确理解指令后,按键盘上的任意键继续下一步。接下来,屏幕黑了5秒,先后情感影片剪辑被显示在监视器上。
实验过程如图
实验过程(6×2次试验)。每个会话包含6试验;总共有12个试验记录为每个主题。每个试验以随机的顺序呈现,和一个会话持续了大约30分钟。
进行了脑电图记录Emotiv EPOC无线耳机(Neuro-sky Inc .)和14频道:AF3, AF4, F7, F8, F3, F4, FC5, FC6, T7, T8, P7, P8, O1、O2。通道被根据国际10 - 20系统和用作共同点参考(左和右乳突)。采样率为128 Hz,每个通道一直不到的迫切
记录脑电图数据进行预处理步骤如下:通道位置,分割,re-reference和过滤。首先,原始EEG信号重新定义为设备通道的位置。原始数据分为12个试验分别在情感分类。提取分割后,每个数据从60秒到180秒使用更多的引起情绪反应。改变了原始的脑电图信号平均归一化,适用于平均值在所有频道。提取带通滤波器截止频率较低的0.1赫兹和更高的45赫兹截止频率,消除工件,包括眨眼睛,眼球运动,肌肉活动,和心脏的信号。
年代ec>为验证生成的脑电图数据库,我们提取emotion-related脑电图特征。我们进行统计分析(重复测量方差分析(方差分析))依照地形分析大脑映射。我们进行了重复测量混合设计方差分析使用的变量:情绪状态和频道网站和频带。所有统计分析中的显著性水平被认为是0.05 (
频带:α/β(8-30 Hz)乐队与所有(1-45 Hz)乐队
脑电图渠道:前额叶(AF3 AF4)额(F3, F4, FC5、FC6 F7,和F8)、时间(T7、T8),顶叶(P7, P8)和枕(O1、O2)
因此,我们证实了情绪×频带之间的相关性×通道交互影响是非常重要的
结果的重复测量方差分析(方差分析),
| 因素 |
|
效果 |
|---|---|---|
| 渠道∗乐队 |
|
Two-interaction |
|
|
||
| 情绪∗∗乐队渠道 | 0.014 | 三个交互方式 |
注意:(1)
我们还证实每个情感和频带通道对解释频段×通道交互使用
配对的结果
| 通道 | 愤怒 | 兴奋 | 恐惧 | 幸福 | 中性 | 悲伤 | |||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 的意思是 | SD | 的意思是 | SD | 的意思是 | SD | 的意思是 | SD | 的意思是 | SD | 的意思是 | SD | ||
| 1 | Alpha_AF3 | 7.53 | 4.86 |
|
7.00 | 8.23 | 4.51 | 20.14 | 4.18 | 4.22 | 0.17 | 13.89 | 1.80 |
| Alpha_AF4 | 10.10 | 7.50 |
|
4.52 | 11.65 | 4.80 | 12.57 | 6.94 | 4.22 | 0.16 | 14.70 | 5.38 | |
|
|
|||||||||||||
| 2 | Alpha_F3 | 10.39 | 4.26 | 16.08 | 21.09 | 8.64 | 9.21 | 8.81 | 6.49 | 4.33 | 1.09 | 6.29 | 3.24 |
| Alpha_F4 | 25.75 | 7.43 | 6.30 | 3.55 | 6.47 | 4.50 | 8.25 | 7.32 | 4.17 | 0.21 | 5.39 | 3.22 | |
|
|
|||||||||||||
| 3 | Alpha_F7 | 17.21 | 38.95 | 12.30 | 4.44 | 15.95 | 7.00 | 16.95 | 13.66 | 8.41 | 5.38 | 11.21 | 5.12 |
| Alpha_F8 | 14.94 | 9.58 | 14.67 | 9.41 | 15.76 | 9.00 | 15.03 | 8.10 | 5.43 | 2.84 | 12.16 | 6.17 | |
|
|
|||||||||||||
| 4 | Alpha_FC5 | 9.75 | 8.47 | 7.65 | 5.48 | 10.44 | 6.69 | 7.54 | 4.01 | 11.67 | 7.52 | 15.29 | 4.01 |
| Alpha_FC6 | 9.63 | 8.72 | 10.86 | 8.45 | 8.50 | 4.78 | 15.35 | 20.52 | 13.08 | 5.47 | 11.33 | 8.39 | |
|
|
|||||||||||||
| 5 | Alpha_O1 | 14.65 | 20.82 | 11.88 | 5.99 | 36.13 | 11.95 | 16.78 | 21.78 | 12.45 | 8.81 | 11.87 | 4.87 |
| Alpha_O2 | 10.63 | 9.85 | 19.27 | 20.80 | 17.67 | 9.24 | 13.19 | 25.73 | 13.53 | 5.21 | 12.27 | 9.61 | |
|
|
|||||||||||||
| 6 | Alpha_P7 | 18.05 | 9.88 | 18.78 | 17.79 | 20.77 | 7.53 | 21.04 | 11.94 | 6.39 | 3.76 | 27。 |
9.61 |
| Alpha_P8 | 12.54 | 4.36 | 13.05 | 10.91 | 33.37 | 12.11 | 14.00 | 6.90 | 9.62 | 6.34 |
|
7.90 | |
|
|
|||||||||||||
| 7 | Alpha_T7 | 9.26 | 4.37 | 9.57 | 6.93 | 18.70 | 8.87 | 14.00 | 6.90 | 15.40 | 6.42 | 12.23 | 3.01 |
| Alpha_T8 | 8.84 | 2.99 | 11.23 | 5.83 | 11.68 | 7.15 | 10.99 | 4.61 | 13.47 | 8.99 | 9.22 | 3.84 | |
|
|
|||||||||||||
| 8 | Beta_AF3 | 16.40 | 12.22 | 30.81 | 7.74 |
|
4.66 |
|
11.12 | 16.42 | 5.25 |
|
5.12 |
| Beta_AF4 | 12.52 | 11.57 | 11.23 | 5.83 |
|
5.11 |
|
7.93 | 19.63 | 7.97 |
|
8.31 | |
|
|
|||||||||||||
| 9 | Beta_F3 | 17.39 | 9.36 | 13.91 | 8.78 | 17.83 | 4.38 | 14.65 | 15.33 | 11.24 | 7.96 | 11.83 | 9.48 |
| Beta_F4 | 31.03 | 10.23 | 13.28 | 14.00 | 13.07 | 14.61 | 11.44 | 13.64 | 9.03 | 4.55 | 10.46 | 9.13 | |
|
|
|||||||||||||
| 10 | Beta_F7 | 20.52 | 27.57 | 17.73 | 7.58 |
|
7.79 | 20.72 | 21.24 | 16.06 | 9.68 | 14.51 | 8.83 |
| Beta_F8 | 17.92 | 12.08 | 20.08 | 10.34 |
|
16.26 | 18.40 | 14.99 | 17.98 | 5.58 | 16.76 | 13.64 | |
|
|
|||||||||||||
| 11 | Beta_FC5 | 17.56 | 9.88 | 14.20 | 7.95 | 17.55 | 8.01 | 17.54 | 11.13 | 21.10 | 9.44 | 20.35 | 14.60 |
| Beta_FC6 | 19.69 | 13.80 | 24.71 | 21.46 | 20.65 | 9.16 | 23.48 | 20.62 | 23.15 | 10.22 | 21.07 | 2.39 | |
|
|
|||||||||||||
| 12 | Beta_O1 | 15.87 | 13.97 | 14.97 | 6.03 | 13.78 | 6.88 | 13.3 | 4.48 | 16.74 | 7.73 | 12.83 | 3.86 |
| Beta_O2 | 19.59 | 25.85 | 20.88 | 21.88 | 14.55 | 10.23 | 15.35 | 12.14 | 20.99 | 11.18 | 14.44 | 6.35 | |
|
|
|||||||||||||
| 13 | Beta_P7 | 31.36 | 10.33 | 31.37 | 55.05 | 20.20 | 10.00 | 19.48 | 9.47 | 18.11 | 9.20 | 22.90 | 11.34 |
| Beta_P8 | 14.41 | 6.03 | 50.54 | 39.73 | 23.29 | 15.64 | 12.70 | 5.98 | 14.19 | 6.70 | 14.44 | 9.12 | |
|
|
|||||||||||||
| 14 | Beta_T7 | 35.76 | 32.39 | 30.55 | 24.10 | 13.70 | 8.87 | 23.53 | 16.19 | 27.81 | 15.93 | 26.34 | 8.78 |
| Beta_T8 | 44.72 | 80.05 | 29.24 | 20.13 | 11.68 | 7.31 | 22.27 | 25.07 | 32.77 | 17.84 | 24.44 | 14.80 | |
在这篇文章中,我们生成的脑电图威尼斯平底渔船地图,他们与统计结果来检查大脑活动。呈现的是大脑区域分为不同区域:额(F)、时间(T)顶叶(P)和枕(O)进行分析
如数据所示
大脑映射地形特定波段之间的相关系数和情感状态,使用光谱功率愤怒、悲伤和恐惧。两支乐队,愤怒和悲伤被激活在右额叶,左额叶激活而兴奋。恐惧只是激活β频带。
大脑映射地形特定的乐队和情绪状态之间的相关系数,使用光谱功率幸福,兴奋,和中立。幸福和兴奋的左额叶激活。然而,它不是发现作为一个有效面积处于中立状态。
如图
如图
我们进行了两种分析方法的选择emotion-related频道。大部分的情绪,除了中性状态,激活前额叶和额叶。的负面情绪,愤怒,恐惧,悲伤,激活相关正确的额叶,而积极的情绪,快乐和兴奋,被激活的左额叶,尤其是前额叶。结果,我们建议emotion-related渠道:AF3-AF4, F3-F4, F7-F8, P7-P8 F7-F8, O1-O2。O1-O2而言,它们放在枕叶,负责分析大脑的vision-related功能。因此,我们排除了
验证数据库生成的脑电图,我们采用光谱力量:渠道的总能源强度在特定地区在每个频带。光谱功率是最常见的一个特征定义和提取信号的特征(
我们提取的光谱功率从每个通道脑电图信号从1级到45赫兹。我们进行快速傅里叶变换(FFT) half-overlapped 1−
EEG信号作为特征向量构造成两种类型的频带使用光谱(α和β与所有乐队)的力量。实验条件是有组织的如下:
频带:α/β(8-30 Hz)乐队与所有(1-45 Hz)乐队
情感类别:六种情绪(愤怒、兴奋、恐惧,快乐,中性,和悲伤)和五个情绪(愤怒、兴奋、恐惧,快乐,悲伤)
渠道:所有渠道(14频道)和选定的频道(8通道)。
脑电图信号特征向量用一个样本长度512样品(4秒)的生成步骤128样品(1秒)。由于工件去除EEG信号进行预处理,数据大小是不同的从426年到642年样本的情绪。总样本是3195。样本数据的细节描述在表大小
样本数据的大小。
| 培训 | 测试 | 总 | |
|---|---|---|---|
| 愤怒 | 514年 | 128年 | 642年 |
| 兴奋 | 455年 | 114年 | 569年 |
| 恐惧 | 387年 | 97年 | 483年 |
| 幸福 | 427年 | 107年 | 534年 |
| 悲伤 | 342年 | 85年 | 426年 |
| 中性 | 432年 | 108年 | 540年 |
输入特征向量转化为线性可分维特征空间的映射函数来解决非线性问题。在这项研究中,采用5倍交叉验证。数据集随机分为五个子集(等于或约)。
年代ec>我们使用SVM分类器进行分类提出了渠道的情绪状态,采用径向基函数(RBF)的内核。支持向量机分类器还实现了用sklearn python (
我们也使用一个网格实现最优hyperparameter搜索。网格搜索寻找最佳执行hyperparameter价值观和优化分类,这是一个适当的参数设置,可以提高分类准确率
参数
另一个参数γ
在之前的研究中,他们调整了参数改善情感分类;所有相关参数
图
参数C: 0, 1000
参数
使用网格搜索方法寻找最佳hyperparameter: hyperparameter实现是最好的
在这两种情绪,最好的hyperparameter使用
表
情感分类精度从不同渠道基于支持向量机使用网格搜索。
| 情感<年代up>1)年代up> | 频段 | Hyperparameter | 所有渠道<年代up>2)年代up> | 选定的通道<年代up>3)年代up> |
|---|---|---|---|---|
| 所有的情感 |
所有的乐队 |
|
71.86 |
|
| α+β |
|
79.97 |
|
|
|
|
84.11 |
|
||
|
|
||||
| 5的情绪 |
所有的乐队 |
|
80.85 |
|
| α+β |
|
89.28 |
|
|
|
|
91.20 |
|
||
注意:
最好的精度是94.72%使用五情绪与α和β乐队,这是比使用所有频道在91.20%高出3.07%。在所有条件下,使用该频道显示情感分类精度高于使用所有频道。此外,α和β频段(8-30 Hz)实现精度高于所有频段(1-45赫兹)。
图
混淆矩阵使用提出渠道与α和β频段(8-30 Hz);(一)6情绪(左,88.27%),(b) 5情绪(对,94.27%)(
在本文中,我们介绍以脑波图为基础的韩国情感数据库并验证生成的数据库使用情感分类。我们因为它使得基于脑电图描述小说连续情感数据库,其中包括20受试者在观看情绪刺激引起特定的情感。我们获得了八频道,AF3-AF4 F3-F4, F7-F8, P7-P8,反映在情感激活。
此外,我们进行支持向量机(SVM)来验证的有效性提出emotion-related频道。分类性能由多样化的配置使用渠道,频带和情绪。结果,最佳精度达到94.27%使用五情绪与α和β的乐队。总之,本研究验证的有效性提出了脑电图emotion-related渠道和介绍了韩国脑电图情感数据库因为它使得基于脑电图的情感识别。
虽然我们只使用功率谱特性,我们实现一个精度高。我们建议进一步研究。首先,它需要和细分情绪扩展到更具体的情感因为它使得基于脑电图分类维度空间改善情感分类。此外,不同的机器学习技术和特征提取方法选择emotion-related通道有望获得更高的精度。鉴于EEG信号中提取了emotion-related新奇特性,深刻的学习方法更好的表示和分类在许多时间序列问题时正确地配置和培训。在未来的发展方向,通过顺序可能会进一步提高准确率模型如复发性神经网络(RNNs)和多空内存(LSTM),因为脑电图信号时间序列数据。
总之,这些研究结果可以提供一个基准数据库利用跨学科研究的行为和情感分析。它也将支持情感分类基于我们提出emotion-related渠道使用机器学习算法。这也为他们提供了多样化的使用,如跨语言和跨文化比较研究。
年代ec>由于数据包含个人信息,它不能被公开。当事人可以请求数据从第一作者。知情同意是获得所有受试者参与这项研究。取得书面知情同意的主题发表这篇论文。
年代ec>作者宣称没有利益冲突。
年代ec>这项研究受到了教育部的大韩民国和韩国国家研究基金会(nrf - 2021 s1a5a8070305)。