复杂性 复杂性 1099 - 0526 1076 - 2787 Hindawi 10.1155 / 2021/9986920 9986920 研究文章 混合深度学习情绪分析模型 https://orcid.org/0000 - 0001 - 6979 - 9197 见鬼 Cach N。 1 2 3 Moreno-Garcia 玛丽亚N。 2 De la它 费尔南多 3 1 信息技术部门 胡志明市交通大学(UT-HCMC) 70000年胡志明 越南 2 数据挖掘(米达)研究小组 萨拉曼卡大学 萨拉曼卡37007 西班牙 usal.es 3 生物技术 智能系统和教育技术(BISITE)研究小组 萨拉曼卡大学 萨拉曼卡37007 西班牙 usal.es 2021年 13 8 2021年 2021年 2 4 2021年 6 8 2021年 13 8 2021年 2021年 版权©2021 Cach n .党et al。 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

情绪分析在社交网络民意表达,如Twitter或Facebook,已经发展成为一个广泛的应用,但仍有许多需要解决的挑战。混合动力技术是减少对日益复杂的情绪错误的潜在模型训练数据。本文旨在测试几种混合的可靠性技术在各种不同领域的数据集。我们的研究旨在确定问题是否可以生产多种不同规格的混合模型比单一模型域和类型的数据集。混合深层情绪分析学习模型,结合长期短期记忆(LSTM)网络、卷积神经网络(CNN)和支持向量机(SVM)是建立和测试在八个文本消息和评论数据集不同的域。混合模型对三种单一模型相比,支持向量机,LSTM, CNN。可靠性和计算时间被认为是在每个技术的评价。混合模型增加了情感分析的准确性与单一模型在所有类型的数据集,特别是深度学习模型与支持向量机的组合。后者的可靠性显著提高。

西班牙政府 欧洲区域发展基金 rti2018 - 095390 b - c32
1。介绍

情绪分析从社交网络上信息,如Twitter或Facebook,今天是越来越感兴趣的研究课题。虽然在这个地区已经完成了大量的工作,仍然有许多需要解决的挑战,包括改善模型的可靠性,减少处理时间,并应用技术开发为特定类型的数据和特定的数据域( 1]。近年来,深度学习模型被广泛应用于情感分析领域,已经证明他们的巨大的潜力。

几项研究只关注构建一个模型从一个(或一些)数据集(s)在一个特定的领域,如营销策略( 2)、财务预测( 3- - - - - - 5),和医学分析( 6, 7]。对于社交网络的应用程序,情绪极性基础深度学习应用于微博彻底描述( 8- - - - - - 14]。哈桑和马哈茂德 15]证明了CNN和递归神经网络(RNN)模型可以克服短在深度学习模型的缺点。此外,钱等的研究。 16)透露,LSTM行为有效地使用时在不同文本的水平weather-and-mood tweet。在回顾一些最近的研究( 1, 11, 12, 15, 17- - - - - - 20.),我们发现,CNN和RNN优于方法有相对较高的整体精度。两个浅神经网络和深神经网络可以逼近任意函数。然而,当对比浅神经网络,神经网络的优点是能做特征提取的过程中学习在大型数据集。这主要是因为深模型能够比浅模型提取/构建更好的特性,使用中间隐藏层来实现这一目标( 21, 22]。相同级别的准确性,深层神经网络可以更有效的计算和参数的数量。深层神经网络能够创建深表示;在每一层,网络学习一个新的、更抽象表示的输入。

虽然一个相对可靠的应用机器学习方法在一定的领域,每个深度学习方法都有自己的优点和缺点。LSTM通常会产生更好的效果比CNN,但需要更多的处理时间和CNN需要较少的hyperparameters和监督。与此同时,LSTM长句子更准确地执行,但需要更长的时间来处理( 1]。

相结合的方式介绍了两个(或更多)的方法( 23- - - - - - 25)作为一种结合两者的优点,从而填补了单个方法的一些缺点。Alfrjani et al。 25)结合机器学习和语义知识库为提高精度的情绪分析评论(提高1%到6%)。在另一起案件中,古普塔和乔希 23]提出了一种混合方法,结合词汇和机器学习的情绪分析tweet(提高2%到6%)。混合动力系统与协作功能,因此,能够更好地解决潜在的陷阱,如果任何存在,与一个单一的系统。集成模型的有效性基于不同的任务可能会有所不同。CNN增强了支持向量机( 26- - - - - - 28],CNN与RNN [ 29日- - - - - - 32),和Lexicon-based分析与机器学习 33, 34)显示一个增强的结果。CNN的结合、LSTM和支持向量机的目标是利用两个深层网络体系结构模型和支持向量机算法在执行情绪分析在不同的域和类型的数据集。此外,有不同类型的输入数据来自社交网络、微博和评论等。内和在这些类型,输入数据也有差异,例如,长度的分布的微博和评论,在每个数据集主题的多样性,样本量,或多或少存在明确的观点和无关的信息。一些方法可能无法执行在不同的领域,在情绪分析精度和性能不足 1, 35]。因此,某些方法可能不适应,难以适用于某些类型的输入数据。

一个问题在我们的研究是混合模型执行比单一模型无论数据集的特征。因此,我们的工作检查选择的混合模型如何与来自不同领域的不同类型的数据集。在这项工作中,我们评估和验证三种模式相结合的CNN, LSTM和支持向量机。我们考虑之间的关系模型和其先进的能力来提取特征,存储过去的信息和节点,并对文本进行分类。首先,在模型的初始阶段,两种可能的变化的顺序介绍了CNN和LSTM。然后,对于每一个替代方案,介绍了两个新变化:CNN ReLU函数和支持向量机的使用。我们应用这些模型与字嵌入在八个数据集,包括微博和评论。我们的实验结果表明,该组合模型增加了情感分析的准确性。

提出了三个重要贡献文献通过强调四个混合深度学习模型的情感分析结果准确性的提高,不管社交网络数据集的类型;提供一个实验研究来评估性能的混合深度学习模型;和详细的性能比较情绪分析方法与技术发展水平的方法。

本文组织如下。部分 2概述相关工作;部分 3描述的方法在这个研究领域;部分 4包含该混合模型;部分 5描述和讨论了我们的实验结果;和第六节提供了我们的结论。

2。相关工作

本研究的目的是为情绪分析,建立混合模型可以提高准确性。之前我们有检查和应用提出的方法在其他的研究中,讨论如下。

有很多方法可以建立混合模型。在[ 26- - - - - - 28),作者CNN模型和支持向量机相结合,可以提高图像识别的准确性。卷积网络层用于特征提取和支持向量机的功能作为一个识别器。原来的CNN使用Softmax功能。Srinidhi et al。 36)提出了一个混合模型,结合LSTM和SVM文本分类的径向基函数内核的积极和消极情绪。IMDb上的混合模型是评价电影评论数据集。这些模型从单一的深度学习模型与支持向量机相结合的分类。他们中的一些人是图像识别的应用。我们的研究结合了两种深度学习模型,然后使用支持向量机或ReLU分类。

艾克塔等。 37)建立了一个混合深度学习架构,高效的情绪分析资源贫乏的语言。他们用CNN嵌入式向量和学习情绪情感分类的支持向量机。模型测试四个印地语数据集覆盖不同的域。签证官et al。 31日)一个多通道LSTM-CNN模型用于情绪分析电子商务网站的评价/评论。此外,混合CNN-LSTM模型适用于对电影评论情感分析拉赫曼et al。 30.]。在几个作品使用了相同的技术,例如,( 29日, 38- - - - - - 40]。Kaur et al。 41)设计一个算法称为混合异构支持向量机(H-SVM)。他们在Twitter上进行情感分析数据与COVID-19有关。Kastrati et al。 42)使用三个不同的深度学习模型如CNN, LSTM, CNN-LSTM分类Facebook评论相关COVID-19大流行。他们使用pretrained字嵌入方法称为FastText(扩展Word2vec Facebook在2016年提出的)和一个更符合实际的词嵌入模型,伯特,学习和生成词向量。两个研究得分的微博/评论积极、消极或中性的。然而,这些模型都是单独测试在不同的数据集在一个特定的域或一些示例数据集上测试过。因此,他们通常没有证明有效性。

一项由Jnoub et al。 19)关注情绪分析提供了一个通用模型,结合CNN和自己的评价向量算法变换。模型评估在三个不同的数据集:IMDb,电影评论,和他们自己的数据集收集从亚马逊的评论。Ombabi et al。 43)提出了一个混合学习模式,它结合了CNN和LTSM深处。此外,FastText用于词嵌入和支持向量机分类的阿拉伯语。在我们的工作中,嵌入Word2vec和伯特都申请了词。我们提出了四种类型的混合深度学习模型基于CNN, LSTM和SVM分类两个微博和评论。

此外,其他研究Lexicon-based分析与机器学习相结合( 33, 34)或情感词典和极性转换设备( 44]。这项研究由Sanchez-Rada和伊格莱西亚斯 24)处理用户和内容情绪分类的问题。他们提出了一个混合模型合并功能从不同层次的社会背景。在不同的数据集模型评估。王等人的一项研究。 45)提出了一种混合方法,关于电影评论的情感分析是用来改善获得初步推荐列表的组合协同过滤和基于内容的方法。在相同的方法中,使用情绪分类器诱导从影评作为第二滤波器提出了协同过滤后Pandey et al。 10]。这些研究项目使用传统技术进行情感分析。我们的研究应用深度学习的技术改善情绪分类的准确性。

最近,转移学习已经成功地应用于情绪分析,较低的网络层的张来武监督训练数据集,如伯特(谷歌研究人员提出的人工智能语言(2018年 46])和XLNET [ 47]。的例子可以发现在 48- - - - - - 51),伯特和XLNET申请情绪分析。不同的数据集和语言的评价提供了重要的结果。不过,它也需要足够强大的硬件,处理大型数据集,长期应用这些技术的时候。例如,BERT-Base模型拥有110参数,和BERT-Large模型拥有340参数:pretraining相当昂贵,需要四天时间在4到16日云tpu。

3所示。方法

考虑所有的优势和潜在的混合模型和针对改善情绪的性能分析技术,我们的论文评估四个混合模型。方法主要集中在三个主要部分:数据使用;过程构建特征向量;建立一个适当的混合方法情绪分析解决方案。这些算法应用于预测文本的情感极性和分类,根据极性。

3.1。数据集

我们的研究没有关注解决问题在一个特定的域,而是提供一个评估的一般应用模型。在这项研究中,我们使用一些公共数据集生成和标签的新数据集的一个特定的应用程序域。多种选择标准被认为是包括避免隐私问题的能力( 52),接受在研究社区,来源和主题的多样性,和大小。所选择的数据集使情绪的综合比较分析方法研究了本文。实验的目的是了解是否数据集的模型给一贯准确的结果无论类型和大小。

实验使用八个数据集。三个数据集包含tweet (Sentiment140、推特航空公司和tweet SemEval)和五个数据集包含评论(IMDb影评(1)和(2)和康奈尔电影评论)。微博数据集,Sentiment140 [ 53),最大的,有160万条,每一个贴上或正面或负面情绪,而其他人,推特航空公司( 54]和tweet SemEval [ 55),包含14640和17750条,分别贴上积极、消极或中性的。五个评估数据集包括共有125000条评论用户评论的电影(IMDb影评(1) 56),IMDb影评(2)( 57,康奈尔影评( 58)、书籍和音乐(书和音乐评论( 59]),贴上或正面或负面情绪。他们将更详细地讨论在 1]。

研究收集到的数据集后,我们看到的八个数据集最初贴上积极和消极,和每个标签的样本相对平等。这两个数据集航空公司和Tweet SemEval包含不仅正面和负面标签,而且中性标签。拥有一个平衡的类分布是很重要的,确保先验概率不偏向训练分类模型和做 60]。在这个研究中,我们专注于极性情感分析,基于积极的和消极的两类。这些数据集的大小降低了移除中性标签。剩下的积极和消极类是调整平衡。另外,我们应用k-fold交叉验证的数据以评估模型。通过这种方式,覆盖所有的测试数据集的实例避免偏向特定数据的子集。表 1显示(正面和负面)采集样本的数量从每个数据集进行实验。

数量的样本数据集。

# 数据集 数量的样品
1 Sentiment140 (10%) 160.000
2 推特航空公司 4.726
3 tweet SemEval 9.300
4 IMDb影评(1) 50.000
5 IMDb电影评论(2) 25.000
6 康奈尔大学的影评 10.662
7 书评 2.000
8 音乐评论 2.000
3.2。预处理和建筑特征向量

情绪可以进行分类提取的三个层次:文档,句子,和方面或特性 61年]。在我们的实验中,我们应用基于文档的情感分析与字嵌入技术八个数据集的微博和评论。情绪分析要求在使用前清洗text-training数据作为输入的分类模型。无关信息在句子文本或数据,包括空格、标点符号,并停止的话,删除。两种技术常用TF-IDF该任务和嵌入。我们的建议使用后者,因为它提供了更好的结果比TF-IDF [ 1]。然后我们使用字嵌入模型,伯特和Word2vec,构建特征向量。

伯特是自然语言处理的语言模型,它是2018年由谷歌研究人员人工智能语言出版( 46]。伯特Word2vec后开发,包括一些在Word2vec进步,比如支持词汇表之外(OOV)的话。

托马斯Mikolov Word2vec出版于2013年的谷歌( 62年]。这种无监督学习模型从一个大型语料库训练数据集。Word2vec的维数远小于一个炎热的维数编码,与一个矩阵的NxD, N是文档的数量和D字嵌入的维度。Word2vec包含两个模型:skip-gram和连续bag-of-words (CBOW)。两种模型都是基于词的概率发生在接近对方。Skip-gram允许我们从单词开始,预测的话,可能环绕它。然而,使用Word2vec的主要缺点之一是缺乏支持词汇表之外的词汇。为了解决这个问题,我们使用特殊标记(UNK)单词中从未出现过的词汇。此外,我们还再培训Word2vec模型根据我们的数据集和所有词汇出现的五倍多,减少了使用的特殊令牌。

进行情感分析模型的一个问题是数据集的不同长度的样品。而深的学习模型需要固定的输入向量。数据 1 2直方图显示数据集的评论和微博后清洗。的 x设在代表样本数据的长度, y设在出现的频率。一些直方图是相当粗糙的,因为我们选择了来自不同来源的不同类型的数据集。标准化数据平滑轮廓基于样本大小可能符合模型( 63年]。在这项研究中,我们几乎保持原始数据的情绪分析的目的创造必要的条件比较其他模型的效率。

直方图不同长度的数据样本的评论数据集。

直方图不同长度的数据样本的微博数据集。

我们可以看到在图 1 2数据样本非常多样的长度。因此,有必要将样本数据设置为相同的长度。转换的数据样本相同的长度做如下调整。

对于每个数据集,我们选择一个固定长度 d ;对样品短于 d 结束,我们添加零向量。反之亦然,在样本长度大于 d ,必被剪除。然而,删除数据样本的长度将导致损失的信息分类中使用的过程,所以它是重要的选择一个固定长度 d 尽量减少截断数据的样本。在这项研究中,我们使用微博和评论数据集对我们提出的模型。我们截断任何tweet或者审查它的长度比特征向量的长度长。特征向量的长度选择接近最大长度的微博和评论,所以很少在数据集样本被截断。这通常在其他作品( 30., 64年- - - - - - 66年]。

固定的长度 d 选择如下:数据集相关微博通常有一个小的长度变化由于限制最多280个字符的tweet;因此,这个固定长度 d 是选择的样本数据集的最大长度。剩下的数据集的长度 d 选择从300年到500年,基于每一个数据集的直方图。有可能需要一个固定的长度 d 不同的长度,而是微博和评论。然而,如果设置长度 d 比较大,它会浪费多少内存,如果设置长度 d 更小,它将错过一些审查数据。

3.3。混合的方法

有许多方法来建立情感分析的混合模型。在这项研究中,我们测试了几个成功的组合方法。如图 3,我们首先使用Word2vec或pretrained伯特模型建立特征向量。然后我们不同的顺序CNN和LSTM模型中使用的下一个阶段:Word2vec /伯特- > CNN - > LSTM或Word2vec /伯特- > LSTM - > CNN。我们也改变模型的最后阶段,使用一个ReLU函数或使用一个支持向量机。

情绪分析方法的过程。

结合这两种变异收益率四个混合方法,我们已经测试了:

Word2vec /伯特- > CNN - > LSTM - > Relu

Word2vec CNN /伯特- > LSTM - > - > Relu

Word2vec /伯特- > CNN - > LSTM - > SVM

Word2vec CNN /伯特- > LSTM - > - > SVM

两种方法被用于我们的实验建立特征向量。第一种方法是Word2vec初始化随机权重学习所有单词的嵌入在我们的训练数据集。因为Word2vec不包括语境分析在自然语言处理复杂的语义或多态的情况下,我们的第二个方法是伯特。pretrained伯特模型用于这项研究。调整参数后,伯特模型作为特征提取器来生成输入数据的混合模型的建议。微博和评论的数据被送入伯特模型生成的特征向量,这些混合模型的输入执行分类。

下一步将CNN和LSTM深度学习模型,应用由于其良好的性能在情绪分析( 1),以及利用两个网络架构上执行情绪分析数据时在不同的领域。CNN是一种前馈神经网络,因为它是由多层的过程,在一个方向上传递信息,从输入到输出,没有周期。它有一个深层神经网络架构( 67年),通常从卷积和池/二次抽样层输入,转换成一个完全连接分类层。在这个研究中,一个卷积(1 d CNN)使用。LSTM RNN架构的许多变体之一( 68年]。LSTM块包含三个所谓的盖茨,忘记门,输入门,和输出门,除了输入和输出模块和存储单元。cnn擅长处理空间相关数据而RNNs擅长时序信号。LSTM记得转发信息的序列和多层CNN可以充分捕捉并学习当地的信息。所以,两全其美的结合利用,空间和时间的世界。

最后的阶段是分类。我们使用的激活函数ReLU代替乙状结肠因为高收敛。此外,支持向量机分类的选择,因为它的效率在字(词)处理技术中,特别是在高维情况下,如自然语言处理。支持向量机( 69年)是一个监督机器学习算法可用于分类和回归的任务。它被广泛利用在许多领域有积极的结果。在我们的研究中,我们应用了线性支持向量机的分类提出了混合深度学习模型。我们提取特征向量的隐藏层和喂它SVM分类预测(“积极”和“消极”)。

4所示。提出的混合模型

在本节中,我们提出了四个混合深度学习模型变化的CNN和LSTM深度学习层次和变化的CNN和SVM分类器层。这些混合模型的体系结构如表所示 2 3和细节讨论如下。

一个混合CNN-LSTM模型。

层(类型) 输出的形状 Param #
embedding_1(嵌入) (没有,38,100) 1808900年
conv1d_1 (Conv1D) (没有,38,512) 154112年
conv1d_2 (Conv1D) (没有,38,256) 393472年
conv1d_3 (Conv1D) (没有,38,128) 98432年
lstm_1 (LSTM) (没有,500) 1258000年
dense_1(密度) (没有,128) 64128年
dense_2(密度) (没有,128) 16512年
dense_3(密度) (没有,1) 129年
总参数:3793685
可训练的参数:1984785
Nontrainable参数:1808900

一个混合LSTM-CNN模型。

层(类型) 输出的形状 Param #
embedding_2(嵌入) (没有,38,100) 1808900年
lstm_2 (LSTM) (没有,38,500) 1202000年
conv1d_3 (Conv1D) (没有,38,512) 768512年
conv1d_5 (Conv1D) (没有,38,256) 393472年
conv1d_6 (Conv1D) (没有,38,128) 98432年
flatten_1(平) (没有,4864) 0
dense_4(密度) (没有,128) 622720年
dense_5(密度) (没有,128) 16512年
dense_6(密度) (没有,1) 129年
总参数:4910677
可训练的参数:3101777
Nontrainable参数:1808900
4.1。场景组合1

第一个混合模型结合了CNN和LSTM模型。可视化模型的连接,连接过程,数据处理流程表表示 2

初始化函数嵌入是嵌入层与随机权重,将学习所有单词的嵌入在训练数据集。第一层的混合模式是美国有线电视新闻网,它接收向量由字嵌入。卷积有三层组成的512年,256年和128年的过滤器,分别与一个内核大小= 3,接收和处理数据之前喂进下一层深度学习。混合模型的第二层是LSTM,产生一个1×500矩阵送入分类器。接下来,混合模型的分类器是由两个连续的,完全连接层和128个节点,最后,ReLU激活函数的输出层。

4.2。场景组合2

第二个混合模型结合LSTM和CNN模型。可视化模型的连接,连接过程,数据处理流程表表示 3

输入数据是重塑嵌入数据的预处理矩阵。第一层的混合模式是LSTM层。输出矩阵13×500,输入第二个模型的混合深度学习模型。下一层的混合模式是CNN。卷积有三层组成的512年,256年和128年的过滤器,分别与一个内核大小= 3,负责接收和处理数据之前给到下一层。CNN的输出是夷为平地,转移到一个完全连接层。最后,混合模型的分类器是由两个连续的完全连接层组成的CNN与128个节点和ReLU激活函数作为输出层。

4.3。场景组合3和4

我们最后的混合模型是基于混合模型与场景1和2。我们使用这些模型的深度学习阶段(CNN-LSTM和LSTM-CNN)但取代了分类器。同时有多个替代CNN-based ReLU函数使用,我们选择使用支持向量机来替代分类器。场景3基于CNN-LSTM,场景4是基于LSTM-CNN。一个模型的体系结构概述表所示 2 3

5。实验结果

在本节中,我们目前的实验比较的性能提出的混合模型。此外,我们还检查其他常见的深度学习模型(SVM, CNN, LSTM)。所有这些与小节中介绍的八个数据集进行测试 3.1预处理过的文本处理技术。准确性,AUC, f值指标用来评估模型的性能在所有实验。由于f值是来自查全率和查准率,我们也显示这两个措施供参考的目的。结果显示,讨论和分析了部分 5。2 5。3

5.1。性能比较

在进行实验之前,相关的配置参数,硬件设备和设施进行必要的库。我们使用谷歌与GPU特斯拉P100-PCIE-16GB Colab Pro或GPU特斯拉V100-SXM2-16GB [ 70年)和Keras ( 71年)和TensorFlow库( 72年]。在所有的实验中,我们为我们的代码配置参数,如回声= 4, k倍= 10,和批量大小= 32与微博进行评论和128。K-fold验证方法的共同价值观 k= 3, k= 5, k= 10,到目前为止,应用机器学习中使用的最流行的价值评估模型 k= 10。后者值数据集时使用足够大的子集有大量的例子。这是使用的数据集的情况下工作。因此,九个部分被用作训练集和一个测试集在每个10验证。的价值 k选择以确保每列火车或测试代表数据集的样本足够大。此外,这个过程确保了 k交叉验证的模型诱导训练集的大小相同, k在所有测试集验证也相同的大小。建议将数据分成相等的样本,这样的性能模型是等价的。

5.2。结果

8组实验的结果显示:三种基线模型(SVM, CNN, LSTM)和四个混合模型:CNN和LSTM LSTM CNN, CNN-LSTM和SVM LSTM-CNN和SVM称为C-LSTM(或氯),L-CNN(或L-C), CLSTM-SVM(或CL-S), LCNN-SVM(或LC-S),分别。之间的比较分析的结果提出了混合方法相对于基线的方法也包括在内。

我们的实验运行两次:一次使用嵌入Word2vec训练词一旦使用pretrained伯特模型训练字嵌入。结果一直更好的伯特时使用,所以表 4- - - - - - 8提供详细的实验结果使用Word2vec和伯特。数据 4- - - - - - 8比较结果说明了Word2vec和伯特并排使用条形图。

对不同类型的数据集精度比较。

数据集 Word2vec (%) 伯特(%)
支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S 支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S
Sentiment140 (10%) 74.2 79.7 80.3 80.1 79.9 80.6 79.9 82.4 84.0 84.1 84.0 84.1 83.5 83.9
推特航空公司 82.2 86.8 87.1 88.0 87.5 88.6 87.8 92.0 92.9 92.8 92.8 92.8 92.9 92.7
tweet SemEval 80.5 84.4 86.4 85.0 86.2 85.6 85.7 91.2 91.9 91.8 91.9 91.8 91.7 91.8
IMDb影评(1) 78.9 87.6 88.5 89.7 90.0 90.0 90.3 93.3 93.4 93.4 93.4 93.4 93.4 93.4
IMDb电影评论(2) 82.8 87.3 85.1 89.2 89.4 89.4 89.4 90.5 90.7 90.6 90.7 90.7 90.7 90.7
康奈尔大学的影评 67.7 72.4 76.1 73.0 76.4 76.2 75.9 85.3 87.0 86.9 86.9 87.0 86.9 87.0
书评 77.2 76.4 77.2 75.8 83.5 78.7 83.7 89.9 90.7 91.0 90.7 91.1 90.4 91.0
音乐评论 76.6 76.5 79.6 70.9 82.1 76.6 82.7 87.8 89.2 89.2 89.0 89.1 88.8 89.5

记得比较不同类型的数据集。

数据集 Word2vec (%) 伯特(%)
支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S 支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S
Sentiment140 (10%) 74.2 80.6 80.0 79.4 78.9 80.0 80.5 84.7 84.1 84.2 84.1 84.1 84.2 83.9
推特航空公司 83.0 86.3 88.2 88.1 87.4 88.8 87.7 91.9 92.9 92.8 93.0 92.8 93.1 92.5
tweet SemEval 80.1 84.1 87.4 88.3 86.4 85.2 85.0 91.6 92.2 92.1 92.3 91.6 91.8 92.1
IMDb影评(1) 78.9 89.2 90.0 88.9 90.1 90.1 90.1 93.2 93.6 93.3 93.1 93.6 93.4 93.4
IMDb电影评论(2) 82.9 86.9 85.4 87.6 89.6 89.6 89.3 90.6 90.9 90.7 90.9 90.8 90.9 90.8
康奈尔大学的影评 67.1 73.6 75.1 71.1 77.4 75.7 75.6 84.5 87.2 86.6 86.6 86.8 86.7 87.1
书评 72.6 78.0 78.2 76.3 83.4 78.2 83.4 90.7 90.8 90.8 90.5 91.0 90.9 91.0
音乐评论 75.7 75.8 79.4 70.8 80.8 76.5 82.8 87.7 88.5 88.8 88.2 88.3 87.9 89.2

对不同类型的数据集精度比较。

数据集 Word2vec (%) 伯特(%)
支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S 支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S
Sentiment140 (10%) 74.1 78.6 81.1 81.9 82.0 81.6 79.1 79.7 83.9 83.9 83.9 83.9 82.8 84.0
推特航空公司 81.0 87.6 85.7 88.1 88.0 88.4 88.0 92.3 92.9 92.8 92.7 92.8 92.8 93.1
tweet SemEval 81.1 82.2 83.0 78.3 83.6 83.7 84.1 90.7 91.7 91.5 91.5 91.9 91.5 91.5
IMDb影评(1) 79年 85.6 86.7 91.0 90.2 89.9 90.5 93.4 93.2 93.5 93.7 93.2 93.4 93.5
IMDb电影评论(2) 82.7 87.9 84.8 91.5 89.3 89.2 89.6 90.3 90.6 90.6 90.5 90.7 90.4 90.5
康奈尔大学的影评 69.8 70.8 78.4 82.0 74.8 77.3 76.3 86.3 86.9 87.5 87.4 87.4 87.1 86.9
书评 88.3 74.8 76.3 76.3 84.0 79.9 84.0 89.0 90.7 91.2 90.9 91.4 89.8 91.1
音乐评论 79.7 81.4 80.1 76.7 84.5 77.2 82.7 88.1 90.2 89.9 90.3 90.3 90.1 90.0

对不同类型的数据集f值比较。

数据集 Word2vec (%) 伯特(%)
支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S 支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S
Sentiment140 (10%) 74.1 79.5 80.5 80.4 80.3 80.8 79.8 81.8 84.0 84.1 84.0 84.0 83.3 83.9
推特航空公司 82.0 86.9 86.9 87.9 87.6 88.5 87.9 92.0 92.9 92.8 92.8 92.8 92.9 92.8
tweet SemEval 80.6 83.1 84.9 82.8 84.9 84.4 84.5 91.1 91.9 91.8 91.9 91.8 91.6 91.8
IMDb影评(1) 78.9 87.3 88.3 89.8 90.1 90.0 90.3 93.3 93.4 93.4 93.4 93.4 93.4 93.4
IMDb电影评论(2) 82.8 87.4 85.0 89.5 89.4 89.4 89.5 90.4 90.7 90.6 90.7 90.7 90.6 90.7
康奈尔大学的影评 68.3 71.5 76.6 75.1 76.0 76.5 75.9 85.4 87.0 87.0 87.0 87.1 86.9 87.0
书评 79.5 75.9 76.7 75.6 83.5 79.0 83.7 89.8 90.7 91.0 90.7 91.1 90.3 91.0
音乐评论 77.3 77.3 79.6 72.5 82.3 76.7 82.7 87.8 89.3 89.3 89.1 89.2 88.9 89.6

AUC比较不同类型的数据集。

数据集 Word2vec (%) 伯特(%)
支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S 支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S
Sentiment140 (10%) 74.2 79.7 80.3 80.1 79.9 80.6 79.9 83.0 84.0 84.1 84.0 84.1 83.8 84.0
推特航空公司 82.3 86.8 87.1 88.0 87.5 88.6 87.8 92.1 92.9 92.8 92.9 92.8 92.9 92.8
tweet SemEval 80.5 84.3 86.2 84.6 86.0 85.5 85.6 91.2 92.0 91.8 92.0 91.8 91.7 91.8
IMDb影评(1) 78.9 87.6 88.5 89.7 90.0 90.0 90.3 93.3 93.4 93.4 93.4 93.4 93.4 93.4
IMDb电影评论(2) 82.9 87.3 85.1 89.2 89.4 89.4 89.5 90.5 90.7 90.7 90.7 90.7 90.7 90.7
康奈尔大学的影评 67.8 72.3 76.1 73.0 76.4 76.2 75.9 85.3 87.1 87.0 86.9 87.0 86.9 87.0
书评 79.0 76.4 77.2 75.8 83.5 78.7 83.7 90.0 90.8 91.0 90.7 91.2 90.5 91.1
音乐评论 77.2 76.5 79.6 70.9 82.1 76.6 82.7 87.9 89.3 89.3 89.2 89.2 88.9 89.6

深度学习模型的精度值和Word2vec伯特为不同的数据集。

回忆的价值深度学习模型Word2vec和伯特为不同的数据集。

深度学习模型的精度值和Word2vec伯特为不同的数据集。

f值的值深度学习模型和Word2vec伯特为不同的数据集。

深度学习模型的AUC值Word2vec和伯特为不同的数据集。

精度结果见表 4非常高的数据集和分类模型在使用pretrained伯特模型提取特征向量,90%左右,尤其是推特航空公司92.9%和93.4%在IMDb影评(1)。此外,结果证明混合模型显示(或等于)精度高于单一深度学习模型(SVM, CNN,或LSTM)七八个数据集。关于使用Word2vec音乐评论和书评的数据集,CNN的精度结果表中给出 4分别是76.4%和76.5%。相比之下,当使用LCNN-SVM模型,结果显著提高到83.7%和82.7%,这代表着提高7.3%和6.2%,分别。

f值(表 7),混合模型提供(或等于)值高于单一深度学习模型7八个数据集。关于AUC值表 8,还混合模型执行比单一深度学习模型。混合模型使用SVM分类实现最好的结果使用Word2vec 8的数据集。在数据集当中,微博航空公司数据集和IMDb影评(1)是所有指标数据显示最高的值在所有情况下。书评和音乐评论与混合LSTM-CNN和LCNN-SVM模型工作得很好。Sentiment140数据集在所有模型精度较低。在数据 1 2,我们可以看到的总数的分布和样品长度的数据样本数据集。Sentiment140数据集也不同于其他的数据集。这么多数量的样品长度数据不同。

5.3。讨论

见数据 4 8,使用pretrained伯特产生更好的结果比使用Word2vec情绪分析模型和数据集。关注混合模型的结果,我们发现,对于每一个数据集,最好的结果是由混合模型。混合模型能产生更好的结果比单一模型使用Word2vec或伯特。使用Word2vec,结果从混合模型的精度高于从单一的模型。使用伯特结果也有所改善,尽管通过一个较小的数量,因为这些模型已经达到一个相对高的精度,主要是超过90%。

中的文本审查通常超过文本在一条微博,这表明LCNN-SVN对长文本执行比其他混合模型(表样例 4)。在选定的数据集,当检查的文本长度分布的样本,审查的长度范围从1到800个单词。但是,康奈尔大学的电影评论范围从1到50个单词。此外,推特的长度范围从1到40个单词;然而,样本长度的分布Sentiment140数据集是右偏态。观察到在两个数据集的结果,Sentiment140和康奈尔影评,低于剩余的数据集。

其他一些研究执行情绪分析通过使用一个数据集的tweet或者评论发表在 29日, 33, 34, 37- - - - - - 39, 73年, 74年]。注意,混合模型提供了改进的结果的处理时间和准确性。此外,这些混合的整体精度模型给出了八种不同类型的数据集,这给一个客观的看法总体精度。

表中所示的最先进的方法之一 9,我们大多数的混合模型的提议得到了更高的精度结果六个数据集。然而,在Sentiment140汉et al。 79年和阿比德等。 12)取得了更好的精确度约为87%。XLNet方法对IMDb情绪分析数据集,由杨et al。 47),导致了96.21%的准确率。另一方面,说明et al。 37)测试CNN和支持向量机相结合的混合模型在推特和检查数据集;然而,结果显示混合方法相比,精度较低,只在一个单一类型的测试数据集(58.62%的准确率在微博数据集和77.16%的准确率评估数据集)。比较细节的最先进的方法如表所示 9。它包括作者的名称、方法、数据和准确性(或F1的一些研究只提供F1度量)。

比较基于提出的模型在数据集和最先进的方法。

研究 模型 数据集 精度(%)
金和宋 18] 美国有线电视新闻网 康奈尔大学的影评 81年
毛拉et al。 75年] SVM-IG 康奈尔大学的影评 85.65
提出的混合模型 LCNN-SVM 康奈尔大学的影评 87年
Jnoub et al。 19] SNN / CNN IMDb 87/81
麦肯et al。 20.] 字符+ CoVe-LSTM IMDb 92.1
唐et al。 76年] L-GRNN / Conv-GRNN IMDb 45.3/42.5
Maltoudoglou et al。 49] 伯特 IMDb 92.28
杨et al。 47] XLNET IMDb 96.21
提出的混合模型 CNN-LSTM IMDb 93.4
Baziotis et al。 77年] Bi-LSTM +关注 tweet SemEval 67.7 (F1)
陈词滥调( 78年] LSTM-CNN tweet SemEval 68.5 (F1)
提出的混合模型 CNN-LSTM tweet SemEval 91.9(F1)
阿比德et al。 12] Bi-LSTM / CNN Sentiment140 87.21/72.42
汉et al。 79年] FK-SVM Sentiment140 87.2
提出的混合模型 LSTM-CNN Sentiment140 84.1
美国莱恩和库马尔 80年] 演算法 推特航空公司 84.5
段et al。 81年] 支持向量机和朴素贝叶斯 推特航空公司 80年
莫妮卡et al。 17] LSTM 推特航空公司 80年
提出的混合模型 CLSTM-SVM 推特航空公司 92.9
Blitzer et al。 82年] SCL-MI 音乐评论和书评 79.7
乌里韦[ 83年] 物流/支持向量机 音乐评论和书评 87/89
提出的混合模型 LSTM-CNN / LC-S 音乐评论和书评 91.1/89.5

除了评估的可靠性模型,同样重要的是要评估算法的性能方面的资源利用率。很少有工作评估深度学习模型的计算复杂度虽然有一些建议 84年考虑一些因素,如层数,输入矩阵的大小,根据特定的算法和其他因素。在CNN,卷积核的数量和大小和输出通道的数量每一层的考虑。针对这一点,很明显,混合模型的高可靠性的代价更高的复杂性。因为时间是最宝贵的资源和最考虑当评估算法的性能,我们包括分析模型的计算时间参与的比较研究,这是一个反思的时间复杂度。

10包含所有数据集所需的时间处理参与实验。处理时间对整个计算过程的训练和测试模型使用Word2vec和伯特。它包括数据划分和时间来创建分类模型(初始化神经网络的层数、每层的节点数量,等等)。但不包括用于显示分类的结果。当使用混合模型与伯特为特征提取技术,精度一般高于Word2vec,但处理时间较长。

时间处理数据集的实验使用谷歌Colab Pro和模型使用。

数据集 Word2vec 伯特
支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S 支持向量机 美国有线电视新闻网 LSTM 有氯 L-C CL-S LC-S
Sentiment140 (10%) 1 h08m32 15 m44 24 m19 26 m00 26 m50 26 m13 27 m41 5 h13m30 5 h52m25 5 h22m12 5 h59m58 6 h2m08 6 h0m34 6 h7m01
推特航空公司 0 m35 0 m40 1 m20 1 m34 1 m28 2 m56 2 m52 9 m55 0 h11m42 0 h9m58 0 h11m52 0 h10m42 0 h13m00 0 h11m14
tweet SemEval 1 m18 1两个同伴m32 2 m04 2 m30 2 m20 3 m55 3 m06 8 m46 0 h9m46 0 h8m40 0 h10m12 0 h10m07 0 h14m28 0 h37m48
IMDb影评(1) 1 h16m26 1 h24m19 1 h43m52 1 h40m41 1 h00m03 1 h55m12 2 h03m57 6 h45m15 6 h25m50 6 h22m50 6 h27m00 6 h26m40 7 h10m15 6 h37m40
IMDb电影评论(2) 39 m42 48 m04 0 h54m03 58 m27 1 h03m23 1 h0m42 1 h05m15 3 h24m20 3 h11m00 3 h9m30 3 h11m40 3 h11m25 3 h36m15 3 h28m05
康奈尔大学的影评 2 m16 2 m46 3 m42 4 m49 4 m19 6 m04 5 m45 16 m12 0 h15m26 0 h14m10 0 h15m55 0 h15m49 0 h24m03 0 h19m41
书评 2 m23 5 m31 6 m46 9 m40 8 m35 10 m16 9 m21 32锰 0 h33m11 0 h32m37 0 h33m23 0 h33m49 0 h33m59 0 h58m18
音乐评论 1 m43 2 m41 4 m36 5 m53 5 m21 5 m21 5 m45 18 m23 0 h18m44 0 h18m17 0 h18m55 0 h19m03 0 h20m14 1 h5m57

一般来说,混合方法提供更好的结果比单一深度学习模型。大多数混合网络提供更高(或等于)成绩在所有的数据集。此外,从Maltoudoglou等的好成绩。 49)(表 9),我们发现情绪分类的特征提取中发挥着重要作用。我们还讨论了特征提取的重要性 1],TF-IDF和字嵌入特征提取技术进行分析。这些改进的结果为代价高而稳定的一些处理时间的增加,如表所示 10。表显示了混合模型比单一模型需要较长的计算时间,因为混合模型是复杂和特性参数比单一模型。而计算时间长,他们不排除分析处理时间和准确性之间的权衡的结果。

我们的目标是建立一个混合深度学习情绪分析模型,适用于各种领域的数据集。然而,当建立分类模型,有很多参数必须定义之前,所以他们可以适用于一个给定的数据集而不是为别人。因此,结果是积极的和高度可靠,因为他们一直在评估许多数据集有不同的主题。最后,一般总结成果的实验讨论了早些时候引用如下:

混合模型增加了情感分析的准确性与单个模型的性能在所有类型的数据集,尽管SVM模型的计算时间较长。

结合有助于利用CNN的优势,LSTM,支持向量机,CNN有能力提取特征,LSTM有能力存储过去的信息在州节点(细胞状态),和支持向量机分类的能力。

使用支持向量机作为分类方法改善L-CNN和C-LSTM的结果。支持向量机在多维数据分层是有效的,有助于最小化局部最小值的神经网络。

6。结论

在本文中,我们提出了使用混合深度学习模型的情绪分析社交网络的数据。我们测试了混合支持向量机的性能,CNN, LSTM,使用两个单词嵌入技术,Word2vec和伯特八文本数据集的微博和评论。之后,我们将四个生成的混合模型与单一模型。这些实验了解混合模型的适应性,进行混合的方法是否能适应广泛的数据集类型和大小。我们研究了不同类型的数据集的影响,特征提取技术,深度学习情感极性的可靠性分析模型。

我们的实验表明,混合模型的表现在所有测试模型的可靠性进行情感极性分析。结合深度学习模型和SVM技术会产生更好的效果比使用单个模型进行情感分析。在大多数的测试数据集,利用SVM混合模型的可靠性高于不使用的;然而,计算时间与支持向量机的时间长的多。我们还观察到算法的有效性在很大程度上取决于数据集的特征和质量。

我们意识到数据集有一个大的背景下影响情绪分析模型的选择。我们打算研究混合方法的性能对混合情绪分析数据集和多个或混合环境中为了获得更深层次的认识在一个特定的主题,如业务、市场营销、或医学。应用来源于将情绪相关的上下文来为用户提供详细的个人的反馈和建议。

数据可用性

本研究的数据集用于支持这些发现可以从数据集引用的直接联系。

信息披露

资助者没有作用的设计研究;在收集、分析或解释数据;写的手稿;或决定发布结果。

的利益冲突

作者宣称没有利益冲突。

确认

这项工作是由西班牙政府和欧洲(洋底Europeo de Desarrollo地区)菲德尔基金项目InEDGEMobility: Movilidad inteligente y sostenible soportada sistema运动要多代理y边缘计算(rti2018 - 095390 b - c32)。

见鬼 n . C。 Moreno-Garcia m . N。 De la它 F。 情绪分析基于深度学习:比较研究 电子产品 2020年 9 3 483年 10.3390 / electronics9030483 基南 m·j·S。 先进的定位、流和大宗商品市场的情绪分析:过渡性基本和技术分析 2018年 2日 美国新泽西州霍博肯 威利 Sohangir 年代。 D。 Pomeranets 一个。 Khoshgoftaar t M。 大数据:深入学习金融情绪分析 《大数据 2018年 5 1 3 10.1186 / s40537 - 017 - 0111 - 6 2 - s2.0 - 85040990671 Jangid H。 Singhal 年代。 沙阿 R R。 齐默尔曼 R。 基于金融情绪分析使用深度学习 同伴Proceedongs Web会议的2018 2018年4月 国际万维网会议指导委员会,法国里昂 10.1145/3184558.3191827 G。 G。 X。 在线投资者情绪对股票走势的影响:一个LSTM方法 复杂性 2020年 2020年 11 4754025 10.1155 / 2020/4754025 Satapathy R。 威尔士 E。 侯赛因 一个。 情绪分析在生物医学领域 2017年 瑞士巴塞尔 施普林格Interntional出版公司 拉其普特人 一个。 自然语言处理、情感分析和临床分析 卫生信息学的创新 2020年 美国剑桥,马 学术出版社 79年 97年 10.1016 / b978 - 0 - 12 - 819043 - 2.00003 - 4 马利克 V。 库马尔 一个。 情绪分析twitter的数据使用朴素贝叶斯算法 国际期刊上最近在计算和通信和创新趋势 2018年 6 4 120年 125年 10.1109 / ICATCCT.2016.7912034 2 - s2.0 - 85020206871 Vateekul P。 Koomsubha T。 情绪分析使用深度学习技术的研究在泰国Twitter数据 2016年13日国际联合会议上计算机科学和软件工程(JCSSE) 2016年7月 IEEE,泰国孔敬省 10.1109 / JCSSE.2016.7748849 2 - s2.0 - 85006910987 Pandey a . C。 Rajpoot d S。 萨拉斯瓦特 M。 微博情感分析使用混合布谷鸟搜索方法 信息处理与管理 2017年 53 4 764年 779年 10.1016 / j.ipm.2017.02.004 2 - s2.0 - 85014785827 Alharbi a . s . M。 de Doncker E。 微博情感分析深层神经网络:一个使用用户行为信息增强方法 认知系统研究 2019年 54 50 61年 10.1016 / j.cogsys.2018.10.001 2 - s2.0 - 85057577002 阿比德 F。 阿拉姆 M。 亚希尔 M。 C。 情绪分析通过周期性变异最近Twitter的卷积神经网络 未来一代计算机系统 2019年 95年 292年 308年 10.1016 / j.future.2018.12.018 2 - s2.0 - 85059958367 Ramadhani a . M。 h·S。 微博情感分析使用深度学习方法 2017年第七届国际年度工程研讨会(ina) 2017年8月 IEEE,日惹,印尼 10.1109 / inaes.2017.8068556 2 - s2.0 - 85037170880 Khattak a . M。 Batool R。 萨蒂 f。 微博分类和情绪分析个性化的微博推荐 复杂性 2020年 2020年 11 8892552 10.1155 / 2020/8892552 哈桑 一个。 马哈茂德 一个。 简短的文本情感分析的深度学习方法 第三国际会议控制、自动化和机器人(ICCAR) 2017年4月 IEEE,日本名古屋 10.1109 / iccar.2017.7942788 2 - s2.0 - 85022335876 J。 妞妞 Z。 C。 情绪分析模型对天气相关微博深的神经网络 学报》2018年第10届国际机器学习大会和计算 2018年2月 ACM、珠海、中国 10.1145/3195106.3195111 2 - s2.0 - 85048331337 莫妮卡 R。 Deivalakshmi 年代。 珍妮特 B。 情绪分析美国航空公司使用LSTM / RNN tweet 2019年IEEE 9日高级计算国际会议(IACC)的 2019年12月 IEEE Tiruchirappalli,印度 10.1109 / IACC48062.2019.8971592 H。 Y.-S。 情绪使用卷积神经网络分类 应用科学 2019年 9 11 2347年 10.3390 / app9112347 2 - s2.0 - 85067253222 Jnoub N。 艾尔Machot F。 兰卡斯特 W。 情绪分析使用的特定领域分类模型神经模型 应用科学 2020年 10 18 6221年 10.3390 / app10186221 麦肯 B。 布拉德伯里 J。 C。 Socher R。 在翻译:语境词向量 31日学报》国际会议上神经信息处理系统 2017年12月 美国加利福尼亚州长滩 Mhaskar H。 Q。 小山 T。 何时以及为什么深网络比浅的? 人工智能学报2017年AAAI会议 2017年2月 旧金山,加州,美国 辛德勒 一个。 Lidy T。 儒伯 一个。 比较浅与深神经网络架构自动音乐流派分类 第九届论坛媒体技术学报》(FMT2016) 2016年 滕、奥地利 FMT 古普塔 我。 Joshi N。 加强微博情感分析使用混合方法和由当地会计上下文语义 《智能系统 2019年 29日 1 1611年 1625年 10.1515 / jisys - 2019 - 0106 2 - s2.0 - 85072614854 Sanchez-Rada j·F。 伊格莱西亚斯 c。 曲柄:用户和内容情绪分类的混合模型使用社会环境和社区检测 应用科学 2020年 10 5 1662年 10.3390 / app10051662 Alfrjani R。 奥斯曼 T。 Cosma G。 一个混合语义knowledgebase-machine学习意见挖掘方法 数据与知识工程 2019年 121年 88年 108年 10.1016 / j.datak.2019.05.002 2 - s2.0 - 85066077905 D.-X。 R。 H。 杨绍明。关铭 CNN-SVM微血管形态类型识别与数据增大 医学和生物工程杂志》上 2016年 36 6 755年 764年 10.1007 / s40846 - 016 - 0182 - 4 2 - s2.0 - 85008433248 Elleuch M。 Maalej R。 Kherallah M。 新设计CNN based-SVM分类器架构与辍学离线阿拉伯语手写识别 Procedia计算机科学 2016年 80年 1712年 1723年 10.1016 / j.procs.2016.05.512 2 - s2.0 - 84978472842 Y。 深度学习使用线性支持向量机 2013年 http://arxiv.org/abs/1306.0239 程ydF4y2Ba T。 R。 Y。 X。 改善情绪分析通过句子类型分类使用BiLSTM-CRF和CNN 专家系统与应用程序 2017年 72年 221年 230年 10.1016 / j.eswa.2016.10.065 2 - s2.0 - 85006717242 拉赫曼 答:U。 马利克 答:K。 拉扎。 B。 阿里 W。 混合CNN-LSTM模型对提高电影评论情感分析的准确性 多媒体工具和应用程序 2019年 78年 18 26597年 26613年 10.1007 / s11042 - 019 - 07788 - 7 2 - s2.0 - 85067388843 签证官 Q.-H。 H.-T。 B。 >。 多渠道LSTM-CNN越南情绪分析模型 2017 9日知识和系统工程国际会议(KSE) 2017年10月 IEEE、色调,越南 10.1109 / KSE.2017.8119429 2 - s2.0 - 85042233213 马丁 c。 托雷斯 j . M。 阿基拉 r·M。 迪亚兹 年代。 使用深度学习预测情绪:案例研究在旅游 复杂性 2018年 2018年 9 7408431 10.1155 / 2018/7408431 2 - s2.0 - 85061999517 Elshakankery K。 艾哈迈德 m F。 HILATSA:混合增量学习阿拉伯语微博情感分析的方法 埃及信息学杂志 2019年 20. 3 163年 171年 10.1016 / j.eij.2019.03.002 2 - s2.0 - 85063763529 Putra 美国J。 卡里尔 我。 谷纳温 m . N。 阿明 r . I。 Sutabri T。 一个混合模型为印尼社会媒体情感分析文本 20国际会议的程序信息集成和基于web的应用程序和服务 2018年11月 日惹,印尼 10.1145/3282373.3282850 2 - s2.0 - 85061124187 Astya P。 情绪分析:方法和开放问题 2017年国际会议上计算、通信和自动化(ICCCA) 2017年5月 IEEE,大诺伊达,印度 10.1109 / CCAA.2017.8229791 2 - s2.0 - 85046470170 Srinidhi H。 Siddesh G。 Srinivasa K。 混合模型使用MaLSTM基于递归神经网络和支持向量机的情绪分析 工程和应用科学的研究 2020年 47 3 232年 240年 艾克塔 m . S。 库马尔 一个。 Ekbal 一个。 Bhattacharyya P。 混合深度学习情绪分析架构 科尔学报》2016年,第26届国际会议在计算语言学:技术论文 2016年12月 日本大阪 Al-Azani 年代。 El-Alfy E.-S。M。 混合深度学习阿拉伯语微博的情感极性的决心 神经信息处理国际会议 2017年11月 施普林格,广州,中国 10.1007 / 978 - 3 - 319 - 70096 - 0 - _51 2 - s2.0 - 85035086798 G。 X。 B。 程ydF4y2Ba 年代。 l 混合方法基于深度学习双语文本情感分类 学报2016年17 IEEE /埃西斯软件工程国际会议上,人工智能,网络和并行/分布式计算(SNPD) 2016年5月 IEEE,上海,中国 10.1109 / SNPD.2016.7515884 2 - s2.0 - 84983372744 Q。 Z。 M。 l 探索微博人气的共同进化的情绪感染和行为分析:深入学习架构 复杂性 2021年 2021年 10 6630811 10.1155 / 2021/6630811 考尔 H。 Ahsaan 美国U。 Alankar B。 V。 提议的情绪分析深度学习算法分析COVID-19 tweet 信息系统领域 2021年 1 13 10.1007 / s10796 - 021 - 10135 - 7 Kastrati Z。 Ahmedi l Kurti 一个。 社交媒体评论的深度学习情绪分析器资源缺乏语言 电子产品 2021年 10 10 1133年 10.3390 / electronics10101133 Ombabi a . H。 Ouarda W。 Alimi a . M。 采矿、“深度学习CNN-LSTM阿拉伯情绪分析框架使用文本信息共享的社会网络 社会网络分析和挖掘 2020年 10 1 1 13 10.1007 / s13278 - 020 - 00668 - 1 G。 不结盟运动 J。 情感分析的混合方法增强了情感词汇和极性转换设备 13研讨会亚洲语言资源 2018年5月 宫崎骏,日本 Y。 M。 W。 电影的sentiment-enhanced混合推荐系统推荐:大数据分析框架 无线通信和移动计算 2018年 2018年 9 8263704 10.1155 / 2018/8263704 2 - s2.0 - 85057374903 Devlin J。 硕士。 K。 Toutanova K。 伯特:训练的语言理解的深度双向变形金刚 2018年 http://arxiv.org/abs/04805 Z。 Z。 Y。 Xlnet:广义自回归pretraining对语言的理解 2019年 http://arxiv.org/abs/1906.08237 纱布 一个。 Woubie 一个。 某某先生 V。 单语模型转移到资源缺乏语言:提格里尼亚语 2020年 http://arxiv.org/abs/2006.07698 Maltoudoglou l Paisios 一个。 帕帕多普洛斯 H。 BERT-based正形情绪分析预测 学报2020年保形和概率预测和应用程序 2020年9月 意大利维罗纳 PMLR X.-R。 J.-X。 T。 情绪分析使用自回归语言建模和广泛的学习系统 2019年IEEE国际生物信息学和生物医学会议(BIBM) 2019年11月 美国圣地亚哥IEEE CA 10.1109 / BIBM47256.2019.8983025 Myagmar B。 J。 木村 年代。 跨域的情绪分类与双向语言模型更符合实际的变压器 IEEE访问 2019年 7 163219年 163230年 10.1109 / access.2019.2952360 库马尔 年代。 Gahalawat M。 罗伊 P P。 多格拉人 d . P。 B.-G。 探索年龄和性别对情绪的影响分析使用机器学习 电子产品 2020年 9 2 374年 10.3390 / electronics9020374 “Sentiment140——twitter情绪分析工具”,可以从:(2020年12月10日通过) http://help.sentiment140.com/site-functionality “Twitter我们航空公司的情绪,“可以从:(2020年12月10日通过) https://www.kaggle.com/crowdflower/twitter-airline-sentiment “国际研讨会于2017年语义评价,可以从:(2020年12月10日通过) http://alt.qcri.org/semeval2017/ “大电影评论的数据集,”可以从:(2020年12月10日通过) http://ai.stanford.edu/∼7 amaas /数据/情绪/ “袋的话符合袋爆米花,”可以从:(2020年12月10日通过) https://www.kaggle.com/c/word2vec-nlp-tutorial/data?select=labeledTrainData.tsv.zip “康奈尔CIS计算机科学,”可以从:(2020年12月10日通过) http://www.cs.cornell.edu/people/pabo/movie-review-data/ “多域人气数据集”,可以从:(2020年12月10日通过) http://www.cs.jhu.edu/∼mdredze /数据/情绪/ 王ydF4y2Ba Y。 Q。 一个情绪对航空公司服务的twitter数据的分类系统的分析 数据挖掘学报2015年IEEE国际会议研讨会(ICDMW) 2015年11月 IEEE,大西洋城,新泽西,美国 10.1109 / ICDMW.2015.7 2 - s2.0 - 84964765892 l 年代。 B。 深度学习的情绪分析:一项调查 线数据挖掘和知识发现 2018年 8 4 e1253 10.1002 / widm.1253 2 - s2.0 - 85044608689 Mikolov T。 程ydF4y2Ba K。 柯拉 g S。 迪安 j . A。 在高维空间中计算的数值表示单词 2015年 谷歌的专利 Banić N。 Elezović N。 终端伏尔:找到离散全变差直方图之间的异常值 IEEE访问 2020年 9 1807年 1832年 10.1109 / ACCESS.2020.3047342 张成泽 B。 M。 Harerimana G。 S.-U。 j·W。 Bi-LSTM模型来提高文本分类精度:结合Word2vec CNN和注意力机制 应用科学 2020年 10 17 5841年 10.3390 / app10175841 Jacovi 一个。 您好 o年代。 戈德堡 Y。 理解卷积神经网络用于文本分类 2018年 http://arxiv.org/abs/1809.08037 h·T。 Le阮 M。 一个方法和情绪功能和集群支持 Neurocomputing 2019年 370年 155年 165年 10.1016 / j.neucom.2019.08.071 2 - s2.0 - 85071983415 山下式 R。 西 M。 r·k·G。 Togashi K。 卷积神经网络:在放射学和应用概况 洞察成像 2018年 9 4 611年 629年 10.1007 / s13244 - 018 - 0639 - 9 2 - s2.0 - 85052299105 Hochreiter 年代。 Schmidhuber J。 LSTM可以解决很难长时间滞后问题 学报》第九届国际会议上神经信息处理系统 1997年12月 美国科罗拉多州丹佛市 Adankon M . M。 Cheriet M。 Biem 一个。 Semisupervised最小二乘支持向量机 IEEE神经网络 2009年 20. 12 1858年 1870年 10.1109 / tnn.2009.2031143 2 - s2.0 - 72149123904 “让你的Colab订阅”,可以从:(2021年1月22日访问), https://colab.research.google.com/notebooks/pro.ipynb “Keras: Python深度学习API,可以从:(2020年12月10日访问, https://keras.io/ 可以从“TensorFlow:(2020年12月10日通过) https://www.tensorflow.org/ Ghasedi K。 H。 情绪分析通过深度混合动力textual-crowd学习模型 学报三十二AAAI人工智能大会(2018年AAAI) 2018年2月 新奥尔良,路易斯安那州 Salur m . U。 一位 我。 一种新颖的混合情绪分类深度学习模型 IEEE访问 2020年 8 58080年 58093年 10.1109 / access.2020.2982538 毛拉 R。 Rahayuningsih p。 Irmayani W。 Saputra D。 / w·E。 提高精度的情绪分析电影评论使用基于支持向量机的信息增益 先进信息科学发展的国际会议(ICAISD) 2020年8月 IOP出版,印尼西爪哇 10.1088 / 1742 - 6596/1641/1/012060 D。 B。 T。 文档分类建模与递归神经网络的情绪 学报2015年大会在自然语言处理的经验方法 2015年9月 葡萄牙里斯本 10.18653 / v1 / d15 - 1167 Baziotis C。 Pelekis N。 Doulkeridis C。 Datastories semeval - 2017任务4:深lstm关注消息级别的和基于主题的情感分析 学报》第11届国际研讨会语义评价(semeval - 2017) 2017年8月 加拿大温哥华 10.18653 / v1 /肌力- 2126 陈词滥调 M。 Bb_twtr semeval - 2017任务4:微博情感分析与cnn和lstms 2017年 http://arxiv.org/abs/1704.06125 10.18653 / v1 /肌力- 2094 K.-X。 W。 c c。 Y.-T。 应用支持向量机(SVM)的情绪分析twitter数据集 应用科学 2020年 10 3 1125年 10.3390 / app10031125 美国莱恩 一个。 库马尔 一个。 Twitter的情绪分类系统数据对我们航空服务分析 学报2018年IEEE第42届会议(COMPSAC)计算机软件和应用程序 2018年7月 IEEE,东京,日本 10.1109 / COMPSAC.2018.00114 2 - s2.0 - 85055449543 X。 T。 W。 Twitter的美国航空公司推荐的预测 2016年 斯坦福,加州,美国 斯坦福大学 cs229 Blitzer J。 Dredze M。 佩雷拉 F。 传记,宝莱坞,总是会和搅拌机:域适应情绪分类 《计算语言学协会(ACL) 2007年6月 布拉格,捷克共和国 乌里韦 D。 领域适应情绪分类 2010年第九次国际会议上机器学习和应用程序 2010年12月 IEEE,华盛顿,美国 10.1109 / icmla.2010.133 2 - s2.0 - 79952406878 H。 M。 通用电气 J。 越南盾 X。 程ydF4y2Ba H。 学习空中交通图片:深卷积神经网络为空域操作复杂性评估 复杂性 2021年 2021年 16 6457246 10.1155 / 2021/6457246