应用计算智能和软计算

PDF
应用计算智能和软计算/2018年/文章

研究文章|开放获取

体积 2018年 |文章的ID 8909357 | https://doi.org/10.1155/2018/8909357

蒙娜丽莎Ghosh, Goutam Sanyal, 多个分类器的性能评估基于整体特征选择对情绪分析方案”,应用计算智能和软计算, 卷。2018年, 文章的ID8909357, 12 页面, 2018年 https://doi.org/10.1155/2018/8909357

多个分类器的性能评估基于整体特征选择对情绪分析方案

学术编辑器:Shyi-Ming陈
收到了 2018年5月16日
接受 2018年8月14日
发表 2018年10月01

文摘

情绪或情感分类分析被承认为一个开放的研究领域。近年来,一个巨大的研究工作被应用在这些领域进行各种数据的方法。特征生成和选择的文本挖掘的高维特性集可以影响情绪的性能分析。探讨广泛使用的无能或不胜任特征选择方法(搞笑、卡方和基尼指数)与unigram和三元特性集四机器学习分类算法(MNB、支持向量机、资讯和我)。拟议的方法评估三个标准数据集的基础上,也就是说,IMDb电影评论和电子数据集和厨房产品评论。起初,unigram和三元特性提取运用语法的方法。此外,我们生成一个综合特征向量CompUniBi (unigram +三元),这是发送到信息增益特征选择方法(IG),基尼指数(GI),卡方(CHI)被指定一个分数最优特征子集的每个特性。这些方法提供了一个特性取决于他们的分数排名;因此突出特征向量(CompIG、CompGI CompCHI)可以轻松地生成分类。最后,机器学习分类支持向量机,MNB,然而,我突出特征向量用于分类审查文档或正面或负面。算法的性能测量精度等评价方法,回忆,F-measure。实验结果表明,该复合特征向量实现更好的性能比unigram特性,这是令人鼓舞的以及与相关研究。最好的结果组合的信息增益与支持向量机的精度最高。

1。介绍

迅速增长的用户生成内容在网络上需要一个高效的算法挖掘的一代重要的信息。这种情况下提高文本分类的重要性,其目的是将文本分为相关类根据他们的内容。在当前年人气矿业已经收到很多研究者的关注作为自然语言处理中最活跃的研究领域。情绪矿业或分析是一个过程,确定一系列单词背后的情感色调。

我们的动机这工作,因为研究情绪分析增长在很大程度上和吸引大范围的在学术界和工业界的关注。理解情绪,分析情况和情绪有关,是人类的自然能力。然而,如何让机器来做同样的事情仍然是一个非常关键和重要的问题探索和回答。情绪分析提供了一个巨大的范围的有效分析的态度,行为,喜欢和不喜欢的。信号处理和人工智能都开展了先进的智能系统的发展,旨在检测和处理动态信息中包含多通道来源。

有几个领域,比如市场营销、政治和新闻分析受益于情绪分析的结果。这些解决方案大致可以分为机器学习方法和lexicon-based情绪分类的方法来解决这个问题。前者的方法应用于分类观点基于训练和测试数据集。第二类不需要任何训练数据集,因为它执行任务之前通过识别的单词和短语列表包含一个语义价值。它主要集中于看不见的模式数据。很少有研究人员应用混合方法通过结合这两种方法,机器学习和词汇,提高情绪分类的性能。

这个领域变得越来越有挑战性,因为很多要求和有趣的研究问题仍然存在在这个领域来解决。Sentiment-based文档的分析是相当艰难的表现相比,基于主题的文本分类。认为单词和情绪总是随情况。因此,一个观点的词可以被视为积极的在一个情况但在其他情况下可能会变得消极。

情绪的分类(1)过程被分为三个层次:文档级别,句子层面上,和功能水平。整个文档在文档级别分类,基于作者所表达的正面或负面的意见。情绪分类在句子层面上考虑了单个句子识别句子是否积极的还是消极的。在功能层面上,将情绪对实体的特定方面。方面水平情绪分类需要深入的分析特性,主要是表达含蓄,通常隐藏在大量文本数据集。在这项研究中,重点是情绪分类功能水平。

本文的主要贡献可以表示如下:(我)在这个工作中,我们调查的性能特征选择方法的不同组合(FSM)如语法、信息增益,基尼系数和卡方检验。预处理完成后在大型高维数据集电影评论,主要是unigram和三元特性集提取。进一步我们创建一个联合特征向量和unigram和三元特性。(2)接下来,我们应用特征选择方法(FSM)得到一个最优特征子集分配重量每个特性。最后,我们训练有素的监督分类支持向量机,MNB,资讯,我与这些最优特征向量分类审查文档。(3)我们进行的实验考虑到10倍交叉验证、产品审核数据集由单独的文件正面和负面的评论,但训练和测试数据不是孤立的。电影评论的数据集,我们注意到,自训练样本分布不佳不充分的根据25000年测试的评论。最后,为了提高分类器的性能我们决定使用交叉验证对电影以及产品评论的数据集。(iv)分类算法的有效性评估F1-score而言,精度和召回。

剩下的纸是构造如下:部分2由现有的文献,可以与我们的方法有关。然后一节3本文描述的方法用于极性检测。部分4解释方法,包括功能和提出的特征选择方法。提议的细节关于实现分类算法中讨论部分5。事项有关的实验和结果阐述了在部分6。最后,部分7结论与讨论该方法和思想对未来步骤。

在当前年,情绪分析社交媒体的内容已成为大多数寻求区域研究人员因为数量的产品评论网站,社交网站、博客和论坛越来越巨大。这个领域主要利用监督、非监督和情绪semisupervised技术预测和分类的任务。在本节中,我们提供了一个简短的概述的先前的研究关于监督多个机器学习(ML)算法。所有的先前的研究工作有关的情绪分析讨论了机器学习分类器表1


作者/年 技术方法 %的准确性 数据域

彭日成et al。(2002) 语法模型NB、应用支持向量机,我 77.4 - 82.9 互联网电影数据库(IMDb)

戴夫et al。(2003) 使用语法特征提取和支持向量机模型、NB分类器 87.0 从亚马逊产品评论和CNET

annet & Kondrak
(2008)
NB WordNet视为词汇资源与支持向量机,决策树分类器 75.0 影评(IMDb) 1000 - 1000(+)和(-)的评论

你们et al。(2009) NB,用于分类的支持向量机分类器 85.14 旅游博客

Mouthami出版社(2013) TF-IDF词类和模糊分类算法 87.4 电影评论数据集

咋et al。(2014) 支持向量机,NB,我分类器采用评价矩阵F1-Measure 83.0 - 88.43 客户评价(反馈)

Habernal et al。(2014) 语法和POS相关
特征和表情符号选择使用MI,气,或者,RS方法。分类器我和SVM用于分类。
78.50 从社交媒体数据集

出版社。(2015) 使用word2vec特性分类的支持向量机分类器 89.95 - 90.30 中国审查数据集

罗出版社。(2016) 首先将文本转换为低维情感空间(ESM),下一个实现支持向量机,NB, DT分类器。 63.28 - 79.21 股票消息文本数据

彭日成等人采用三种不同的ML算法如支持向量机、NB,和我。他们认为袋子的框架与语法特性,比如unigram、三元,他们的组合。支持向量机算法的性能是令人信服的根据他们的分析。戴夫等研究工作。2)一些工具用于分析评论从亚马逊和CNET分类。他们选择三元和卦特性使用语法应用模型和一些得分方法最终确定评审持有正面或负面的意见。SVM和NB分类器实现句子级别分类精度为87.0。

电影评论数据集IMDb被annet & Kondrak用于研究,20083]。他们采用了提取词汇资源WordNet情绪。NB等不同分类支持向量机,决策树用于交替检查分类和准确性达到75%以上。

在某些情况下(4),支持向量机分类器单独无法提供令人满意的性能对于小数据集,但与NB SVM分类器的组合执行得非常好通过整合这两个分类器的优点。

Zhang et al。5)提出了一个中国评论服装产品的分类方法。他们应用word2vec和 技术虽然word2vec帮助捕获基于语义关系的语义特征。 只不过是另一种结构制定对二分类支持向量机的优化问题。他们这个组合的情绪分类取得了良好的结果。Mouthami et al。6]提出新方法作为人气电影评论数据集上的模糊分类算法提高分类精度。预处理标记方法,停止词删除,TF-IDF, POS标记用于初始修剪。模糊规则(7- - - - - -9)实现不同算法在各领域的数据挖掘领域。在[10]他们在旅游博客研究和应用各种机器学习算法,NB和支持向量机,通过考虑语法模型获取特性集。在这项研究中,支持向量机工作最好的准确率达到了85.14%。

特征选择阶段主要是有助于完善功能,被认为是作为输入分类任务。特征选择绝对是一个有益的任务被Narayanan et al。11基于实验结果)。只应用互信息特征选择方法和朴素贝叶斯分类器(NB)域的电影评论。

戴伊等人关注情绪的快速检测在线电影评论和酒店评论的内容。卡方检验的统计方法已经被用于发现正面信息和负面得分为每个功能并创建一个单词字典通过总结信息得分。分类器资讯和NB的详细解释,在NB生产精度比资讯数据集分类器对电影评论。

Amolik et al。12)提出了一个超过21000的网民情绪预测模型运用机器学习分类支持向量机和NB。特征向量也让主管处理Twitter重复字符的问题。他们达到更高的精度与支持向量机(75%)相比,NB(65%)通过评价矩阵的精度和召回。大量的研究论文与不同的ML分类器,即朴素贝叶斯(NB) [6,13),支持向量机(SVM) [4,5,14),最大熵(15- - - - - -17),和决策树3,13,18)主要用于构建分类模型在不同的领域。

3所示。建议的方法

该分类方法总结了几个步骤如下所述:(1)数据收集:在这项工作中,电影评论数据库(IMDb)和产品评论(电子、厨房)数据库被认为是关于情绪分类来解决这个问题。(2)预处理:这种技术需要去除噪声,不一致,通过考虑标记和不完整的数据,停止词去除和抑制方法。(3)特征提取和选择:最初,创建一个与数值特征向量,每个unigram和一定范围的频率计数。机器学习分类器需要数值矩阵进行情感分类。每个特性的频率分数总和特性集(unigram +三元)计算,只有这些功能被认为是那些拥有一个值大于5。进一步,这减少了特性集发送到搞笑的特征选择方法,气,基尼指数。搞笑的特征选择方法、卡方和基尼指数是用来指定一个特定重量的个人特性和创建一个顶级特性列表。(4)分类:最后,培训监督机器学习分类支持向量机,MNB,然而,与我不同的特征向量分类数据集。

4所示。方法

介绍了文本分类作为一个研究领域很久以前(19];然而,sentiment-based分类是最近发起2,16,20.]。本研究工作的最终目的是研究各种机器学习分类器的性能(多层陶瓷)和三个组合特性集。整个过程可以在四个步骤完成:数据采集、预处理、特征选择和分类。概述介绍了拟议的框架如图1,下面的内容将提供一个详细描述每个初步功能。

4.1。数据:数据准备

我们在电影评论数据集进行实验,由庞&李,200420.]。本研究使用电影评论和产品评论的数据集(电子和厨房)进行情感分类的任务。电影评论数据集https://www.kaggle.com/nltkdata/movie-review movie_reviews.zip是一个流行的基准数据集,已被一些研究人员为了分析实验结果。电影评论的标准数据集包括整体2000评论1000条评论标记为积极和1000是负面的。亚马逊的产品评估数据集http://www.cs.jhu.edu/ ~ mdredze /数据/情绪/ processed_acl.tar.gzBlitzer et al .(2007)提供的被认为是一个调查,我们采用了数据集的电子产品和厨房领域语料库由Blitzer et al。每个域的pos语料库有1000 +和1000底片-标记的评论。

预处理是通过这三个数据集的实验做准备。

4.2。预处理

(我)标记或分割:它可以通过分裂文档(爬评论)的令牌的列表等词,数字和特殊字符,使文档可以用于进一步的处理。(2)归一化:这个过程将所有文档的单词标记转换成小写或大写,因为大多数的评论包括两种情况下,即,大写和小写字符。因此,令牌(转移到一个格式)可以很容易地用于预测。(3)删除停止词:停止词是非常普遍和高频词。这个过程是由删除常用的停止词(介词、无关紧要的话说,特殊字符,和ASCII代码),新线路,额外的空白等增强的性能特征选择技术。(iv)阻止:的过程是将所有标记转换为茎或根的形式。所是一个快速和容易的方法,使特征提取过程更加轻松。

4.3。字格

语法模型由一个连续的序列n的单词从给定审查数据集。模型通常用于掉落序列,2克序列,序列和3-gram序列,有时可以扩展。

例子

文本数据:“有总比没有好。”

(1克或n = 1) Unigrams:“事”、“是”,“更好”,“比”,“没有”。

(2克或n = 2)三元:“是”,“更好”、“比”、“比没有”。

(3克或n = 3)三元模型:“更好”,“比”,“总比没有好”。

4.4。特征选择

特征选择方法(FSM)是一个重要的任务,加强情绪分类过程的准确性。一般来说,是统计所代表的功能和类类别之间的关系。分类器的性能主要依赖于功能集;如果特征选择方法表现良好,那么最简单的分类器也可以给一个好的精度通过培训。这些FSMs通常由一些概率实现这些概率的理论分析方法。我们使用符号的列表,它描述了表3

从训练数据分析信息需要确定这些概率和符号对训练数据列在表中2鉴于如下:


象征 描述

P ( ) 概率是一个文档d是在课堂上
P (f) 概率文档d包含特性f
P ( ) 概率是一个文档d不包含特性f
P ( / f) 在课堂上概率文档d包含特性f
P ( / ) 概率文档d不包含特性f类


象征 描述

总没有。在训练数据集的文档
不。在课堂上的文档
不。在课堂上的文档 包含特性f
不。文件不是在课堂上 但是包含特性f
= - - - - - - 不。在课堂上的文档 不包含特性f
= - - - - - - - - - - - - 不。无论是在课堂上的文档 也不包含特性f。

我们表示 = 的集合类。

4.1.1。信息增益(IG)

这个统计属性特征选择作为一种有效的解决方案。搞笑方法用于基于class属性选择重要功能特性分类的规则。每个术语的搞笑价值可以测量获得的信息的数量类预测通过了解这个词的存在与否文档(21]。某一个词的搞笑价值或功能由以下方程计算 这是定义如下。 搞笑的排名提供了一个特性取决于他们的搞笑分数;因此可以选择一定数量的特性。

10/24/11。卡方

卡方检验( )是一种非常普遍的应用统计检验,可以量化或术语之间的关联特性 及其相关类C。它测试一个零假设的两个变量特性和类是完全相互独立的。气的价值功能 为类C更高,更紧密的关系之间存在的变量特性 和类 最高的特点 值分类的类别应该执行最好的文档。该方法的制定如下。 它也可以被定义为考虑 ( - - - - - - ), ( - - - - - - - - - - - - ),上述公式是重写如下。

4.4.3。基尼系数

基尼系数衡量的特性类之间的区别的能力。这种方法主要是用于决策树算法的基础上提出一种杂质分离方法。基尼系数的主要原则是考虑作为一个数据集的样本有米许多不同的类 = c1, 。根据类级别,样本集可以分裂成n子集 ,i = 1、2…n)。集合S的基尼系数 在概率 任何样品属于类 并且可以计算 (22]。基尼系数的特性可以独立估计二进制分类。我们采用基尼系数文本(GIT)方法计算功能得分,通过引入公园等。23]。这个算法是增强克服基尼指数法的局限性。

根据之前的符号表中定义3,我们可以计算的基尼系数特性f d属于类的文档

5。分类

5.1。朴素贝叶斯(NB)

朴素贝叶斯分类方法用于分类和培训。NB分类器的基本理论是基于独立假设,联合概率的特征和类别是用来大致计算给定文档类别的概率评分。这是一个简单的概率分类器在分类,帮助文档 ,的类 ( = c1, )。最好的类返回NB分类和可能是最或最大后验(MAP)类 在类 可以估计的数量除以文档类 文档的总数。 表示出现的次数功能文档 属于类 的概率值 将计算为每个可能的类,但P ( 为每个类)不会改变。因此我们可以减少分母。

我们因此选择最高可能的类 给定文档d通过计算每个类的后验概率。

有几个朴素贝叶斯的变化。在本文中,我们考虑多项朴素贝叶斯分类器。

多项朴素贝叶斯(MNB)。多项朴素贝叶斯模型(24通常用于离散计数。我们认为MNB分类器对文本分类任务,一个文档d由特征向量(f1,f2…fn)单词频率在给定文档的整数值。多项NB模型的条件分布P 文档d c类如下。 最后方程与贝叶斯规则朴素贝叶斯分类器的最高可能的类如下。 现在,来估计概率 我们认为这个功能作为一个词出现在文档的袋。因此我们将计算 通过考虑 词出现的次数wj在文档 从类 在所有单词类的所有文档 然后估计概率的文档给出它的类如下:

在哪里 是欧盟在所有类所有词的类型。

的概率 估计从训练数据集定义如下。

5.2。支持向量机(SVM)

支持向量机(svm)监督学习模型介绍25)在线性和非线性二元分类版本。一般来说,数据集是非线性分不开的,所以SVM分类器的主要目的是赶上最好的可及表面分离积极和消极训练样本基于经验风险(训练集和测试集错误)最小化本金。支持向量机方法可以定义一个决定边界超平面的高维特征空间。这超平面矢量化文档分为两类,以及确定结果做出决定基于支持向量(26]。支持向量机可以最小化的优化问题如下。

给定的N线性可分的训练集的特征向量x d维度,双重优化 解决支持向量机(双)可以最小化如下。 经典的支持向量机似乎能够独立的线性数据集用一个超平面,可以单独的两个类。对非线性数据超过两类处理,核函数是用在这种情况下制定一个高维空间的数据是线性可分的。

5.3。再

确定未知样本的类,然而,算法通过检查K-Closest实例的训练数据集和预测的基础上,其大部分属于“最亲密的邻居”。然而,算法是最简单而有效的算法之一,通常用于分类和回归。然而,首先训练系统与现有的评估数据集来预测测试样本的类别。

示例使用资讯年代算法的分类过程是定义如下27]:(我)假设有总N训练样本的类别(C1、C2 Ci)和m维特征向量通过应用不同的特征选择方法。我们准备样品年代向量的形式(s1, s2…sm)作为训练样本。(2)计算所有训练样本之间的相似性和美国考虑到j训练样本dj (dj1,dj2,…dj)估计相似SIM (S、dj)如下。 (3)选择k比N相似的样品SIM (S、dj),在哪里j = 1, 2, N,,把它们当做样品再邻居S S(每个类别的概率计算使用以下公式。P (S, C)= 在哪里 是不同的类别的属性函数具有以下条件。 最后,预测样本的类别与最大的年代P (S, C)

5.4。最大熵(我)

这是一个概率分类器通常用于各种NLP应用程序。这种分类技术文档提供了预期,属于一个特定的类框架的熵最大化分类文档(28]。我不做任何假设条件相互独立的特性,这样比NB更可靠的结果。这比NB分类器需要更多的时间来训练分类器,因为它解决了优化问题来估计模型的参数。为了处理分类器最大熵,我们应该选择一个功能设置约束。对于文本分类的目的,我们认为字数是一个特性。我的值可以通过指数形式表示如下: 在哪里 的概率是指文档的d类“c”和z (d)是一个归一化函数。 表明feature-weight参数估计,如果 (d c)的功能特性 ,和c类功能/类函数 (d c)可以定义如下: 在哪里 (d c)的功能特性 ,和c类 (d)显示功能的发生' d '“我”文档。feature-class对频繁发生在文档' d ',高频,类c的强大的指标。拥有一个强大的功能取向将被设置为1;否则它会是0。

6。实验和结果

6.1。评价参数

监督ML算法的性能可以评估基于混淆矩阵的术语或元素的一组测试数据。混淆矩阵包含四个方面,即真阳性(TP),假阳性(FP),真正的负面(TN),假阴性(FN)。根据这些元素的值,评价矩阵精度,回忆,和准确性决定估计分类器的性能得分。

6.2。结果与讨论

以下实验结果帮助研究个体的影响以及不同的特征选择方法的组合分类器的性能。这个结果清楚地显示每个分类器的表现与不同的特征选择方法。在本节中,进行了深入调查来衡量该方法的有效性,即。,to compare the performance of the four supervised classifiers SVM, MNB, KNN, and ME based on the combination of the different feature selection methods.

4- - - - - -6显示性能的支持向量机的机器学习方法,MNB,然而,我对不同的特征选择方法。该方法与其他FSMs IG相比表现良好。


方法 分类器
支持向量机 MNB 然而,
前的 回忆 f值 前的 回忆 F分数 前的 回忆 F分数 前的 回忆 f值

Unigram 86.6 82.4 84.44 85.7 82.4 84.01 84.1 80.2 82.10 84.7 83.1 83.89
三元 87.4 84.8 86.08 82.1 80.7 81.39 83.0 80.8 81.88 82.4 80.0 81.18
Unigram + 86.2 83.2 84.67 86.2 83.4 84.77 78.6 76.1 77.32 86.6 82.8 84.65
三元
CompIG 92.5 88.1 90.24 88.9 87.2 88.04 87.4 83.6 83.45 84.2 87.1 85.62
CompCHI 90.0 87.3 88.62 86.6 84.7 85.63 86.2 82.4 80.25 87.6 84.5 86.02
CompGI 91.2 89.6 90.39 88.0 84.5 86.21 87.3 84.9 79.08 85.9 88.4 87.13
平均 89.4 86.4 87.86 86.25 83.81 84.69 84.43 81.33 82.84 85.23 84.31 84.74


方法 分类器
支持向量机 MNB 然而,
前的 回忆 F -分数 前的 回忆 f值 前的 回忆 f值 前的 回忆 f值

Unigram 86.9 83.2 85.0 85.7 86.6 86.14 82.3 80.1 81.18 82.1 79.8 80.93
三元 81.5 80.1 80.79 82.5 80.2 81.33 84.5 81.2 82.81 78.2 76.2 77.18
Unigram + 87.2 84.4 85.77 85.2 87.4 86.28 86.2 82.7 80.41 83.1 80.4 81.72
三元
CompIG 88.3 87.1 87.69 89.2 86.0 87.96 87.7 84.5 85.07 85.7 81.9 83.75
CompCHI 86.7 82.5 84.54 87.9 85.4 86.63 83.9 81.2 82.52 86.2 83.6 84.88
CompGI 88.1 84.8 86.41 88.2 85.7 86.93 88.6 83.4 84.92 87.3 85.5 86.39
平均 86.6 83.5 85.01 86.3 85.4 86.33 85.53 82.18 83.81 83.76 82.10 84.75


方法 分类器
支持向量机 MNB K神经网络
前的 回忆 f值 前的 回忆 f值 前的 回忆 f值 前的 回忆 f值

Unigram 85.4 80.2 82.71 82.1 80.7 81.39 83.9 81.4 82.63 84.0 81.2 82.57
三元 85.6 84.1 84.84 81.4 78.8 80.07 82.5 78.9 80.65 81.2 83.4 82.28
Unigram + 88.7 86.2 87.43 86.3 84.9 85.59 84.6 83.2 83.89 83.3 84.5 83.89
三元
ComopIG 87.9 85.6 86.73 86.8 83.1 84.86 84.7 82.6 83.63 85.1 83.7 84.39
CompCHI 86.8 85.9 85.34 84.0 82.5 83.24 81.1 83.2 82.13 84.4 85.5 84.94
CompGI 83.2 82.10 83.13 86.2 83.8 84.98 85.4 87.7 86.53 85.2 87.2 86.18
平均 85.75 83.11 85.40 84.46 82.3 83.35 83.84 81.18 82.48 83.86 84.25 84.04

电影评论的数据集的结果表4表明ComopIG和CompGI各种特征选择方法中有一些不错的选择。复合特性集CompUniBi (unigram +三元)提供了非常有说服力的结果与搞笑和胃肠道的方法,虽然unigram和三元特性的结果是无法单独给一个满意的输出。

虽然比较分类算法的性能在当前的工作,支持向量机与电影产生最佳结果数据集以及一个厨房。最高的f值通过SVM与CompGI方法在表90.394。由此产生的值表明,特征选择方法CompIG也表现良好和支持向量机分类器对所有三个审查数据集,但使用气和支持向量机的结果并不让人印象深刻。

根据表5分类支持向量机,MNB,我用10倍交叉验证技术提供令人印象深刻的结果,最大精度87.96通过MNB电子评估数据集的分类器。MNB执行得非常好,情绪分析在许多先前的研究。NB方法是一个简单的和流行的分类技术,虽然条件独立性假设是严厉的。然而,在我们的调查中,MNB是下一个最好的电影评论中支持向量机性能数据集f值88.04。在所有的三个数据集,MNB分类器保持持续高绩效在整个工作。

报道在表中4- - - - - -6,f值值获得使用组合(unigram +三元)相对比,得到了单独使用unigram或三元。如果我们考虑厨房审查的结果数据集基于表6的f值结合unigram特性列表和元从82.71增加到87.43。

特征选择方法搞笑和基尼指数与综合特性集生产最好的或多或少每个分类器的分类结果,因为他们在初级阶段消除无关紧要和嘈杂的特性和只考虑顶级特性。他们选择的特性基于类级别属性的重要性。资讯分类器实现最佳性能的评估数据集的厨具(86.3%)时,基尼指数法。

我分类器得到的最大87.13 f分数卡方检验方法。当我们考虑域电子和厨房,我的f值分类器减少到86.39和86.18,分别。

为了调查数据2- - - - - -4如果我们比较分类器的性能,支持向量机优于其他分类方法,MNB,然而,我。根据精度的平均值,回忆,和f值价值,我们估计三个算法测试数据集的结果。最高的平均值87.86是描绘在图2电影评论的数据集。图3表明MNB分类器获得的最小平均值为86.33电子数据库。根据图4作为最大的平均分数,结果值85.40是厨房检查数据集分类器获得的支持向量机。

6.3。绩效评估

本节比较建议的方法的准确性与其他现有方法考虑如IMDb数据集。这种比较是根据精度值,这些方法实现。采用的方法,即。,the combination of different feature selection methods, produces a better result in comparison with the result obtained by applying individual feature selection method in previous research approaches shown in Table7


数据集 特征选择方法 分类器 性能

彭日成et al。 互联网电影数据库(IMDb) 语法功能 支持向量机

82.9(精度)
81.5
81.0

阿加瓦尔等。 电影(IMDb)
产品(书、DVD、电子)
RSAR语法,搞笑,
混合(IG + RSAR)
支持向量机
87.7 (F-measure)
80.9

Al-Moslmi et al。 电影评论的马来语言 搞笑,太极,基尼指数 支持向量机

然而,
85.33 (F-measure)
80.88
74.68

Kalaivani et al。 电影(IMDb) - - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - -- - - - - - 支持向量机

然而,
81.71
72.55
98.70

Tripathy et al。 电影(IMDb) 语法功能 支持向量机


SGD
88.94
88.48
86.23
85.11

我们的方法 电影(IMDb) 语法,结合Unigram &三元与搞笑,CHI,基尼指数 支持向量机
MNB
然而,
90.39 (F-measure)
88.04
86.03
87.13

在一个由彭日成等试验研究。20.情绪分析,他们利用SVM, NB,我和语法unigram技术分类器和三元以及他们的组合在电影评论数据库(IMDb)。他们得到的精度82.7,81.2,和81.0分类支持向量机,NB,分别和我。

阿加瓦尔et al。29日)提出了一种混合方法结合粗糙集理论和信息增益情绪分类。这些方法评估等四个标准数据集电影评论(IMDb)和产品(书、DVD和电子)审查数据集。支持向量机和NB分类器使用10倍交叉验证分类情感极性的审查文件。F1-measure值被认为是衡量工作表现的最高87.7和80.9支持向量机和NB分类器。

Kalaivani et al。30.)检查多分类支持向量机,NB,资讯与电影评论数据集的不同特征尺寸。信息增益特征选择方法(IG)应用于选择顶部p %排名特征训练分类器。在这项工作,支持向量机方法表现最高的朴素贝叶斯和资讯的方法精度为81.71。实验结果报道的精度和召回的值分别积极和消极的语料库。

在[31日),调查Tripathy等人采用机器毫升分类器,也就是说,NB,支持向量机,我,和SGD执行情绪分类在线电影评论(23)和语法技巧。绩效评估可以通过精度等参数,还记得,F-measure和准确性。

结果与我们的方法比较表明,FSMs对分类性能有很大的影响。功能排名技术(信息增益、卡方和基尼系数方法)在没有特征选择提高分类性能。

Al-Moslmi et al。32]研究特征选择方法对机器学习方法在马来情绪分析的影响。这是证明了改进的特性选择导致更好的性能在马来sentiment-based分类。作者接近三种特征选择方法(搞笑、基尼系数和CHI)增强三个机器学习分类器的性能(NB, SVM和资讯。数据集2000电影评论是爬几个web内容的马来语的语言。结果表明,支持向量机分类器的组合和IG-base方法建立最好的分类算法,与85.33%的精度和功能大小为300。作者也报道,使用FSMs的收益率提高结果相比从原来的分类器。

7所示。结论

情感分析是最具挑战性的领域之一,涉及到自然语言处理。它有广泛的应用,比如市场营销、政治、和新闻分析,和所有这些领域受益于情绪分析的结果。

本文的目的是探索统计特征选择方法的能力如搞笑、卡方,和基尼系数,提高四个机器学习算法支持向量机的分类性能,MNB,我,然而,对于情绪分类。首先,我们应用语法(unigram三元)方法在噪声预处理数据集和获得自由的特性集CompUniBi,搞笑的特征选择方法,气,和胃肠道得到一个最优的特征子集。这些方法提供了一个特性取决于他们的分数排名;因此一个突出特征向量(CompIG、CompGI CompCHI)可以轻松地生成分类。最后,分类支持向量机,MNB,然而,我和机器学习突出特征向量用于分类审查文档或正面或负面。

情绪的性能分析是评估在三个不同的领域数据集:电影,电子产品,厨房和审查,和分类算法的有效性估计F-measure而言,精度和召回。作为讨论的部分6.2。unigram的复合特性集和三元产生令人信服的结果。具体来说,很明显,SVM表现更好的准确性(90.24)高于MNB,我,和神经网络组合搞笑(CompIG)特征向量,而MNB分类器提供性能88.04一起使用时更少的特征。这些经验的实验表明,该方法是非常有效的和令人鼓舞的。

在未来,我们的目标是改善情绪分类的性能通过扩大实验数据的数量。我们还计划未来将传统的机器学习方法与深度学习技术来解决的挑战情绪预测大量的无监督数据集产品评论。

数据可用性

电影评论数据集https://www.kaggle.com/nltkdata/movie-review movie_reviews.zip是一个流行的基准数据集用于我们的研究工作。我们采用了数据集http://www.cs.jhu.edu/ ~ mdredze /数据/情绪/ processed_acl.tar.gz的电子产品和厨房领域语料库由Blitzer et al。

的利益冲突

作者宣称没有利益冲突。

引用

  1. b . Liu“情绪分析和主体性,”邀请章自然语言处理的手册:Indurkhya和f . j . Damerau Eds。,第二版,2010年。视图:谷歌学术搜索
  2. k·戴夫,美国劳伦斯,d . m . Pennock”挖掘花生画廊:意见的提取和语义分类产品评论,”学报》第12届国际会议上万维网(WWW ' 03),页519 - 528,布达佩斯,匈牙利,2003年5月。视图:出版商的网站|谷歌学术搜索
  3. m . annet和g . a . Kondrak”情感分析技术的比较:偏振电影博客,”人工智能的发展,25 - 35,2008页。视图:谷歌学术搜索
  4. a . Tripathy a Agrawal, s . k . Rath”情感分类审查使用机器学习技术,”Procedia计算机科学57卷,第829 - 821页,2015年。视图:谷歌学术搜索
  5. h . d . Zhang徐、z . Su和y,“中国评论情绪分类基于word2vec SVMperf,”专家系统与应用程序,42卷,不。4、1857 - 1863年,2015页。视图:出版商的网站|谷歌学术搜索
  6. k . Mouthami k . n .井斜和v . m . Bhaskaran)“基于文本评论情感分析和分类,”《2013国际会议信息通信和嵌入式系统,ICICES 2013印度,页271 - 276,2013年2月。视图:谷歌学术搜索
  7. H.-Y。小王和S.-M。陈,“评估学生answerscripts使用模糊数与程度的信心,“IEEE模糊系统,16卷,不。2、403 - 415年,2008页。视图:出版商的网站|谷歌学术搜索
  8. S.-M。陈,a . Munif G.-S。陈,H.-C。刘,在公元前。郭”,基于广义模糊数排序的模糊风险分析具有不同高度和左右的高度,“专家系统与应用程序,39卷,不。7,6320 - 6334年,2012页。视图:出版商的网站|谷歌学术搜索
  9. S.-M。陈,研究。常,js。锅,“模糊规则插值稀疏的基于高斯区间二型模糊集的模糊规则系统和遗传算法,”IEEE模糊系统,21卷,不。3、412 - 425年,2013页。视图:出版商的网站|谷歌学术搜索
  10. 问:你们、>和r .法律,“情绪分类在线评论的旅游目的地,监督机器学习方法,“专家系统与应用程序,36卷,不。3、6527 - 6535年,2009页。视图:出版商的网站|谷歌学术搜索
  11. 诉Narayanan i Arora, a . Bhatia”快速和准确的情绪分类使用增强朴素贝叶斯模型,”智能数据工程与自动化学习-理想2013卷,8206在计算机科学的课堂讲稿施普林格,页194 - 201年,柏林,德国海德堡2013。视图:出版商的网站|谷歌学术搜索
  12. a . Amolik n . Jivane m . Bhandary和m .文卡特斯,”Twitter电影评论的情感分析利用机器学习技术,”国际工程和技术杂志》上,第2044 - 2038页,2016年。视图:谷歌学术搜索
  13. b .罗、j .曾和j .段“情感空间模型分类意见的股票留言板,”专家系统与应用程序,44卷,第146 - 138页,2016年。视图:出版商的网站|谷歌学术搜索
  14. c . Selvi c Ahuja,大肠Sivasankar”的比较研究特征选择和机器学习方法对电影情绪分类的数据集,”智能计算与应用d . Mandal, r .凹地,s Das和b . k . Panigrahi, Eds。施普林格,页367 - 379年,印度,2015。视图:谷歌学术搜索
  15. Habernal, t . Ptaček和j·斯坦伯格,“在捷克社会媒体监督情绪分析,”信息处理与管理,50卷,不。5,693 - 707年,2014页。视图:出版商的网站|谷歌学术搜索
  16. 庞,l·李和美国Vaithyanathan大拇指?在情绪分类使用机器学习技术。会议的程序实证方法在自然语言处理(ACL 02),页79 - 86,斯特劳斯堡,宾夕法尼亚州,美国,2002年。视图:出版商的网站|谷歌学术搜索
  17. Z.-J。咋,j . Yu j . Tang m . Wang, t·s·艾。蔡”,排名及其应用产品方面,“IEEE工程知识和数据,26卷,不。5,1211 - 1224年,2014页。视图:出版商的网站|谷歌学术搜索
  18. m . Ghosh和g . Sanyal预处理和特征选择方法有效的情绪分析产品评论,”学报》第五届国际会议上智能计算的前沿:理论和应用程序,艾德。s . c . Satapathy出版社515年,施普林格,印度,2016。视图:谷歌学术搜索
  19. 诉Hatzivassiloglou和k·r·部”预测形容词的语义取向”学报》第八章欧洲会议协会的计算语言学,第181 - 174页,马德里,西班牙,1997年7月。视图:出版商的网站|谷歌学术搜索
  20. 庞b和l·李”,情感教育:使用主观情绪分析总结基于最小削减,”学报》第42届年会在计算语言学协会(ACL的04)、278、271页,计算语言学协会,巴塞罗那,西班牙,2004年7月。视图:出版商的网站|谷歌学术搜索
  21. y杨和j·皮德森”,在文本分类的特征选择,比较研究”学报》第14届国际会议上机器学习(ICML ' 97),1997年。视图:谷歌学术搜索
  22. w·商黄h, h·朱林y, y曲,和z . Wang”小说文本分类特征选择算法”,专家系统与应用程序,33卷,不。1、1 - 5,2007页。视图:出版商的网站|谷歌学术搜索
  23. h .公园,美国Kwon, H.-C。Kwon”,完整的基尼系数文本(git)特征选择算法用于文本分类,”第二届国际会议在软件工程和数据挖掘(SEDM 10),页366 - 371,中国,2010年6月。视图:谷歌学术搜索
  24. a . m . Kibriya e·弗兰克,b . Pfahringer g·霍姆斯,“多项朴素贝叶斯的文本分类修订,”2004年人工智能:先进的人工智能卷,3339在计算机科学的课堂讲稿施普林格,页488 - 499年,2004年。视图:出版商的网站|谷歌学术搜索|MathSciNet
  25. c·w·许,c . c . Chang和c . j .林支持向量分类的实用指南大学、西蒙弗雷泽大学、8888驱动器,公元前本拿比,加拿大,2005。
  26. t . joachim”,与支持向量机的文本分类:学习许多相关特性,”《欧洲机器学习会议(ECML 98)卷,1398年,页137 - 142,施普林格,1998年。视图:出版商的网站|谷歌学术搜索
  27. y利华国际、d . Qi和g .宿州农村“资讯研究文本分类算法,”微计算机信息,21卷,不。2006年,第271 - 269页,2006年。视图:谷歌学术搜索
  28. k·尼噶的,j·拉弗蒂,a . McCallum“使用最大熵进行文本分类,”ijcai - 99研讨会上展出机器学习的信息过滤1卷,第67 - 61页,1999年。视图:谷歌学术搜索
  29. b·阿加瓦尔和n .米塔尔”情绪分类使用基于粗糙集的混合特征选择,”诉讼的第四届研讨会上计算方法主观性,情绪和社交媒体分析亚特兰大,页115 - 119年,2013年。视图:谷歌学术搜索
  30. p . Kalaivani和k . l . Shunmuganathan”情绪分类的影评监督机器学习方法,“印度计算机科学与工程学报(IJCSE)4卷,第292 - 286页,2013年。视图:谷歌学术搜索
  31. a . Tripathy a Agrawal, s . k . Rath”情绪分类审查使用语法的机器学习方法,“专家系统与应用程序57卷,第126 - 117页,2016年。视图:出版商的网站|谷歌学术搜索
  32. t . Al-Moslmi s Gaber a . Al-Shabi m .交易量和n .奥马尔”效应的特征选择方法在马来情绪分析,机器学习方法”学报第一ICRIL科技创新国际会议(lICIST 15),第447 - 444页,2015年。视图:谷歌学术搜索

版权©2018蒙娜丽莎Ghosh和Goutam Sanyal。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点4076年
下载1088年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读