复杂性gydF4y2Ba 复杂性gydF4y2Ba 1099 - 0526gydF4y2Ba 1076 - 2787gydF4y2Ba HindawigydF4y2Ba 10.1155 / 2020/6662088gydF4y2Ba 6662088gydF4y2Ba 研究文章gydF4y2Ba 最大熵模型和模拟的英语短语重新排序文本在语言学习的机器gydF4y2Ba https://orcid.org/0000 - 0002 - 6252 - 0365gydF4y2Ba 吴gydF4y2Ba 潍坊gydF4y2Ba 王gydF4y2Ba 魏gydF4y2Ba 外语部gydF4y2Ba 安徽大学学报gydF4y2Ba 合肥230601年gydF4y2Ba 中国gydF4y2Ba ahjzu.edu.cngydF4y2Ba 2020年gydF4y2Ba 21gydF4y2Ba 12gydF4y2Ba 2020年gydF4y2Ba 2020年gydF4y2Ba 9gydF4y2Ba 11gydF4y2Ba 2020年gydF4y2Ba 9gydF4y2Ba 12gydF4y2Ba 2020年gydF4y2Ba 12gydF4y2Ba 12gydF4y2Ba 2020年gydF4y2Ba 21gydF4y2Ba 12gydF4y2Ba 2020年gydF4y2Ba 2020年gydF4y2Ba 版权©2020年潍坊。gydF4y2Ba 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。gydF4y2Ba

提出了一种基于最大熵的特征提取算法短语重新排序模型在统计机器翻译语言学习机器。算法可以提取更准确短语重新排序信息,尤其是逆转短语的特征信息,解决不平衡的问题特征数据在最大熵训练在原始算法中,并提高了短语翻译重新排序的准确性。在实验中,他们结合语言特征,如词类,单词,和语法特征提取使用的语法分析器,和最大熵分类器被用来预测翻译错误,和实验验证进行汉英翻译数据集和比较。实验结果表明,不同的后验概率产生重大影响的分类错误率,和语言特征的结合基于后验概率这个词可以显著降低分类错误率,提高翻译错误的预测性能。gydF4y2Ba

安徽省重点人文社会科学项目:2019年的一项研究在跨文化沟通的人际策略gydF4y2Ba SK2019A0662gydF4y2Ba
1。介绍gydF4y2Ba

Phrase-based统计机器翻译是当前主流的机器翻译方法。翻译的基本单位转换从词到词组,和连续单词字符串处理翻译过程作为一个整体,这词上下文依赖的解决问题(gydF4y2Ba 1gydF4y2Ba]。翻译时,输入句子与短语字典,最好的短语选择部门,获得的短语翻译是重新排序以获得最好的翻译。其中,在短语层面重新排序基于短语机器翻译是一个重要的研究问题。许多系统使用失真模型概率调整目标语言短语之间的顺序(gydF4y2Ba 2gydF4y2Ba]。每个目标词的变形概率可以根据当前目标词的源语言短语起始位置和之前的目标短语。这句话的最后位置之间的距离计算的源语言短语。显然,这简单的策略基于惩罚长度会影响短语重新排序模型的准确性。引入语法知识转化为机器翻译系统可以有效改善重新排序的准确性(gydF4y2Ba 3gydF4y2Ba]。gydF4y2Ba

近年来,随着机器翻译的发展(SMT)基于统计方法,许多不同类型的机器翻译(MT)系统已经出现,如phrase-based、层次phrase-based,和syntax-based机器翻译系统,和翻译表现显著提高(gydF4y2Ba 4gydF4y2Ba]。自动翻译质量评价是统计机器翻译研究的一个热点。它可分为两种类型:自动评价参数和自动评价没有参数(gydF4y2Ba 5gydF4y2Ba]。领域的软件本地化,后者指的是自动给翻译质量的信心得分或分类识别和翻译中的错误翻译没有参考答案,以便翻译帮助翻译编辑快速定位错误位置和提高工作效率。为了提高机器翻译的质量,自动错误检测和分类后处理的输出中扮演着至关重要的角色。一方面,它可以帮助posteditors提高工作效率,另一方面,它可以分析相应的翻译源语言翻译错误。我们可以通过改变redecode源语言输入,从而提高翻译性能(gydF4y2Ba 6gydF4y2Ba]。gydF4y2Ba

其中,托架转录Alkazemi等提出的语法。gydF4y2Ba 7gydF4y2Ba)也被广泛应用于机器翻译领域。然而,由于支架传输语法不包含语言知识,它不能预测的组合顺序两个相邻目标短语。王等人。gydF4y2Ba 8gydF4y2Ba]使用双语短语的边界词作为特征的基础上,托架转录语法进行最大熵的训练得到重新排序模型并获得概率为了保存和相反的顺序通过计算相邻双语短语的特点;它可以更好地预测相邻词组之间的顺序,从而有效地提高翻译翻译系统的结果。通过观察最大熵的特征训练基于最大熵的短语reranking模型,发现保序的实例特征短语的数量远远大于了短语的实例的数量特征,因为汉语和英语的语序是大致相同的gydF4y2Ba 9gydF4y2Ba]。使用最大熵达到重新排序的短语也可以被视为一个分类问题,即保序类和reverse-ordering类,和功能数据用于训练分类器有一个数据不平衡的问题,这可能会影响到实际分类器分类效果。例如,如果联邦调查局选择训练语料库,基线特征提取系统提取4839390特性情况下,保序特性实例的占82.7%,而相反的顺序功能实例仅占17.3%gydF4y2Ba 10gydF4y2Ba]。以100000年所有特性实例句子为开放reranking模型的测试集和剩下的数据作为训练集最大熵,试验结果表明,reranking模型的判断准确性为97。55%的保序特性(gydF4y2Ba 10gydF4y2Ba]。倒序特性的判断准确率只有72.03% (gydF4y2Ba 11gydF4y2Ba]。此外,基于转录括号语法,假设源语言短语是邻和目标语言短语也相邻,但有相邻的源语言短语在实际汉英句子配对。鉴于上述情况,本文改进了最大熵特征提取算法从三个方面:保序例选择策略,引入功能相结合,并添加新的短语来提高判断的准确性reranking模型,最终达到提高翻译质量的影响。gydF4y2Ba

2。基于最大熵的统计机器翻译短语重新排序模型gydF4y2Ba

王等人。gydF4y2Ba 8gydF4y2Ba]提出一种基于统计翻译模型支架转录语法。简化支架转录语法只包含以下两条规则:gydF4y2Ba (1)gydF4y2Ba PgydF4y2Ba 我gydF4y2Ba :gydF4y2Ba XgydF4y2Ba ⟶gydF4y2Ba αgydF4y2Ba βgydF4y2Ba ,gydF4y2Ba PgydF4y2Ba jgydF4y2Ba :gydF4y2Ba XgydF4y2Ba ⟶gydF4y2Ba xgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba 2gydF4y2Ba |gydF4y2Ba xgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba 2gydF4y2Ba 。gydF4y2Ba

其中,gydF4y2Ba PgydF4y2Ba 我gydF4y2Ba 是词汇规则,这意味着源语言短语gydF4y2Ba αgydF4y2Ba 是翻译成目标语言短语gydF4y2Ba βgydF4y2Ba 。gydF4y2Ba PgydF4y2Ba 我gydF4y2Ba 合并规则,源语言短语和目标语言的词可以表示为维护秩序和相反的顺序。的过程中重新排序,先天的保存和扭转的概率可以设置两个不同的订单合并规则。这种方法忽略了不同源语言差异对目标语言短语。gydF4y2Ba

Maučec和DonajgydF4y2Ba 12gydF4y2Ba]改善上述的排序模型支架转录语法模型,提出了一种基于最大熵的短语排序模型支架转录语法,也就是说,使用最大熵模型用于短语排序:gydF4y2Ba (2)gydF4y2Ba χgydF4y2Ba =gydF4y2Ba pgydF4y2Ba ωgydF4y2Ba δgydF4y2Ba |gydF4y2Ba xgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba 2gydF4y2Ba =gydF4y2Ba 经验值gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba ωgydF4y2Ba 我gydF4y2Ba fgydF4y2Ba 我gydF4y2Ba δgydF4y2Ba ,gydF4y2Ba xgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba 2gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba 经验值gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba ωgydF4y2Ba 我gydF4y2Ba fgydF4y2Ba 我gydF4y2Ba δgydF4y2Ba ,gydF4y2Ba xgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba 2gydF4y2Ba 。gydF4y2Ba

其中,gydF4y2Ba fgydF4y2Ba是特征函数,gydF4y2Ba ωgydF4y2Ba 是重量的特性,和价值的gydF4y2Ba δgydF4y2Ba 订单保存或反向排序,选择结束词的短语的功能最大熵模型的训练。短语排序模型的性能实验结果表明,基于最大熵托架转录语法显著优于传统distortion-based短语调排序模型和托架转录基于语法的排序模型。然而,从实验中可以看出,保序实例的数量远远高于倒序数的情况下,这可能会影响性能的最大熵模型。本文削减从两个方面reranking实例的提取算法和特征选择,旨在解决最大熵的训练数据不平衡的问题。在实验中,统计机器翻译系统gydF4y2Ba 13gydF4y2Ba)基于最大熵排序模型将被用作基线系统。最大熵短语重新排序模型如图gydF4y2Ba 1gydF4y2Ba。gydF4y2Ba

最大熵短语重新排序模型。gydF4y2Ba

2.1。重新排序实例提取算法gydF4y2Ba

最大熵的提取算法重新排序的例子短语重新排序系统本文更灵活、简洁的实现和易于扩展,能够满足不同的提取策略的实验。reranking实例提取算法的输入是一个词对齐矩阵吉萨双向对齐,并输出是保序词实例和倒序词实例(gydF4y2Ba 14gydF4y2Ba]。连续提取算法首先遍历源语言中的词序列和提取的最大跨度的目标语言与这连续序列。然后,目标语言词序列和源语言词序列不满足一致性的一致性的过滤,也就是说,张成的空间目标语言在相反的顺序扫描检查是否对应的源语言跨范围内的原始连续词序列。最后,根据给定不同的提取策略,重新排序的例子是提取。gydF4y2Ba

2.1.1。变量定义gydF4y2Ba

重新排序的例子介绍提取算法之前,首先定义的变量相关的算法:gydF4y2Ba

对齐:存储所有校准矩阵从源语言到目标语言gydF4y2Ba

直接设置:存储一组目标语言短语的实例维护秩序gydF4y2Ba

倒置:实例的集合存储在相反的顺序的目标语言短语gydF4y2Ba

其他设置:存储实例的源语言短语是邻和目标语言短语不相邻gydF4y2Ba

Sec_跨度(gydF4y2Ba 我gydF4y2Baj]:一系列连续的话gydF4y2Ba 我gydF4y2Ba来gydF4y2Ba jgydF4y2Ba在源语言gydF4y2Ba

跨度(gydF4y2Ba 我gydF4y2Baj]:创纪录的连续词的序列gydF4y2Ba 我gydF4y2Ba来gydF4y2Ba jgydF4y2Ba在源语言和连续单词的顺序在相应的目标语言gydF4y2Ba

2.1.2。算法实现gydF4y2Ba

该算法首先获得最大一致性矩阵跨度(i, j)对应于任何源语言跨度(i, j),然后过滤掉非法跨越(i, j)。最后,它分类的重新排序的例子和提取特征的例子;具体步骤参见算法1。具体的算法如图gydF4y2Ba 2gydF4y2Ba。gydF4y2Ba

算法的实现。gydF4y2Ba

最后一行的改进算法的算法描述框架提取的例子。基于这个框架,方便制定各种提取规则。其中,10gydF4y2BathgydF4y2Ba一步对提取的双语词对齐矩阵,检查是否可以分成两个相邻双语短语对,和法官的组合顺序分割相邻双语句对。在最后一步,该算法引入了一个新的分类,即双语短语对不相邻。gydF4y2Ba

2.2。重新排序实例选择策略gydF4y2Ba

基线系统使用一个简单的方法来控制重新排序实例的数量,也就是说,只有最小的块保留保序实例,只有最大的块留给倒序实例。显然,一些短语边界特性以这种方式将丢失,和保护实例的数量仍然远远超过了实例的数量。这种不平衡的特征数据会影响判断最大熵重新排序模型的准确性,特别是倒序的特征的判断实例(gydF4y2Ba 15gydF4y2Ba]。开放式测试执行100000个实例,其中倒序实例的数量是17286,和倒序实例的测试准确率仅为72.03%。在这篇文章中,该算法框架下提出了部分gydF4y2Ba 3gydF4y2Ba,以下三个尝试重新排序的序列实例选择策略:gydF4y2Ba

为了解决失衡的特征数据在最大熵的训练过程中,最直接的想法就是采取一定的选择策略,直接限制保护实例的数量(gydF4y2Ba 16gydF4y2Ba,gydF4y2Ba 17gydF4y2Ba]。最小块相比选择的保序例基线系统,本文使用一个随机算法选择保序的例子的数量,避免损失的长短语边界特性,可能是由于前面的方法。gydF4y2Ba

在双语句子,源语言短语相邻但目标语言短语不相邻。针对这种情况,本文添加一个新分类基于(1)减少特性数据一定程度上的不平衡。如果提取的实例不属于保序和reverse-ordering类别实例可以分为一类(gydF4y2Ba 18gydF4y2Ba]。gydF4y2Ba

因为对齐结果的偏差,扩展不结盟的单词短语的例子将提高召回率特征提取。在这里,我们定义了保序和reverse-ordering规则,gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba{0,1},gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba0,这意味着提取的实例不是扩大了不结盟的话说,和gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba1,这意味着提取的实例是扩大了不结盟的单词。gydF4y2Ba

2.3。特征提取gydF4y2Ba

从reranking实例中提取出的特征对最大熵的训练。重新排序实例可以表示为 一个gydF4y2Ba1gydF4y2Ba,gydF4y2Ba 一个gydF4y2Ba2gydF4y2Ba>,gydF4y2Ba 一个gydF4y2Ba= bgydF4y2Ba,gydF4y2Ba cgydF4y2Ba>,gydF4y2Ba bgydF4y2Ba代表了源语言短语,gydF4y2Ba cgydF4y2Ba代表目标语言短语,gydF4y2Ba 一个gydF4y2Ba1gydF4y2Ba和gydF4y2Ba 一个gydF4y2Ba2gydF4y2Ba代表相邻或不相邻的短语。在这里,gydF4y2Ba b . fgydF4y2Ba的第一个词是用来表示源语言短语和gydF4y2Ba b . lgydF4y2Ba是最后一个词的源语言短语。使用相同的定义为目标短语gydF4y2Ba cgydF4y2Ba。基线系统考虑的规模特征提取和只使用尾词重排的例子。在特征提取实验中,除了上述四尾词功能,添加第一个词特征和组合特征(gydF4y2Ba 19gydF4y2Ba]。因为中文和英文之间的不同的语法结构,相应的英文翻译的短语或从句之前和之后中国标点符号可以表达这个短语或从句在相反的顺序gydF4y2Ba 20.gydF4y2Ba]。基线系统的解码方法,如果标点符号在重新排序搜索窗口,这个窗口将不会执行相反的顺序操作。这个方法是非常有效的对称符号,比如< < > > {}。然而,”。“不能简单地判断基于这个。本文的基础上增加的第一个词特征和组合特征reranking实例,标点符号特性添加最大熵的训练。重新排序的例子的特点如表所示gydF4y2Ba 1gydF4y2Ba。gydF4y2Ba

特点重新排序的例子。gydF4y2Ba

结束词功能gydF4y2Ba 一个gydF4y2Ba1gydF4y2Ba 。b, f,gydF4y2Ba2gydF4y2Ba 。c f,gydF4y2Ba1gydF4y2Ba 。b。f,一个gydF4y2Ba2gydF4y2Ba 。c fgydF4y2Ba
第一个词的功能gydF4y2Ba 一个gydF4y2Ba1gydF4y2Ba 。b。l,gydF4y2Ba2gydF4y2Ba 。c . l,gydF4y2Ba1gydF4y2Ba 。b。l,gydF4y2Ba2gydF4y2Ba .c.lgydF4y2Ba

结合特性gydF4y2Ba 一个gydF4y2Ba1gydF4y2Ba 。b。外一个gydF4y2Ba2gydF4y2Ba 。b。f,一个gydF4y2Ba1gydF4y2Ba 。c f一gydF4y2Ba2gydF4y2Ba 。c f,gydF4y2Ba1gydF4y2Ba 。b . f &gydF4y2Ba2gydF4y2Ba 。b, f,gydF4y2Ba
一个gydF4y2Ba1gydF4y2Ba 。c。f& a2gydF4y2Ba 。c . l,gydF4y2Ba1gydF4y2Ba 。c f一gydF4y2Ba2gydF4y2Ba 。c . l,gydF4y2Ba1gydF4y2Ba 。c . l &gydF4y2Ba2gydF4y2Ba 。c . lgydF4y2Ba
3所示。英语翻译系统评估标准gydF4y2Ba

评价标准的有效性错误检测方法采用分类错误率(CER),准确率(AR)、召回率(RR),和gydF4y2Ba FgydF4y2Ba标准。分类错误率的计算如下:gydF4y2Ba (3)gydF4y2Ba CERgydF4y2Ba =gydF4y2Ba 词的分类类别的数量是错误的gydF4y2Ba 单词的总数gydF4y2Ba 。gydF4y2Ba

在中文变成英文翻译错误检测和分类任务中,因为真正的类别数量在翻译假设“不正确”的数量大于“正确”,所以在确定分类错误率的基线水平,通常的方法如下:当所有的获得的评价标准分数是“正确”字是标记为“不正确的”,也就是说,基线水平的分类错误率=“正确”的数量样品/样本的总数。gydF4y2Ba

准确性是数量的比率gydF4y2Ba 米gydF4y2Ba ngydF4y2Ba分类器的准确分类的话,实际上是在类别gydF4y2Ba 我gydF4y2Ba数量gydF4y2Ba tgydF4y2Ba ngydF4y2Ba词的分类器标志gydF4y2Ba 我gydF4y2Ba,也就是说,gydF4y2Ba (4)gydF4y2Ba 基于“增大化现实”技术gydF4y2Ba =gydF4y2Ba 米gydF4y2Ba ngydF4y2Ba tgydF4y2Ba ngydF4y2Ba 。gydF4y2Ba

召回率是数量的比率gydF4y2Ba 米gydF4y2Ba ngydF4y2Ba分类器的准确分类词的类别gydF4y2Ba 我gydF4y2Ba单词的总数gydF4y2Ba ggydF4y2Ba ngydF4y2Ba 真正的类别gydF4y2Ba 我gydF4y2Ba:gydF4y2Ba (5)gydF4y2Ba RRgydF4y2Ba =gydF4y2Ba ggydF4y2Ba ngydF4y2Ba tgydF4y2Ba ngydF4y2Ba 。gydF4y2Ba

的gydF4y2Ba FgydF4y2Ba标准是准确性和回忆之间的权衡,即gydF4y2Ba (6)gydF4y2Ba FgydF4y2Ba =gydF4y2Ba 2gydF4y2Ba ×gydF4y2Ba 基于“增大化现实”技术gydF4y2Ba ×gydF4y2Ba RRgydF4y2Ba 基于“增大化现实”技术gydF4y2Ba +gydF4y2Ba RRgydF4y2Ba 。gydF4y2Ba

3.1。实验结果和分析gydF4y2Ba

在实验中,使用的语言模型gydF4y2Ba NgydF4y2Ba只统计语言模型,单语语料库英语培训模式,和成熟的开源语言模型训练工具识别领域的统计机器翻译的gydF4y2Ba NgydF4y2Ba克语言模型训练。实验使用four-gram语言模型的规模518 (gydF4y2Ba 15gydF4y2Ba]。基于reranking实例提取算法,我们设计了7对比实验比较不同的特征提取策略对最大熵的影响训练和影响最终的翻译结果分数蓝色。选择训练语料库提取短语列表和重新排序的例子,语料库规模大约是239000句对。以NIST-MT 02为实验开发集和NIST-MT-05作为测试集。gydF4y2Ba

3.2。特征提取的影响策略Reranking的结果gydF4y2Ba

100000年的特性数据记录reranking实例选择的开放测试集最大熵reranking模型。表gydF4y2Ba 2gydF4y2Ba显示的规模reranking实例从训练数据中提取,分类的类别,每个类别的比例,测试精度和提取功能。其中,测试精度正确样本数的比例根据最大熵分类器在测试集样本总数。其中,实验1基线系统和保序实例的数量没有限制。实验2 - 6保序实例的数量限制数量的两倍reverse-ordering实例,实验2 - 4不扩大对齐文字提取实例,实验5 - 7所有执行对齐文字扩张,和实验4和5添加新的类别。因为不同的实验要求不一致的特征,只能确定,测试集的数量的一致性测试集的内容不能被保证。因此,测试最大熵重新排序模型的精度不能简单地反映了翻译的水平的性能。最大熵重新排序模型的测试精度仍然可以作为参考指标。gydF4y2Ba

规模、类型分类、测试精度和reranking实例的提取特征。gydF4y2Ba

实验gydF4y2Ba 总数量的实例gydF4y2Ba 保证订单(%)gydF4y2Ba 相反的顺序(%)gydF4y2Ba 其他(%)gydF4y2Ba 测试精度(%)gydF4y2Ba 实验程序gydF4y2Ba
1gydF4y2Ba 4353250gydF4y2Ba 81.34gydF4y2Ba 16.48gydF4y2Ba 0.00gydF4y2Ba 92.48gydF4y2Ba 结束词功能gydF4y2Ba
2gydF4y2Ba 1424597gydF4y2Ba 65.38gydF4y2Ba 32.49gydF4y2Ba 0.00gydF4y2Ba 85.38gydF4y2Ba 限制的实例的数量订单保存gydF4y2Ba
3gydF4y2Ba 1424597gydF4y2Ba 67.39gydF4y2Ba 32.49gydF4y2Ba 0.00gydF4y2Ba 91.39gydF4y2Ba 第一个词的功能gydF4y2Ba
结合特性gydF4y2Ba
4gydF4y2Ba 3242782gydF4y2Ba 35.83gydF4y2Ba 20.38gydF4y2Ba 38.49gydF4y2Ba 75.38gydF4y2Ba 第三类gydF4y2Ba
5gydF4y2Ba 3124891gydF4y2Ba 35.38gydF4y2Ba 20.81gydF4y2Ba 38.51gydF4y2Ba 74.30gydF4y2Ba 扩展对齐的话gydF4y2Ba
6gydF4y2Ba 3144248gydF4y2Ba 74.28gydF4y2Ba 34.21gydF4y2Ba 0.00gydF4y2Ba 91.39gydF4y2Ba 标点符号的功能gydF4y2Ba

从图可以看出gydF4y2Ba 3gydF4y2Ba实验1的测试精度达到92.48%的最高价值。因为保护实例的数量限制在实验2中,提取的实例的数量降低了60%与实验1相比,导致最大。熵训练的数据量不足,所以测试准确率仅为85.38%。考虑到当实例的数量减少,功能由单一实例生成的数据的数量需要增加,所以在实验3中,第一个词特征和组合功能被添加到实例,和测试精度达到91.39%。然而,邻源语言短语并不表明目标语言短语相邻,所以实验4介绍了第三类,即目标语言。gydF4y2Ba

的测试精度和提取特征reranking实例。gydF4y2Ba

这句话不是相邻。实验4的测试精度下降到了75.38%,因为一个新的类别也增加了最大熵重新排序模型的不确定性的判断。实验5是基于实验4和扩大对齐文字增加例子的数量,但实验的结果5略低于实验4。两个实验4和5是基于实验3。第三类的引入导致大量减少在测试精度。在某种程度上,它表明第三类的引入不会改进最大熵模型的判断的准确性。因此,本文设计的实验6的基础上扩大对齐的话实验3和引用的基础上实验6。gydF4y2Ba

这两个实验的测试精度是仅略低于实验1。本文更关注特征提取的准确性战略最大熵模型来判断倒实例。图gydF4y2Ba 4gydF4y2Ba显示了测试的准确性上的最大熵reranking模型保持子集和反向子集(转化)的测试集的一个子集。保序测试集的测试例子。除了引进新分类实验4和5,保序特征的判断的不确定性增加。测试精度的实验2,3,6不不同于实验1 4%以上。的测试结果反向实例的测试集的一个子集。在实验2中,因为反向特性的训练数据量小,反向实例子集上的测试精度较低,和测试精度的实验3、4、5、6都优于实验1。实例用倒序的子集的准确性很高。其中,测试精度实验6是6%高于实验1。从上面的实验数据可以看出,最大熵重新排序模型特征提取算法提出了解决了不准确的判断相反的顺序功能特性数据的不平衡造成的。gydF4y2Ba

测试精度保持子集和逆转子集。gydF4y2Ba

3.3。翻译结果的比较gydF4y2Ba

区分大小写的蓝色值测试NIST-MT 05。图gydF4y2Ba 5gydF4y2Ba显示了6组的最大熵的影响与不同特性数据重新排序模型训练最后的翻译效果。基线系统实验1的蓝色值是0.2283。从图可以看出gydF4y2Ba 5gydF4y2Ba,除了实验2,最大熵模型重新排序的性能已经大大减少了在翻译过程中由于训练数据太少特性。实验3、4、5、6都是基于实验2添加特征信息,和reranking的性能模型,同时限制保护实例的数量是高于基线系统。在实验4中,翻译不相邻分类的性能降低,但仍高于蓝色值的基线系统。实验6添加标点符号特性和翻译后的蓝色。0.243的价值达到最高的价值。reranking实例提取和本文提出的特征提取算法可以显著提高reranking模型的性能,提高翻译质量通过限制保护实例的数量和增加的数量特征。gydF4y2Ba

不同的影响最大熵蓝色价值重新排序模型。gydF4y2Ba

4所示。误分类实验gydF4y2Ba

最大熵分类器的特征函数是考虑到上下文特征向量;也就是说,除了每个电流特性变量,它还考虑前后。实验设计:(1)进行分类实验3典型词后验概率特性和比较并分析其性能;(2)执行最大熵模型分类个人语言特征和实验分析;(3)结合三个典型的词后验概率特征和语言特征,进行分类实验,并比较和分析。gydF4y2Ba

4.1。基于词的分类实验后验概率特性gydF4y2Ba

表gydF4y2Ba 3gydF4y2Ba显示了基于后验概率的分类实验结果3典型的单词。在表gydF4y2Ba 3gydF4y2BaDir代表一个词后验概率特性基于一个固定的位置,赢得代表一个词后验概率特性基于滑动窗口,滑动窗口gydF4y2Ba tgydF4y2Ba= 2,列弗代表一个词后验概率特性基于Levenshtein对齐。当调整1-best翻译的假说gydF4y2Ba NgydF4y2Ba最好列表与其他翻译假设,开源工具包后(gydF4y2Ba 13gydF4y2Ba使用),及其“转移”功能是关闭的,这是回答对齐。上述三个后验概率离散使用前(gydF4y2Ba 10gydF4y2Ba]。gydF4y2Ba

错误检测的结果3典型的WPP特性。gydF4y2Ba

特性gydF4y2Ba CER (%)gydF4y2Ba 基于“增大化现实”技术(%)gydF4y2Ba RR (%)gydF4y2Ba F (%)gydF4y2Ba
基线gydF4y2Ba 42.24gydF4y2Ba - - - - - -gydF4y2Ba - - - - - -gydF4y2Ba - - - - - -gydF4y2Ba
DirgydF4y2Ba 38.49gydF4y2Ba 62.39gydF4y2Ba 71.93gydF4y2Ba 66.82gydF4y2Ba
赢得gydF4y2Ba 39.29gydF4y2Ba 62.38gydF4y2Ba 73.17gydF4y2Ba 67.91gydF4y2Ba
列弗gydF4y2Ba 38.92gydF4y2Ba 58.01gydF4y2Ba 91.39gydF4y2Ba 72.91gydF4y2Ba

从图可以看出gydF4y2Ba 6gydF4y2BaCER而言,与基线系统相比,Dir特性,赢,和列弗是降低了2.34%,3.97%,和342%(相对值),分别获得执行最佳。分析上述结果,我们可以得到以下几点:(1)赢得特性改变定位成一个滑动窗口,已对齐的灵活性更高,因此更符合订购源语言和目标语言的现象,由于不同的订单,但滑动窗口仅限于有限的地方订购;(2)列弗特性是基于Levenshtein对齐,对齐是更好,但它也引入了太多的编辑操作,如插入、删除和替换,因为没有词序,虽然对齐比Dir,灵活性是低于赢。从上面的分析和数据,可以知道结合CERgydF4y2Ba FgydF4y2Ba值,特征赢得了最佳的综合性能。gydF4y2Ba

3典型特征的检测结果。gydF4y2Ba

4.2。基于语言特征的分类实验gydF4y2Ba

表gydF4y2Ba 4gydF4y2Ba基于语言特征显示了错误检测的结果,即实体词(字),词性标注(POS)和语法关系(链接)。gydF4y2Ba

语言功能错误检测的实验结果。gydF4y2Ba

语言特征gydF4y2Ba CER (%)gydF4y2Ba P (%)gydF4y2Ba R (%)gydF4y2Ba F (%)gydF4y2Ba
基线gydF4y2Ba 40.24gydF4y2Ba - - - - - -gydF4y2Ba - - - - - -gydF4y2Ba - - - - - -gydF4y2Ba
词gydF4y2Ba 38.29gydF4y2Ba 63.18gydF4y2Ba 76.83gydF4y2Ba 68年,48gydF4y2Ba
POSgydF4y2Ba 39.26gydF4y2Ba 60.72gydF4y2Ba 85.82gydF4y2Ba 70.93gydF4y2Ba
链接gydF4y2Ba 40.27gydF4y2Ba 58.72gydF4y2Ba 92.37gydF4y2Ba 72.74gydF4y2Ba

与基线系统相比,如图gydF4y2Ba 7gydF4y2Ba、文字、POS和链接CER减少了5.36%,4.98%,和1.72%(相对值),分别,其中表现最好的。而言,gydF4y2Ba FgydF4y2Ba价值,链接执行比其他两个特性和POS比词。分析上述结果和比较表gydF4y2Ba 3gydF4y2Ba,我们可以获得以下:(1)除了链接功能,词的分类错误率和POS的语言特征的分类错误率低于3字后验概率特征;(2)链接功能最高的召回率和准确率最低。这主要是由于相对较少的链接功能。因此,当进行分类,分类结果是更倾向于目标词标记为一类gydF4y2Ba 我gydF4y2Ba,导致类别gydF4y2Ba cgydF4y2Ba。数量相对较小,所以召回率高、准确率低;(3)这个词特征的分类结果优于POS特性。原因可能是开发集和测试集更相关的(都在新闻领域)和功能的数量远远超过POS的数量特征,因此分类能力而言,其趋势(或概率)来预测目标词的类别gydF4y2Ba 我gydF4y2Ba低于POS数量相对较小的特性,导致较低的召回率,但精度很好。gydF4y2Ba

语言功能错误检测的实验结果。gydF4y2Ba

4.3。结合功能分类实验gydF4y2Ba

在自然语言处理的分类任务的研究中,特征组合通常可以更有效地降低分类错误率。表gydF4y2Ba 5gydF4y2Ba列出了基于最大熵模型的分类实验结果后,结合三种典型词本文描述后验概率特性和三个语言特性。从图可以看出gydF4y2Ba 8gydF4y2BaCER而言,与基线系统相比,三个结合特征的CER已经减少了13.14%,14.25%,和13.92%(相对值),分别gydF4y2Ba FgydF4y2Ba值也显著提高。虽然分类性能的三个特性组合并不重要,这三个特性的分类特征组合与单个WPP特性是一致的;即结合“Win + + POS +链接”最低分类错误率和结合“Dir + + POS +链接”最高gydF4y2Ba FgydF4y2Ba值,表明这个词后验概率特性基于滑动窗口的位置可以捕获更多的上下文信息,以便它能够区分翻译错误这个词比基于固定位置的后验概率特性。这种能力不仅体现在个人特征的比较也结合特性。同时比较三种不同的WPP的联合效应特性,表gydF4y2Ba 5gydF4y2Ba也揭示了语言特征的贡献错误检测,表明语言特征可以有效地降低分类错误率和提高错误预测的能力。gydF4y2Ba

错误检测的实验结果3 WPP的不同组合特征和语言特征。gydF4y2Ba

功能组合gydF4y2Ba CER (%)gydF4y2Ba PgydF4y2Ba(%)gydF4y2Ba RgydF4y2Ba(%)gydF4y2Ba FgydF4y2Ba(%)gydF4y2Ba
Dir +单词+ POS +链接gydF4y2Ba 34.58gydF4y2Ba 62.49gydF4y2Ba 87.38gydF4y2Ba 72.84gydF4y2Ba
Win +文字+ POS +链接gydF4y2Ba 34.58gydF4y2Ba 63.81gydF4y2Ba 83.48gydF4y2Ba 73.19gydF4y2Ba
列弗+单词+ POS +链接gydF4y2Ba 35.38gydF4y2Ba 64.29gydF4y2Ba 82.74gydF4y2Ba 73.16gydF4y2Ba

错误检测的实验结果3 WPP的不同组合特征和语言特征。gydF4y2Ba

5。结论gydF4y2Ba

本文提出了一个新的重新排序实例提取算法并在此基础上添加新功能来达到更好的翻译效果。首先,数据不平衡的问题,在最大熵的训练过程中直接解决了通过限制保序实例的数量,和翻译性能降低是由于特征信息太少。在此基础上,添加第一个词特征和组合特征可提高翻译性能。第二,第三种类型的短语组合顺序,也就是说,不相邻的情况下除了保序和reverse-ordering;虽然蓝色值有所下降,但仍高于基线系统。最后,本文试图扩大不结盟的词对齐的短语在这个实验中,增加reranking例子特性数据,并达到最佳的翻译性能。在下一步中,我们将继续研究重新排序实例特性对翻译性能的影响,注重语法知识的集成特性,希望能进一步提高翻译性能。此外,我们将进一步探索改进的译码器的基础上,将转录语法框架,以便它可以处理的情况下源语言短语相邻但目标语言短语不相邻。gydF4y2Ba

数据可用性gydF4y2Ba

使用的数据来支持本研究的发现可以从相应的作者。gydF4y2Ba

的利益冲突gydF4y2Ba

作者宣称没有利益冲突或人际关系可能出现影响工作报告。gydF4y2Ba

确认gydF4y2Ba

这项工作是支持的重点人文社会科学项目2019年安徽省:一项研究在跨文化沟通(没有人际策略。SK2019A0662)。gydF4y2Ba

王gydF4y2Ba X。gydF4y2Ba 你gydF4y2Ba Z。gydF4y2Ba 张gydF4y2Ba M。gydF4y2Ba 将统计机器翻译词汇知识纳入神经机器翻译gydF4y2Ba IEEE / ACM交易音频、语音和语言处理gydF4y2Ba 2018年gydF4y2Ba 26gydF4y2Ba 12gydF4y2Ba 2255年gydF4y2Ba 2266年gydF4y2Ba 10.1109 / taslp.2018.2860287gydF4y2Ba 2 - s2.0 - 85050615523gydF4y2Ba 蟹道gydF4y2Ba J。gydF4y2Ba 挖掘语言model-maximum熵短语抽取gydF4y2Ba 文本、演讲和对话gydF4y2Ba 2016年gydF4y2Ba 9gydF4y2Ba 12gydF4y2Ba 46gydF4y2Ba 53gydF4y2Ba 10.1007 / 978 - 3 - 319 - 45510 - 5 _6gydF4y2Ba 2 - s2.0 - 85008392243gydF4y2Ba 斯利瓦斯塔瓦gydF4y2Ba J。gydF4y2Ba SanyalgydF4y2Ba 年代。gydF4y2Ba 斯利瓦斯塔瓦gydF4y2Ba 答:K。gydF4y2Ba 提取统计机器翻译的重新排序规则gydF4y2Ba 《智能与模糊系统gydF4y2Ba 2019年gydF4y2Ba 36gydF4y2Ba 5gydF4y2Ba 4809年gydF4y2Ba 4819年gydF4y2Ba 10.3233 /出售jif - 179029gydF4y2Ba 2 - s2.0 - 85066436200gydF4y2Ba KlubičkagydF4y2Ba F。gydF4y2Ba 托拉尔gydF4y2Ba 一个。gydF4y2Ba Sanchez-CartagenagydF4y2Ba 诉M。gydF4y2Ba 定量细粒度的人类机器翻译系统的评价:一个案例研究在英语克罗地亚gydF4y2Ba 机器翻译gydF4y2Ba 2018年gydF4y2Ba 32gydF4y2Ba 3gydF4y2Ba 195年gydF4y2Ba 215年gydF4y2Ba FarzigydF4y2Ba 年代。gydF4y2Ba FailigydF4y2Ba H。gydF4y2Ba KianiangydF4y2Ba 年代。gydF4y2Ba 神经重新排序模型基于短语统计机器翻译依赖树gydF4y2Ba 智能数据分析gydF4y2Ba 2018年gydF4y2Ba 22gydF4y2Ba 5gydF4y2Ba 1163年gydF4y2Ba 1183年gydF4y2Ba 10.3233 / ida - 173582gydF4y2Ba 2 - s2.0 - 85054185423gydF4y2Ba 刘gydF4y2Ba Y。gydF4y2Ba 疯人gydF4y2Ba c . M。gydF4y2Ba 黄gydF4y2Ba p K。gydF4y2Ba 极端的学习机器,巨大的假设评估在统计机器翻译gydF4y2Ba 认知计算gydF4y2Ba 2017年gydF4y2Ba 9gydF4y2Ba 2gydF4y2Ba 285年gydF4y2Ba 294年gydF4y2Ba 10.1007 / s12559 - 017 - 9452 - xgydF4y2Ba 2 - s2.0 - 85013031135gydF4y2Ba AlkazemigydF4y2Ba B。gydF4y2Ba 努尔gydF4y2Ba M。gydF4y2Ba NaseergydF4y2Ba 一个。gydF4y2Ba 纳豆gydF4y2Ba 一个。gydF4y2Ba GramigydF4y2Ba G。gydF4y2Ba AccurIT:机器翻译引擎的原型英语阿拉伯语翻译gydF4y2Ba 国际期刊的创新和学习gydF4y2Ba 2019年gydF4y2Ba 26gydF4y2Ba 2gydF4y2Ba 115年gydF4y2Ba 130年gydF4y2Ba 王gydF4y2Ba R。gydF4y2Ba UtiyamagydF4y2Ba M。gydF4y2Ba 雀gydF4y2Ba 一个。gydF4y2Ba 刘gydF4y2Ba lgydF4y2Ba 陈gydF4y2Ba K。gydF4y2Ba SumitagydF4y2Ba E。gydF4y2Ba 句子的选择和权重神经机器翻译领域适应气候变化gydF4y2Ba IEEE / ACM交易音频、语音和语言处理gydF4y2Ba 2018年gydF4y2Ba 26gydF4y2Ba 10gydF4y2Ba 1727年gydF4y2Ba 1741年gydF4y2Ba 10.1109 / taslp.2018.2837223gydF4y2Ba 2 - s2.0 - 85047014798gydF4y2Ba CuonggydF4y2Ba H。gydF4y2Ba 硅镁层安gydF4y2Ba K。gydF4y2Ba 一项调查的统计机器翻译领域适应气候变化gydF4y2Ba 机器翻译gydF4y2Ba 2017年gydF4y2Ba 31日gydF4y2Ba 4gydF4y2Ba 187年gydF4y2Ba 224年gydF4y2Ba 10.1007 / s10590 - 018 - 9216 - 8gydF4y2Ba 2 - s2.0 - 85044059077gydF4y2Ba 里昂gydF4y2Ba 年代。gydF4y2Ba 回顾Thai-English机器翻译gydF4y2Ba 机器翻译gydF4y2Ba 2020年gydF4y2Ba 34gydF4y2Ba 2 - 3gydF4y2Ba 197年gydF4y2Ba 230年gydF4y2Ba 10.1007 / s10590 - 020 - 09248 - 8gydF4y2Ba 多明戈gydF4y2Ba M。gydF4y2Ba 珀里斯gydF4y2Ba 一个。gydF4y2Ba CasacubertagydF4y2Ba F。gydF4y2Ba 基于航段interactive-predictive机器翻译gydF4y2Ba 机器翻译gydF4y2Ba 2017年gydF4y2Ba 31日gydF4y2Ba 4gydF4y2Ba 163年gydF4y2Ba 185年gydF4y2Ba 10.1007 / s10590 - 017 - 9213 - 3gydF4y2Ba 2 - s2.0 - 85040051989gydF4y2Ba MaučecgydF4y2Ba m . S。gydF4y2Ba DonajgydF4y2Ba G。gydF4y2Ba 形态在统计机器翻译从英语到高度屈折的语言gydF4y2Ba 信息技术和控制gydF4y2Ba 2018年gydF4y2Ba 47gydF4y2Ba 1gydF4y2Ba 63年gydF4y2Ba 74年gydF4y2Ba 杨gydF4y2Ba Z。gydF4y2Ba 李gydF4y2Ba M。gydF4y2Ba 陈gydF4y2Ba lgydF4y2Ba 太阳gydF4y2Ba K。gydF4y2Ba 中俄统计机器翻译的morpheme-based权重gydF4y2Ba IEICE交易信息和系统gydF4y2Ba 2016年gydF4y2Ba E99.DgydF4y2Ba 11gydF4y2Ba 2843年gydF4y2Ba 2846年gydF4y2Ba 10.1587 / transinf.2016edl8080gydF4y2Ba 2 - s2.0 - 84994667564gydF4y2Ba 贾东gydF4y2Ba n K。gydF4y2Ba 安瓦尔gydF4y2Ba W。gydF4y2Ba BajwagydF4y2Ba 我。gydF4y2Ba 艾哈迈德gydF4y2Ba F。gydF4y2Ba 统计机器翻译的印度语言:一项调查gydF4y2Ba 神经计算和应用gydF4y2Ba 2019年gydF4y2Ba 31日gydF4y2Ba 7gydF4y2Ba 2455年gydF4y2Ba 2467年gydF4y2Ba 棕褐色gydF4y2Ba Z。gydF4y2Ba 苏gydF4y2Ba J。gydF4y2Ba 王gydF4y2Ba B。gydF4y2Ba 陈gydF4y2Ba Y。gydF4y2Ba 史gydF4y2Ba X。gydF4y2Ba Lattice-to-sequence注意力神经机器翻译模型gydF4y2Ba NeurocomputinggydF4y2Ba 2018年gydF4y2Ba 284年gydF4y2Ba 4gydF4y2Ba 138年gydF4y2Ba 147年gydF4y2Ba 10.1016 / j.neucom.2018.01.010gydF4y2Ba 2 - s2.0 - 85041173221gydF4y2Ba 张gydF4y2Ba B。gydF4y2Ba 熊gydF4y2Ba D。gydF4y2Ba 苏gydF4y2Ba J。gydF4y2Ba 秦gydF4y2Ba Y。gydF4y2Ba Alignment-supervised二维的引起递归autoencoders双语短语表示gydF4y2Ba IEEE控制论gydF4y2Ba 2018年gydF4y2Ba 50gydF4y2Ba 2gydF4y2Ba 503年gydF4y2Ba 513年gydF4y2Ba 刘gydF4y2Ba Y。gydF4y2Ba 王gydF4y2Ba K。gydF4y2Ba 宗庆后gydF4y2Ba C。gydF4y2Ba 苏gydF4y2Ba K.-Y。gydF4y2Ba 将翻译记忆集成到一个统一的框架和模型phrase-based统计机器翻译gydF4y2Ba 电脑语音和语言gydF4y2Ba 2019年gydF4y2Ba 54gydF4y2Ba 4gydF4y2Ba 176年gydF4y2Ba 206年gydF4y2Ba 10.1016 / j.csl.2018.09.006gydF4y2Ba 2 - s2.0 - 85056219490gydF4y2Ba 辛格gydF4y2Ba 年代。gydF4y2Ba Anand KumargydF4y2Ba M。gydF4y2Ba 索曼gydF4y2Ba k P。gydF4y2Ba 关注基础英语旁遮普神经机器翻译gydF4y2Ba 《智能与模糊系统gydF4y2Ba 2018年gydF4y2Ba 34gydF4y2Ba 3gydF4y2Ba 1551年gydF4y2Ba 1559年gydF4y2Ba 10.3233 /出售jif - 169450gydF4y2Ba 2 - s2.0 - 85044775743gydF4y2Ba 购物中心gydF4y2Ba 年代。gydF4y2Ba 贾斯瓦尔gydF4y2Ba 美国C。gydF4y2Ba 调查:印度语言的机器翻译gydF4y2Ba 国际应用工程研究杂志》上gydF4y2Ba 2018年gydF4y2Ba 13gydF4y2Ba 1gydF4y2Ba 202年gydF4y2Ba 209年gydF4y2Ba AhmadniagydF4y2Ba B。gydF4y2Ba 萨拉诺gydF4y2Ba J。gydF4y2Ba 采用主语言机器翻译技术通过统计和神经框架:资源不足的情况下Persian-Spanish语言gydF4y2Ba 国际期刊自然语言计算gydF4y2Ba 2017年gydF4y2Ba 6gydF4y2Ba 5gydF4y2Ba 37gydF4y2Ba 47gydF4y2Ba 10.5121 / ijnlc.2017.6503gydF4y2Ba