ACISCgydF4y2Ba 应用计算智能和软计算gydF4y2Ba 1687 - 9732gydF4y2Ba 1687 - 9724gydF4y2Ba Hindawi出版公司gydF4y2Ba 10.1155 / 2015/193868gydF4y2Ba 193868年gydF4y2Ba 研究文章gydF4y2Ba 在梵文字母手写字符识别的性能改进gydF4y2Ba 辛格gydF4y2Ba 普拉蒂gydF4y2Ba 1gydF4y2Ba 时gydF4y2Ba AjaygydF4y2Ba 1gydF4y2Ba ChaudharigydF4y2Ba 兰德年代。gydF4y2Ba 2gydF4y2Ba 萧gydF4y2Ba Ying-TunggydF4y2Ba 1gydF4y2Ba 专业、DAVV Khandwa道路gydF4y2Ba 印多尔452017gydF4y2Ba 印度gydF4y2Ba dauniv.ac.ingydF4y2Ba 2gydF4y2Ba IITgydF4y2Ba 452017年Khandwa路,印多尔gydF4y2Ba 印度gydF4y2Ba iiti.ac.ingydF4y2Ba 2015年gydF4y2Ba 22gydF4y2Ba 2gydF4y2Ba 2015年gydF4y2Ba 2015年gydF4y2Ba 03gydF4y2Ba 08年gydF4y2Ba 2014年gydF4y2Ba 29日gydF4y2Ba 12gydF4y2Ba 2014年gydF4y2Ba 16gydF4y2Ba 01gydF4y2Ba 2015年gydF4y2Ba 22gydF4y2Ba 2gydF4y2Ba 2015年gydF4y2Ba 2015年gydF4y2Ba 版权©2015 Pratibha辛格et al。gydF4y2Ba 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。gydF4y2Ba

的论文是关于应用迷你minibatch随机梯度下降法(SGD)域的基础学习应用于多层感知器隔离梵文字母/数字识别手写字符。这种技术可以减少方差估计的梯度和常使更好地利用现代计算机分层记忆组织的。gydF4y2Ba L2gydF4y2Ba —力量衰减添加在minibatch SGD避免过度拟合。实验首先进行直接像素强度值作为特征。之后,提出了灵活的区域上的实验是进行基于梯度特征提取算法。结果承诺在大多数标准数据集的梵文字母字符/数字。gydF4y2Ba

1。介绍gydF4y2Ba

需要认识到手写文本是具有挑战性的问题不仅从行为的角度生物识别技术也在模式识别中。写作是最自然的方式收集、存储和传输的信息。这是一个广泛使用的交流工具在人类和形式的输入模拟机器阅读。密集的研究工作领域的字符识别(CR)将在模拟人类阅读的挑战,也由于其潜在的应用,例如,邮政自动化、银行支票的分析和处理,手写的文字转化为盲文,手绘象形图或公式识别,等等。模式识别是一个计算密集型和耗时的任务由于大量的图像数据和大量的计算步骤。大需求的快速分类信件,邮局需要快速自动识别系统。传统上,传统的方法总是要求一个非常高速的计算机或并行计算机系统执行令人满意和快速识别。我们不能满足这些要求,使用简单的数字计算机。数字计算机擅长处理问题,明确制定,但手写字符识别不是这样的一个问题。随着neurocomputing技术,研究工作一直致力于制定模式识别任务的一种有效方式。 Present study investigates the direction for the improvement of performance in Devanagari CR system.

有18个官方语言接受在目前印度宪法。十二个不同的脚本是用于写这些语言。许多印度文档应该是用三种语言写的,也就是说,英语,印地语,每三个语言公式[国家官方语言gydF4y2Ba 1gydF4y2Ba]。印地语是印度的普遍使用的语言,是世界上第三大最受欢迎的语言,编写和使用梵文字母编码脚本。不仅印地语,马拉地语等其他语言,梵语,贡根语编码到梵文字母脚本。基本特征在使用Devanagri脚本由13 36元音和辅音(gydF4y2Ba 2gydF4y2Ba)如图gydF4y2Ba 1gydF4y2Ba。写作风格从左到写。没有大写和小写的概念。元音辅音后修改的形状,被称为修改字符。修改字符的形状变化取决于元音修饰符被放置到左边,右,顶部或底部的辅音如表所示gydF4y2Ba 1gydF4y2Ba。在梵文字母,有实践的使用超过12个不同形式的36个辅音(gydF4y2Ba 3gydF4y2Ba),它的形状变化。修饰符和复合字符的存在,如图gydF4y2Ba 2gydF4y2Ba,梵文字母的字符识别的难度。gydF4y2Ba

修饰符在梵文字母脚本。gydF4y2Ba

元音gydF4y2Ba

修饰符gydF4y2Ba

修改后的形状gydF4y2Ba

梵文字母脚本的基本特征。gydF4y2Ba

化合物的梵文字母字符。gydF4y2Ba

一个关键原因缺乏持续的研究努力在梵文字母光学字符识别(OCR)是主要是因为数据资源的不足。真实数据对单词和字符,在线词典,语料库的文本文档,可靠的标准化的统计分析,目前缺乏评估工具。所以,这些数据资源的创造无疑会提供急需的刺激梵文字母OCR的研究人员。孤立的梵文字母字符的主要研究是计算机视觉和模式识别(CVPR)单位的印度统计研究所(ISI),加尔各答。提出了模糊模式识别方案Hanmandlu和没吃gydF4y2Ba 4gydF4y2Ba为孤立的梵文字母数字。现在被广泛应用于梵文字母分类器组合CR系统提高识别精度(gydF4y2Ba 5gydF4y2Ba- - - - - -gydF4y2Ba 9gydF4y2Ba]。分类器组合技术使用影子特性提出了Arora et al。gydF4y2Ba 3gydF4y2Ba,gydF4y2Ba 10gydF4y2Ba]。提出了延时和嗯组合方案Bhattacharya et al。gydF4y2Ba 6gydF4y2Ba]。gydF4y2Ba

模式识别应用程序使用机器学习的算法。机器学习在监督分类领域主要包括两个步骤:训练和测试。的机器学习算法的改进性能的方法是使用一个低偏差算法和训练算法与大数据通常被称为大数据。但学习与大型数据集都有自身的计算问题,在每一步需要一百万聚合。所以,大规模计算成本等最受欢迎的算法的梯度下降法需要替代解决方案。目前的研究主要集中在这个问题上的更大的数据集使用Devanagri。随机梯度下降法、在线学习和minibatch学习的方案来处理这个问题。剩下的纸是组织如下:部分gydF4y2Ba 2gydF4y2Ba谈到的方法使用,部分gydF4y2Ba 3gydF4y2Ba使用分类器模型的描述,部分gydF4y2Ba 4gydF4y2Ba描述了天城体数据集上的评价结果,最后给出了结论部分gydF4y2Ba 5gydF4y2Ba。gydF4y2Ba

2。方法使用gydF4y2Ba

的设计周期识别的字符之前的所有步骤的标准模式识别技术监督式学习模式。为目的的训练数据集由不同的研究小组使用。我们所知,只有孤立的字符和数字数据集的梵文字母脚本可以测试床。所以,这些都是尝试在这个研究。在这项研究中使用的设计周期图所示gydF4y2Ba 3gydF4y2Ba。gydF4y2Ba

手写识别系统的设计周期。gydF4y2Ba

从基准数据集获得的图像中存在两组,即训练和测试。图像受到各种预处理步骤中描述表gydF4y2Ba 2gydF4y2Ba。预处理后的输出模块不适合分类器训练因为维数高。特征提取和选择是降维的一个重要步骤。在这项研究中,我们使用一个基于梯度方向特征。9的特性得到图像的不同部分样本。基于全局和局部直方图区域边界的概念(gydF4y2Ba 11gydF4y2Ba)如图gydF4y2Ba 4gydF4y2Ba特征提取之前,使用。gydF4y2Ba

提出的特征提取算法。gydF4y2Ba

输入:图像(培训/测试)gydF4y2Ba 输出:图像的特性gydF4y2Ba
预处理步骤gydF4y2Ba (1)图像转换成深浅不一的形象gydF4y2Ba(2)规范化标准尺寸的图像gydF4y2Ba(3)获取图像的边界gydF4y2Ba(4)获得的特性使用算法1或2或3gydF4y2Ba

算法1(标准层)gydF4y2Ba 对于边界图像IM (gydF4y2Ba ngydF4y2Ba ,gydF4y2Ba 米gydF4y2Ba )gydF4y2Ba(1)划分gydF4y2Ba ngydF4y2Ba 和gydF4y2Ba 米gydF4y2Ba 垃圾箱在水平和垂直方向的数量来计算边界的价值指标gydF4y2Ba ugydF4y2Ba 我gydF4y2Ba 和gydF4y2Ba vgydF4y2Ba 我gydF4y2Ba (2)获得子图象gydF4y2Ba 即时通讯gydF4y2Ba 我gydF4y2Ba 由我使用gydF4y2Ba ugydF4y2Ba 我gydF4y2Ba 和gydF4y2Ba vgydF4y2Ba 我gydF4y2Ba (3)每个子图象的特征提取gydF4y2Ba 即时通讯gydF4y2Ba 我gydF4y2Ba

算法2:(全局专区)gydF4y2Ba 对于边界图像IM (gydF4y2Ba ngydF4y2Ba ,gydF4y2Ba 米gydF4y2Ba )gydF4y2Ba(1)在水平方向计算密度gydF4y2Ba DgydF4y2Ba HgydF4y2Ba (2)计算密度在垂直方向gydF4y2Ba DgydF4y2Ba VgydF4y2Ba (3)划分密度gydF4y2Ba DgydF4y2Ba HgydF4y2Ba /gydF4y2Ba DgydF4y2Ba VgydF4y2Ba 箱子的数量水平/垂直方向进行计算gydF4y2Ba DgydF4y2Ba hgydF4y2Ba /gydF4y2Ba DgydF4y2Ba vgydF4y2Ba ;获取指标gydF4y2Ba ugydF4y2Ba 我gydF4y2Ba /gydF4y2Ba vgydF4y2Ba 我gydF4y2Ba 对于区域边界使用gydF4y2Ba DgydF4y2Ba hgydF4y2Ba /gydF4y2Ba DgydF4y2Ba vgydF4y2Ba (4)获得子图象gydF4y2Ba 即时通讯gydF4y2Ba 我gydF4y2Ba 由我使用gydF4y2Ba ugydF4y2Ba 我gydF4y2Ba 和gydF4y2Ba vgydF4y2Ba 我gydF4y2Ba (5)每个子图象的特征提取gydF4y2Ba 即时通讯gydF4y2Ba 我gydF4y2Ba

算法3:(本地区域)gydF4y2Ba 对于边界图像IM (gydF4y2Ba ngydF4y2Ba ,gydF4y2Ba 米gydF4y2Ba )gydF4y2Ba(1)在水平方向计算密度gydF4y2Ba DgydF4y2Ba HgydF4y2Ba (2)计算密度在垂直方向gydF4y2Ba DgydF4y2Ba VgydF4y2Ba (3)划分密度gydF4y2Ba DgydF4y2Ba HgydF4y2Ba 和gydF4y2Ba DgydF4y2Ba VgydF4y2Ba 箱子的数量在水平和垂直方向的边界定位计算密度指数的区域gydF4y2Ba ugydF4y2Ba 我gydF4y2Ba 和gydF4y2Ba vgydF4y2Ba 我gydF4y2Ba (4)获得子图象gydF4y2Ba 即时通讯gydF4y2Ba 我gydF4y2Ba 来自我只使用gydF4y2Ba ugydF4y2Ba 我gydF4y2Ba (5)获得gydF4y2Ba 即时通讯gydF4y2Ba 我gydF4y2Ba 密度gydF4y2Ba DgydF4y2Ba HgydF4y2Ba hgydF4y2Ba 和除以垃圾箱的数量水平方向为定位垂直区指数计算密度gydF4y2Ba wgydF4y2Ba 我gydF4y2Ba (6)获得子图象gydF4y2Ba 即时通讯gydF4y2Ba jgydF4y2Ba 使用gydF4y2Ba ugydF4y2Ba 我gydF4y2Ba 和gydF4y2Ba wgydF4y2Ba 我gydF4y2Ba (7)去每个子图象的特征提取gydF4y2Ba 即时通讯gydF4y2Ba jgydF4y2Ba

(一)标准分区;(b)全球分区;(c)和(d)本地分区。gydF4y2Ba

2.1。特征提取模块gydF4y2Ba

积累的特性是zonewise分区的使用两种不同的选择。例如,gydF4y2Ba

标准分区:整个图像的边界框分为gydF4y2Ba 3gydF4y2Ba ×gydF4y2Ba 3gydF4y2Ba 区,每个区和渐变积累;gydF4y2Ba

弹性分区:弹性分区的概念是基于均衡每个区域的密度。我们在这里定义全局或局部分区的概念。在全球分区,欧元区分离线是决定等于密度划分的基础上,横向和纵向,而在本地方法图像分割水平基于密度均衡在每个区,然后垂直边界决定在当地部门的密度。gydF4y2Ba

2.1.1。梯度功能gydF4y2Ba

梯度功能分解最初提出了在线字符识别。这种方法适用于机器印刷/手写和二进制/灰度,以及低分辨率图像。一般来说,图像的每个像素的梯度计算。在我们的分析中,我们应用“Sobel边缘检测算法来计算每个图像像素的梯度向量图像预处理。梯度向量可以被量化成八个方向使用两种方法,即角矢量量化和向量分解用平行四边形法则。在第一种方法,梯度的大小在每个图像像素分配给最近的方向平面和第二种方法梯度向量分解成两个最近的定向飞机使用平行四边形向量划分规则。平行四边形量化方法提供更少的量化误差,所以我们采取了这种方法量化梯度向量。gydF4y2Ba

图像的梯度计算分解为4、8、16定向的飞机。对于我们的分析,我们采取了八个方向的飞机。图gydF4y2Ba 5 (c)gydF4y2Ba显示了梯度矢量分解为最近的飞机。我们积累了在八个离散方向梯度的大小为每个分段的原始图像。梯度向量的组件是由以下方程:gydF4y2Ba (1)gydF4y2Ba ggydF4y2Ba xgydF4y2Ba xgydF4y2Ba ,gydF4y2Ba ygydF4y2Ba =gydF4y2Ba fgydF4y2Ba xgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba +gydF4y2Ba 2gydF4y2Ba fgydF4y2Ba xgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba +gydF4y2Ba fgydF4y2Ba xgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba +gydF4y2Ba 1gydF4y2Ba - - - - - -gydF4y2Ba fgydF4y2Ba xgydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba - - - - - -gydF4y2Ba 2gydF4y2Ba fgydF4y2Ba xgydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba - - - - - -gydF4y2Ba fgydF4y2Ba xgydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ggydF4y2Ba ygydF4y2Ba xgydF4y2Ba ,gydF4y2Ba ygydF4y2Ba =gydF4y2Ba fgydF4y2Ba xgydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba +gydF4y2Ba 1gydF4y2Ba +gydF4y2Ba 2gydF4y2Ba fgydF4y2Ba xgydF4y2Ba ,gydF4y2Ba ygydF4y2Ba +gydF4y2Ba 1gydF4y2Ba +gydF4y2Ba fgydF4y2Ba xgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba +gydF4y2Ba 1gydF4y2Ba - - - - - -gydF4y2Ba fgydF4y2Ba xgydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba - - - - - -gydF4y2Ba 2gydF4y2Ba fgydF4y2Ba xgydF4y2Ba ,gydF4y2Ba ygydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba - - - - - -gydF4y2Ba fgydF4y2Ba xgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba - - - - - -gydF4y2Ba 1gydF4y2Ba 。gydF4y2Ba

(一)Sobel垂直梯度的面具;(b) Sobel水平梯度的面具;(c)量化用平行四边形法则。gydF4y2Ba

3所示。分类器模型gydF4y2Ba

多层感知器作为分类器。多层感知器(MLP)的体系结构包括输入层、输出层和隐层。单隐层感知器给了许多模式识别应用程序中的通用近似。单层感知器的输出向量是由gydF4y2Ba (2)gydF4y2Ba fgydF4y2Ba xgydF4y2Ba =gydF4y2Ba GgydF4y2Ba bgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba WgydF4y2Ba 2gydF4y2Ba 年代gydF4y2Ba bgydF4y2Ba 1gydF4y2Ba +gydF4y2Ba WgydF4y2Ba 1gydF4y2Ba xgydF4y2Ba ,gydF4y2Ba 在哪里gydF4y2Ba bgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba bgydF4y2Ba 2gydF4y2Ba 偏差向量在隐层和输出层,gydF4y2Ba WgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba WgydF4y2Ba 2gydF4y2Ba 各个节点的权重矩阵,gydF4y2Ba 年代gydF4y2Ba ,gydF4y2Ba GgydF4y2Ba 是激活函数。对于一个分类问题,如果gydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba (gydF4y2Ba 我gydF4y2Ba )gydF4y2Ba )gydF4y2Ba 是训练向量,在哪里gydF4y2Ba xgydF4y2Ba (gydF4y2Ba 我gydF4y2Ba )gydF4y2Ba ∈gydF4y2Ba RgydF4y2Ba DgydF4y2Ba ,一个gydF4y2Ba DgydF4y2Ba 维训练向量,gydF4y2Ba ygydF4y2Ba (gydF4y2Ba 我gydF4y2Ba )gydF4y2Ba ∈gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba …gydF4y2Ba ,gydF4y2Ba lgydF4y2Ba 。预测函数gydF4y2Ba fgydF4y2Ba xgydF4y2Ba 在(gydF4y2Ba 2gydF4y2Ba),0 - 1给出了损失函数gydF4y2Ba (3)gydF4y2Ba lgydF4y2Ba 0 1gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba DgydF4y2Ba 我gydF4y2Ba fgydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ≠gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba )gydF4y2Ba ,gydF4y2Ba 在哪里gydF4y2Ba 我gydF4y2Ba 的指标函数吗gydF4y2Ba (4)gydF4y2Ba 我gydF4y2Ba xgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba 如果gydF4y2Ba xgydF4y2Ba 是gydF4y2Ba 真正的gydF4y2Ba 0gydF4y2Ba 否则gydF4y2Ba ,gydF4y2Ba fgydF4y2Ba xgydF4y2Ba =gydF4y2Ba argmaxgydF4y2Ba kgydF4y2Ba ⁡gydF4y2Ba PgydF4y2Ba (gydF4y2Ba YgydF4y2Ba =gydF4y2Ba kgydF4y2Ba ∣gydF4y2Ba xgydF4y2Ba ,gydF4y2Ba θgydF4y2Ba )gydF4y2Ba ,gydF4y2Ba 在哪里gydF4y2Ba θgydF4y2Ba 是一组给定的模型的所有参数。培训的目标是尽量减少损失函数。但是,0 - 1损失函数不是可微的;因此,损失负对数似然函数最小化用作训练的目的gydF4y2Ba (5)gydF4y2Ba 附近gydF4y2Ba θgydF4y2Ba ,gydF4y2Ba DgydF4y2Ba =gydF4y2Ba - - - - - -gydF4y2Ba ∑gydF4y2Ba 我gydF4y2Ba =gydF4y2Ba 0gydF4y2Ba DgydF4y2Ba PgydF4y2Ba (gydF4y2Ba YgydF4y2Ba =gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba ∣gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba θgydF4y2Ba )gydF4y2Ba 。gydF4y2Ba 权重更新使用梯度误差表面定义为损失函数。从训练数据梯度估计。在这项研究中,基于随机梯度下降学习(表gydF4y2Ba 3gydF4y2Ba)方法应用于中长期规划。在普通的梯度下降算法,多次小步在下行方向错误的表面,即均方误差。均方误差函数的权重。随机梯度下降法(SGD)根据同样的原则作为普通的梯度下降法,但它更快的梯度估计的收益只是几个例子,而不是整个训练集,以最纯粹的形式,梯度估计仅仅是由一个例子。梯度下降法(GD)和随机梯度下降法(SGD),我们更新一组权重以迭代方式最小化误差函数。在正常GD(表gydF4y2Ba 4gydF4y2Ba),所有的样本训练集必须被处理为一个特定的迭代更新重量之前,同时,在SGD,gydF4y2Ba 只有单独的gydF4y2Ba从整个训练样本训练集用于做体重在一个特定的迭代更新。因此,对于大数据,如果训练样本的数量非常大,然后使用梯度下降可能花太多时间,因为在每一个迭代,当我们更新参数的值,我们是贯穿整个训练集。另一方面,使用SGD会更快,因为你只使用一个训练样本,它开始改善自己马上从第一个样品。SGD常常GD相比,收敛速度更快,但不同时最小化误差函数在GD。通常,在大多数情况下,我们得到的近似SGD参数值是足够的,因为他们达到最优值,保持振荡。随机梯度下降法的收敛速度是独立的数据集的大小,因而适应当我们有一个巨大的甚至是无限的数据集。但是,有两个缺点:gydF4y2Ba

随机梯度下降法。gydF4y2Ba

(gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba 在训练集),gydF4y2Ba
%承担无限发生器gydF4y2Ba
%可能重复例子(如果只有一个有限的培训损失)gydF4y2Ba
损失=gydF4y2Ba fgydF4y2Ba (参数,gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba 我gydF4y2Ba )gydF4y2Ba
发现损失对参数的导数%计算梯度gydF4y2Ba
修改参数通过学习速率*损失对参数的导数gydF4y2Ba
如果gydF4y2Ba 〈gydF4y2Ba 是满足停止条件gydF4y2Ba 〉gydF4y2Ba ,gydF4y2Ba
返回参数gydF4y2Ba

梯度下降法。gydF4y2Ba

虽然是真的,gydF4y2Ba
损失=gydF4y2Ba fgydF4y2Ba (参数)gydF4y2Ba
发现损失对参数的导数%计算梯度gydF4y2Ba
修改参数通过学习速率*损失对参数的导数gydF4y2Ba
如果gydF4y2Ba 〈gydF4y2Ba 是满足停止条件gydF4y2Ba 〉gydF4y2Ba
返回参数gydF4y2Ba

其收敛速度缓慢:这不是有益的训练集上得到更快的收敛速度,因为这将不会被翻译成一个更好的收敛速度的测试集(gydF4y2Ba 12gydF4y2Ba];gydF4y2Ba

两个参数的敏感性,学习速率,减少常数。gydF4y2Ba

深度学习的变体,我们建议进一步修改使用所谓的“minibatches随机梯度下降法。“Minibatch SGD (MSGD),解释表gydF4y2Ba 5gydF4y2BaSGD作品相同,除了我们使用多个培训使每个梯度估计的例子。这种技术可以减少方差估计的梯度和常使更好地利用现代计算机分层记忆组织的。gydF4y2Ba

Minibatch-SGD。gydF4y2Ba

(gydF4y2Ba xgydF4y2Ba 批处理gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba 批处理gydF4y2Ba 在培训批次,gydF4y2Ba
%承担无限发生器gydF4y2Ba
%可能重复的例子gydF4y2Ba
损失=gydF4y2Ba fgydF4y2Ba (参数,gydF4y2Ba xgydF4y2Ba 批处理gydF4y2Ba ,gydF4y2Ba ygydF4y2Ba 批处理gydF4y2Ba )gydF4y2Ba
发现损失对参数的导数%计算梯度gydF4y2Ba
修改参数通过学习速率*损失对参数的导数gydF4y2Ba
如果gydF4y2Ba 〈gydF4y2Ba 是满足停止条件gydF4y2Ba 〉gydF4y2Ba ,gydF4y2Ba
返回参数gydF4y2Ba

有一个权衡minibatch大小的选择gydF4y2Ba BgydF4y2Ba 。与大gydF4y2Ba BgydF4y2Ba ,时间是浪费在减少梯度估计量的方差,这段时间可以更好地用在额外的梯度的步骤。一个最优gydF4y2Ba BgydF4y2Ba 是模型、数据集和硬件相关的,可以从1到几百不等。在机器学习中,当我们训练我们的模型数据,我们正在努力准备做好新例子,不是已经见过的。MSGD训练循环没有概括的能力和倾向于过度拟合。应对过度拟合的方式是通过正则化和早期停止使用验证。有几个正则化技术;最常用的方法gydF4y2Ba lgydF4y2Ba 1gydF4y2Ba /gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba 正规化是在下一节中解释。gydF4y2Ba

3.1。体重衰变gydF4y2Ba

体重衰变是正则化方法的一个子集。惩罚项重量衰变,根据定义,惩罚大重量。其他正则化方法可能涉及不仅权重,而且各种衍生品的输出函数。重量衰变惩罚项使权值收敛于较小的绝对值比他们。大重量可以在两种不同的方式伤害泛化。过分大的重量导致隐藏单位会导致输出函数过于粗糙,可能与断层附近。大量权重导致输出单位会导致野生输出远远超出范围的数据如果输出激活函数是没有边界的范围相同的数据。换句话说,大重量会导致过度输出的方差。gydF4y2Ba

3.2。< inline-formula > < mml:数学xmlns: mml = " http://www.w3.org/1998/Math/MathML " id = " M81 " > < mml: mi > L < / mml: mi > < mml: mn > 1 < / mml: mn > < / mml:数学> < / inline-formula >和< inline-formula > < mml:数学xmlns: mml = " http://www.w3.org/1998/Math/MathML " id = " M82 " > < mml: mi > L < / mml: mi > < mml: mn > 2 < / mml: mn > < / mml:数学> < / inline-formula >正规化gydF4y2Ba

lgydF4y2Ba 1gydF4y2Ba 和gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba 正则化涉及到损失函数添加一个额外的术语,惩罚某些参数配置。正式,如果我们负对数似然函数是损失gydF4y2Ba 附近gydF4y2Ba θgydF4y2Ba ,gydF4y2Ba DgydF4y2Ba ,然后正规化的损失将由gydF4y2Ba (6)gydF4y2Ba EgydF4y2Ba θgydF4y2Ba ,gydF4y2Ba DgydF4y2Ba =gydF4y2Ba 附近gydF4y2Ba θgydF4y2Ba ,gydF4y2Ba DgydF4y2Ba +gydF4y2Ba λgydF4y2Ba RgydF4y2Ba θgydF4y2Ba 。gydF4y2Ba 这是写作为本研究遵循:gydF4y2Ba (7)gydF4y2Ba EgydF4y2Ba θgydF4y2Ba ,gydF4y2Ba DgydF4y2Ba =gydF4y2Ba 附近gydF4y2Ba θgydF4y2Ba ,gydF4y2Ba DgydF4y2Ba +gydF4y2Ba λgydF4y2Ba θgydF4y2Ba pgydF4y2Ba pgydF4y2Ba ,gydF4y2Ba 在哪里gydF4y2Ba θgydF4y2Ba pgydF4y2Ba 是gydF4y2Ba lgydF4y2Ba pgydF4y2Ba 规范的gydF4y2Ba θgydF4y2Ba (8)gydF4y2Ba θgydF4y2Ba pgydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 0gydF4y2Ba θgydF4y2Ba θgydF4y2Ba jgydF4y2Ba pgydF4y2Ba 1gydF4y2Ba /gydF4y2Ba pgydF4y2Ba ,gydF4y2Ba λgydF4y2Ba 是一种hyperparameter控制正则化参数的相对重要性。常用的值gydF4y2Ba pgydF4y2Ba 因此,1和2吗gydF4y2Ba lgydF4y2Ba 1gydF4y2Ba /gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba 命名法。如果gydF4y2Ba pgydF4y2Ba =gydF4y2Ba 2gydF4y2Ba 重量,然后调整也被称为“衰变。“原则上,添加一个正则化项的损失将鼓励平滑网络映射神经网络(通过惩罚的大值参数,降低了网络的非线性模型)。更直观地说,这两个术语(不断gydF4y2Ba RgydF4y2Ba (gydF4y2Ba θgydF4y2Ba )gydF4y2Ba )对应于建模数据(NLL),有“简单”或“平滑”的解决方案。因此,最小化的总和,从理论上讲,对应于找到正确的适合的训练数据之间的权衡和解决方案的“普遍性”。gydF4y2Ba

4所示。实验结果gydF4y2Ba

中描述的实验是在不同的数据集执行下一个部分。数据集的图像预处理(培训和测试)。如前所述在表的特征提取方法gydF4y2Ba 2gydF4y2Ba应用和基于前馈神经网络的分类器是使用注册gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba 正规化和mini-batch。实现前馈神经网络使用minibatch方法,代码由棕榈(gydF4y2Ba 13gydF4y2Ba)是用于MATLAB。神经网络的配置如表4中指定的列gydF4y2Ba 9gydF4y2Ba是一个三层或四层网络。第一个值的配置指定的数量特征,最后一个值指定类的数量,其余(输入和输出)指定的单位在隐藏层。这些实验是英特尔酷睿我处理器上执行6 GB RAM。在接下来的小节,各种信息数据集。gydF4y2Ba

4.1。MNIST数据集gydF4y2Ba

MNIST [gydF4y2Ba 14gydF4y2Ba]数据集包括手写数字图像和它分为训练集的60000例和10000例进行测试。所有数字图像size-normalized,集中在一个固定大小的形象28gydF4y2Ba ×gydF4y2Ba 28个像素。在原始数据集,每个像素的图像是由0到255之间的值,0是黑色的,255是白色的,介于两者之间的任何东西是一个不同的灰色阴影。一个图像是表示为维数组784 (28gydF4y2Ba ×gydF4y2Ba 28)浮点值在0和1之间(0代表黑色和1白色)。标签是数字0到9之间的数字指示形象代表。当使用数据集,我们通常在minibatches除以。gydF4y2Ba

4.2。cpar - 2012数据集gydF4y2Ba

此数据集自2012年以来(可用gydF4y2Ba 15gydF4y2Ba]研究团体,由智能系统开发集团诺伊达(CPAR模式分析和识别中心)。这是最大的数据集用于手写的分离模式。它由35000的图片数字和78400字符的图像。2000年的人口数据是收集来自不同阶层印度作家从不同的国家有不同的宗教。数字数据集是在这个数据集,因为11类模式对应于数字“9”可以用两种交替的方式如表所示gydF4y2Ba 7gydF4y2Ba。字符数据集有1000 600训练图像和测试图像的每个49类。表gydF4y2Ba 6gydF4y2Ba描述的模式对每个数字类CPAR-12用于这项研究。gydF4y2Ba

在CPAR-12数字图像样本数据集的数量。gydF4y2Ba

图像gydF4y2Ba 0gydF4y2Ba 1gydF4y2Ba 2gydF4y2Ba 3gydF4y2Ba 4gydF4y2Ba 5gydF4y2Ba 7gydF4y2Ba 8gydF4y2Ba 9gydF4y2Ba1gydF4y2Ba 9gydF4y2Ba2gydF4y2Ba
训练数据集gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 2280年gydF4y2Ba 1200年gydF4y2Ba
测试数据集gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 1012年gydF4y2Ba 880年gydF4y2Ba

总gydF4y2Ba 3292年gydF4y2Ba 3292年gydF4y2Ba 3292年gydF4y2Ba 3292年gydF4y2Ba 3292年gydF4y2Ba 3292年gydF4y2Ba 3292年gydF4y2Ba 3992年gydF4y2Ba 3292年gydF4y2Ba 2080年gydF4y2Ba

有两种形式的书写数字“9”在梵文字母,gydF4y2Ba1gydF4y2Ba形式1段时间gydF4y2Ba2gydF4y2Ba表格2。gydF4y2Ba

图像的样本cpar - 2012手写数字(gydF4y2Ba 15gydF4y2Ba]。gydF4y2Ba

零gydF4y2Ba

一个gydF4y2Ba

两个gydF4y2Ba

三个gydF4y2Ba

四个gydF4y2Ba

五gydF4y2Ba

六个gydF4y2Ba

七个gydF4y2Ba

八gydF4y2Ba

9gydF4y2Ba1gydF4y2Ba

9gydF4y2Ba2gydF4y2Ba

有两种形式的书写数字“9”在梵文字母,gydF4y2Ba1gydF4y2Ba形式1段时间gydF4y2Ba2gydF4y2Ba表格2。gydF4y2Ba

4.3。CVPR-ISI数据集gydF4y2Ba

这个数据集是对2009年以来的全球研究社区,是由CVPR ISI加尔各答单位。梵文字母数字数据库收集的样本包括邮件件和工作申请表通过特别设计的形式进行数据收集。数据集由22556张图片(如表所示gydF4y2Ba 8gydF4y2Ba)存储在“tif格式,收集从1049年作家。gydF4y2Ba

从CVPR样本图像数据集(gydF4y2Ba 16gydF4y2Ba]。gydF4y2Ba

零gydF4y2Ba

一个gydF4y2Ba

两个gydF4y2Ba

三个gydF4y2Ba

四个gydF4y2Ba

五gydF4y2Ba

六个gydF4y2Ba

七个gydF4y2Ba

八gydF4y2Ba

9gydF4y2Ba

错误率为各种数据集使用直接的像素值。gydF4y2Ba

数据集gydF4y2Ba 训练样本gydF4y2Ba 测试样品gydF4y2Ba 神经网络配置gydF4y2Ba 包括培训时间的数据集gydF4y2Ba 误差百分比gydF4y2Ba
MNIST手写的数字gydF4y2Ba 50000年gydF4y2Ba 10000年gydF4y2Ba 784-100-10gydF4y2Ba 4846秒gydF4y2Ba 2.25gydF4y2Ba
MNIST手写的数字gydF4y2Ba 50000年gydF4y2Ba 10000年gydF4y2Ba 784-200-100-10gydF4y2Ba 9471秒gydF4y2Ba 2.15gydF4y2Ba
MNIST手写的数字gydF4y2Ba 50000年gydF4y2Ba 10000年gydF4y2Ba 784-200-10gydF4y2Ba 7923秒gydF4y2Ba 2.13gydF4y2Ba
ISI数字gydF4y2Ba 18000年gydF4y2Ba 3500年gydF4y2Ba 784-100-10gydF4y2Ba 1524秒gydF4y2Ba 3.31gydF4y2Ba
ISI数字gydF4y2Ba 18000年gydF4y2Ba 3500年gydF4y2Ba 784-200-100-10gydF4y2Ba 3239秒gydF4y2Ba 3.17gydF4y2Ba
ISI数字gydF4y2Ba 18000年gydF4y2Ba 3500年gydF4y2Ba 784-200-10gydF4y2Ba 2767秒gydF4y2Ba 2.74gydF4y2Ba
cpar - 2012字符gydF4y2Ba 49000年gydF4y2Ba 29400年gydF4y2Ba 784-100-49gydF4y2Ba 3903秒gydF4y2Ba 21.54gydF4y2Ba
cpar - 2012字符gydF4y2Ba 49000年gydF4y2Ba 29400年gydF4y2Ba 784-200-49gydF4y2Ba 8334秒gydF4y2Ba 18.6gydF4y2Ba
cpar - 2012字符gydF4y2Ba 49000年gydF4y2Ba 29400年gydF4y2Ba 784-200-100-49gydF4y2Ba 8794秒gydF4y2Ba 17.21gydF4y2Ba
cpar - 2012数字gydF4y2Ba 26250年gydF4y2Ba 8750年gydF4y2Ba 784-200-11gydF4y2Ba 5422秒gydF4y2Ba 2.53gydF4y2Ba
cpar - 2012数字gydF4y2Ba 26250年gydF4y2Ba 8750年gydF4y2Ba 72-100-11gydF4y2Ba 2153秒gydF4y2Ba 2。8gydF4y2Ba
cpar - 2012数字gydF4y2Ba 26250年gydF4y2Ba 8750年gydF4y2Ba 784-200-100-11gydF4y2Ba 5560秒gydF4y2Ba 2.77gydF4y2Ba

在这项研究中,实验与单隐层(200年或100年隐藏单位)神经网络和两个隐层神经网络(隐藏单位职责。在200年和100年)。输入层由单位的数量等于生成特征向量的大小。网络是训练了200时代的迷你批大小100。在实验中使用的学习速率常数等于1。正则化的价值权重衰减gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba 是维持在gydF4y2Ba 1gydF4y2Ba egydF4y2Ba - - - - - -gydF4y2Ba 04gydF4y2Ba 。激活函数中使用双曲正切隐藏层和输出层物流。动量为实验设置等于0.7。获得的错误率为不同的数据集使用直接像素值作为特征列在下表中gydF4y2Ba 9gydF4y2Ba。结果获得了大小归一化图像模式直接像素强度的特性。网络配置变化对隐藏层的数量。的时间识别包括训练时间和分类。gydF4y2Ba

表gydF4y2Ba 10gydF4y2Ba说明了各种特征提取算法的性能描述表gydF4y2Ba 2gydF4y2Ba基于SGD学习电路的延时。所有的样本图像划分为若干个3gydF4y2Ba ×gydF4y2Ba 3子图象,但分区的标准是不同的。基于边缘定向特性提取每个子图象的8离散方向定义72 d特征向量在每种情况下。使用三层架构的延时与200年隐层节点。其余的NN-settings保持一样在前面的实验直接像素值。数据样本的数量在这种情况下用于训练和测试表中提到的一样gydF4y2Ba 9gydF4y2Ba(第2列和第3列)。gydF4y2Ba

错误率为不同的数据集使用提出的特征提取方法。gydF4y2Ba

数据集gydF4y2Ba 特征提取方法gydF4y2Ba 数的功能gydF4y2Ba 神经网络配置gydF4y2Ba 训练和测试的时间gydF4y2Ba 出错率gydF4y2Ba
cpar - 2012字符gydF4y2Ba 基于全局专区gydF4y2Ba边缘gydF4y2Ba 72年gydF4y2Ba 72-200-49gydF4y2Ba 1941秒gydF4y2Ba 14.89gydF4y2Ba
cpar - 2012字符gydF4y2Ba 基于当地的区gydF4y2Ba边缘gydF4y2Ba 72年gydF4y2Ba 72-200-49gydF4y2Ba 1864秒gydF4y2Ba 16.01gydF4y2Ba
cpar - 2012字符gydF4y2Ba 平等的区gydF4y2Ba 72年gydF4y2Ba 72-200-49gydF4y2Ba 2082秒gydF4y2Ba 21.35gydF4y2Ba
ISI数字gydF4y2Ba 平等的区域优势gydF4y2Ba 72年gydF4y2Ba 72-200-10gydF4y2Ba 1224秒gydF4y2Ba 2.03gydF4y2Ba
ISI数字gydF4y2Ba 基于全局专区gydF4y2Ba边缘gydF4y2Ba 72年gydF4y2Ba 72-200-10gydF4y2Ba 1178秒gydF4y2Ba 1.83gydF4y2Ba
ISI数字gydF4y2Ba 基于当地的区gydF4y2Ba边缘gydF4y2Ba 72年gydF4y2Ba 72-200-10gydF4y2Ba 909秒gydF4y2Ba 2.14gydF4y2Ba
cpar - 2012数字gydF4y2Ba 基于全局专区gydF4y2Ba边缘gydF4y2Ba 72年gydF4y2Ba 72-200-10gydF4y2Ba 756秒gydF4y2Ba 2.38gydF4y2Ba
cpar - 2012数字gydF4y2Ba 基于当地的区gydF4y2Ba边缘gydF4y2Ba 72年gydF4y2Ba 72-200-10gydF4y2Ba 785秒gydF4y2Ba 1.93gydF4y2Ba
cpar - 2012数字gydF4y2Ba 平等的区域优势gydF4y2Ba 72年gydF4y2Ba 72-200-10gydF4y2Ba 956秒gydF4y2Ba 2.07gydF4y2Ba
4.4。数字数据集cpar - 2012的性能比较gydF4y2Ba

在实验中由Kumar和RavulakollugydF4y2Ba 17gydF4y2Ba),平均识别率是95.18%的拒绝报道的一些样品,在单个分类器和97.87%拒绝一些样品在一个分类器应用于模式的合奏。对于同一个数据集,提出学习策略没有任何拒绝了98.07%的识别率。gydF4y2Ba cpar - 2012数字数据集,中长期规划提出功能SGD学习精度提高了0.2%gydF4y2Ba。在这里,重点强调的是,我们的结果比之前的结果,因为两个原因:gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba 我们没有任何拒绝的样品和使用gydF4y2Ba (gydF4y2Ba 2gydF4y2Ba )gydF4y2Ba 我们没有使用的分类器模型。识别结果报道在这项工作是为单一分类器。gydF4y2Ba

4.5。字符数据集cpar - 2012的性能比较gydF4y2Ba

Kumar和RavulakollugydF4y2Ba 17gydF4y2Ba)应用分类器集合的字符数据集的方法,取得了84.03%的识别率为5.3%的拒绝。同样的数据集,提出的学习方法产量82.79%的识别率与直接像素值与特征提取方法和85.11%没有任何拒绝的模式。gydF4y2Ba cpar - 2012字符数据集,提出的精度提高1.08%是观察到的特性集SGD中长期规划学习gydF4y2Ba。我们的结果更从的角度在前一节中给出的推理。gydF4y2Ba

4.6。数字数据集ISI-CVPR的性能比较gydF4y2Ba

ISI的梵文字母数字性能比较是用三之前报道的结果。结果报道了Das et al。gydF4y2Ba 18gydF4y2Ba)是更好的,但它是检测小情报局数据的子集,而我们的方法是ISI完整数据集上测试过。巴塔查里亚和乔杜里(报告的结果gydF4y2Ba 16gydF4y2Ba)是测试完整的数据集,但获得的精度gydF4y2Ba 0.24%被拒绝gydF4y2Ba研究中使用的模式和特性属于复杂的特征提取算法。同时,他们所使用的分类算法是一个基于多级MLP分类器有一个拒绝模式使用的多级MLP的最后阶段。为单身gydF4y2Ba kgydF4y2Ba 神经网络(gydF4y2Ba KgydF4y2Ba 最近的邻居),他们建立的基准精度水平的97.26%。所以,三军情报局数据考虑算法的复杂性,我们的结果更好。该方法相比是更好的方法由巴塔查里亚和乔杜里(gydF4y2Ba 16gydF4y2Ba在术语的识别速度。gydF4y2Ba

5。结论gydF4y2Ba

使用minibatch随机梯度加速识别大型数据集的速度。识别结果获得MSGD使用直接像素强度特性。其次,结果获得了定向功能基于MSGD边缘。从结果很明显,如果使用预处理和特征提取以及迷你批处理算法,1 - 3%的错误率降低直接像素强度特性。该方法提供了更好的/相同的识别准确性的标准基准可供梵文字母字符。识别时间不能相比之前报道的结果不是先前的研究认为是标准的时间。该方法速度在正常梯度下降学习和它给良好的准确性基于甚至直接像素强度。提出的性能改进方法在准确性方面如表6和7列的表gydF4y2Ba 11gydF4y2Ba。表中第一列是给信息相关的数据集和参考以前的结果。显示我们提出的策略的有效性,我们采取了相同的数据集的梵文字母字符。列2总结之前报道的结果,所使用的方法列4列3提供了他们所使用的特性,给出了先前的研究使用的分类方法和表5列gydF4y2Ba 11gydF4y2Ba提供由其他研究人员之前报道的结果的准确性。gydF4y2Ba

比较方法的性能与以前报道的结果。gydF4y2Ba

数据集gydF4y2Ba 方法使用先前报道的结果gydF4y2Ba 功能使用之前的报告结果gydF4y2Ba 所使用的分类器之前报道的结果gydF4y2Ba 之前报道识别百分比gydF4y2Ba 识别的方法(直接像素功能)gydF4y2Ba 该方法识别的百分比(梯度特性)gydF4y2Ba
cpar - 2012gydF4y2Ba数字(gydF4y2Ba 17gydF4y2Ba]gydF4y2Ba 分类器组合(MV)gydF4y2Ba 直接像素+简介+梯度+小波变换gydF4y2Ba CCN、模糊神经网络、打印、资讯、FFTgydF4y2Ba 97.87%gydF4y2Ba(35000)gydF4y2Ba 97.47gydF4y2Ba(35000)gydF4y2Ba 98.07gydF4y2Ba(35000)gydF4y2Ba
cpar - 2012字符(gydF4y2Ba 9gydF4y2Ba]gydF4y2Ba 分类器组合(MV)gydF4y2Ba 直接像素+简介+梯度+小波变换gydF4y2Ba CCN、模糊神经网络、打印、资讯、FFTgydF4y2Ba 84.03%gydF4y2Ba(79400)gydF4y2Ba 82.79%gydF4y2Ba(79400)gydF4y2Ba 85.11gydF4y2Ba (79400)gydF4y2Ba
ISI梵文字母数字(gydF4y2Ba 18gydF4y2Ba]gydF4y2Ba 功能组合gydF4y2Ba PCA / MPCAgydF4y2Ba+ QTLRgydF4y2Ba 支持向量机gydF4y2Ba 98.55%gydF4y2Ba (3000)gydF4y2Ba CMATER数据gydF4y2Ba
ISI梵文字母数字(gydF4y2Ba 16gydF4y2Ba]gydF4y2Ba 多级分类器gydF4y2Ba 小波gydF4y2Ba 多级gydF4y2BamlpgydF4y2Ba 99.04与0.24%拒绝gydF4y2Ba 97.26gydF4y2Ba (22546)gydF4y2Ba 完整的三军情报局数据gydF4y2Ba 98.17gydF4y2Ba (22546)gydF4y2Ba 完整的三军情报局数据gydF4y2Ba
ISI梵文字母数字(gydF4y2Ba 7gydF4y2Ba]gydF4y2Ba 整体使用演算法gydF4y2Ba 泽尼克时刻gydF4y2Ba mlpgydF4y2Ba 96.80(单)gydF4y2Ba (22546)gydF4y2Ba

略语表gydF4y2Ba 11gydF4y2Ba如下:主成分分析:主成分分析、资讯:再,模糊神经网络:前馈神经网络,支持向量机:支持向量机,延时:多层感知器,CNN:级联神经网络打印:模式识别网络,和FFT:神经网络拟合函数。gydF4y2Ba

图gydF4y2Ba 6gydF4y2Ba显示的准确性改善建议的结果优于现有方法。gydF4y2Ba

该方法的性能与以前报道的结果。gydF4y2Ba

利益冲突gydF4y2Ba

作者宣称没有利益冲突有关的出版。gydF4y2Ba

确认gydF4y2Ba

作者要感谢智能系统集团诺伊达和CVPR ISI加尔各答单位提供梵文字母字符的数据集/数字。gydF4y2Ba

的官方语言gydF4y2Ba 1968年,gydF4y2Ba http://www.rajbhasha.nic.in/GOLPContent.aspx?t=endolresolutiongydF4y2Ba 沙玛gydF4y2Ba N。gydF4y2Ba 朋友gydF4y2Ba U。gydF4y2Ba 木村gydF4y2Ba F。gydF4y2Ba 朋友gydF4y2Ba 年代。gydF4y2Ba 使用二次分类器离线手写devnagari字符的识别gydF4y2Ba 计算机视觉、图形和图像处理:印度第五届研讨会论文集,2006年ICVGIP马杜赖,印度,2006年12月13 - 16日gydF4y2Ba 2006年gydF4y2Ba 4338年gydF4y2Ba 柏林,德国gydF4y2Ba 施普林格gydF4y2Ba 805年gydF4y2Ba 816年gydF4y2Ba 在计算机科学的课堂讲稿gydF4y2Ba 10.1007 / 11949619 _72gydF4y2Ba AroragydF4y2Ba 年代。gydF4y2Ba 保护好gydF4y2Ba D。gydF4y2Ba NasipurigydF4y2Ba M。gydF4y2Ba 巴苏gydF4y2Ba d·K。gydF4y2Ba 茶室gydF4y2Ba M。gydF4y2Ba 非混合的手写的梵文字母字符的识别使用中长期规划的组合和最小编辑距离gydF4y2Ba 国际计算机科学杂志和安全gydF4y2Ba 2010年gydF4y2Ba 4gydF4y2Ba 1gydF4y2Ba 1gydF4y2Ba 14gydF4y2Ba HanmandlugydF4y2Ba M。gydF4y2Ba 没吃gydF4y2Ba o . v . R。gydF4y2Ba 基于模糊模式识别的手写数字gydF4y2Ba 模式识别gydF4y2Ba 2007年gydF4y2Ba 40gydF4y2Ba 6gydF4y2Ba 1840年gydF4y2Ba 1854年gydF4y2Ba 10.1016 / j.patcog.2006.08.014gydF4y2Ba 2 - s2.0 - 33947107407gydF4y2Ba ShelkegydF4y2Ba 年代。gydF4y2Ba 的利润率gydF4y2Ba 年代。gydF4y2Ba 一种新型多功能multi-classifier方案无约束手写的梵文字母字符识别gydF4y2Ba 学报》第12届国际会议在手写识别领域(ICFHR 10)gydF4y2Ba 2010年11月gydF4y2Ba 加尔各答,印度gydF4y2Ba 215年gydF4y2Ba 219年gydF4y2Ba 2 - s2.0 - 79951705447gydF4y2Ba 10.1109 / icfhr.2010.41gydF4y2Ba 巴塔查里亚gydF4y2Ba U。gydF4y2Ba ParuigydF4y2Ba 美国K。gydF4y2Ba 肖gydF4y2Ba B。gydF4y2Ba 巴塔查里亚gydF4y2Ba K。gydF4y2Ba 神经的安和嗯Devnagari手写数字识别gydF4y2Ba 学报第十届国际研讨会在手写识别领域gydF4y2Ba 2006年gydF4y2Ba La Baule、法国gydF4y2Ba 613年gydF4y2Ba 618年gydF4y2Ba 金达尔gydF4y2Ba T。gydF4y2Ba 巴塔查里亚gydF4y2Ba U。gydF4y2Ba 脱机手写数字识别的mlp结合使用一个演算法gydF4y2Ba 18gydF4y2Ba 诉讼的第四届国际研讨会上多语种OCR (MOCR 13)gydF4y2Ba 2013年8月gydF4y2Ba 美国华盛顿特区gydF4y2Ba 10.1145/2505377.2505380gydF4y2Ba 库马尔gydF4y2Ba 年代。gydF4y2Ba 三层方案梵文字母手写字符识别gydF4y2Ba 《世界大会对自然和生物启发计算(NABIC ' 09)gydF4y2Ba 2009年12月gydF4y2Ba 印度哥印拜陀gydF4y2Ba 1016年gydF4y2Ba 1021年gydF4y2Ba 10.1109 / nabic.2009.5393857gydF4y2Ba 2 - s2.0 - 77949579790gydF4y2Ba 库马尔gydF4y2Ba R。gydF4y2Ba RavulakollugydF4y2Ba K·K。gydF4y2Ba 在Devnagari手写字符识别的性能gydF4y2Ba 世界应用科学杂志gydF4y2Ba 2014年gydF4y2Ba 31日gydF4y2Ba 6gydF4y2Ba 1012年gydF4y2Ba 1019年gydF4y2Ba 2 - s2.0 - 84897068659gydF4y2Ba AroragydF4y2Ba 年代。gydF4y2Ba 保护好gydF4y2Ba D。gydF4y2Ba NasipurigydF4y2Ba M。gydF4y2Ba 巴苏gydF4y2Ba d·K。gydF4y2Ba 茶室gydF4y2Ba M。gydF4y2Ba 结合多个Devnagari手写字符识别的特征提取技术gydF4y2Ba 学报》第三届国际会议上工业和信息系统(ICIIS 08年)gydF4y2Ba 2008年12月gydF4y2Ba Kharagpur、印度gydF4y2Ba IEEEgydF4y2Ba 1gydF4y2Ba 6gydF4y2Ba 10.1109 / iciinfs.2008.4798415gydF4y2Ba 2 - s2.0 - 64949129041gydF4y2Ba 辛格gydF4y2Ba P。gydF4y2Ba 时gydF4y2Ba 一个。gydF4y2Ba ChaudharigydF4y2Ba n S。gydF4y2Ba 性能分析的灵活的基于区域特征对印地语数字进行分类gydF4y2Ba 学报第三电子计算机技术国际会议(ICECT 11)gydF4y2Ba 2011年4月gydF4y2Ba Kanyakumari、印度gydF4y2Ba 292年gydF4y2Ba 296年gydF4y2Ba 10.1109 / icectech.2011.5942101gydF4y2Ba 2 - s2.0 - 79961227744gydF4y2Ba BottougydF4y2Ba lgydF4y2Ba BousquetgydF4y2Ba O。gydF4y2Ba SragydF4y2Ba 年代。gydF4y2Ba 塞巴斯蒂安。gydF4y2Ba N。gydF4y2Ba StegydF4y2Ba W。gydF4y2Ba 大规模的权衡学习gydF4y2Ba 优化机器学习gydF4y2Ba 2011年gydF4y2Ba 美国马萨诸塞州剑桥市gydF4y2Ba 麻省理工学院出版社gydF4y2Ba 351年gydF4y2Ba 368年gydF4y2Ba 棕榈gydF4y2Ba r B。gydF4y2Ba 预测作为一个候选人[硕士学习的深层次化模型数据论文)gydF4y2Ba 2012年gydF4y2Ba 勒存gydF4y2Ba Y。gydF4y2Ba 议会gydF4y2Ba C。gydF4y2Ba BurgesgydF4y2Ba C . j . C。gydF4y2Ba 手写数字的MNIST数据集gydF4y2Ba 1998年gydF4y2Ba http://yann.lecun.com/exdb/mnist/gydF4y2Ba 库马尔gydF4y2Ba R。gydF4y2Ba 库马尔gydF4y2Ba 一个。gydF4y2Ba 艾哈迈德gydF4y2Ba P。gydF4y2Ba 基准数据集梵文字母文档识别研究gydF4y2Ba 2013年gydF4y2Ba Lemesos、塞浦路斯gydF4y2Ba 圆柱的新闻gydF4y2Ba 巴塔查里亚gydF4y2Ba U。gydF4y2Ba 乔杜里gydF4y2Ba B . B。gydF4y2Ba 印度手写数字的数据库脚本和多级混合数字的识别gydF4y2Ba IEEE模式分析与机器智能gydF4y2Ba 2009年gydF4y2Ba 31日gydF4y2Ba 3gydF4y2Ba 444年gydF4y2Ba 457年gydF4y2Ba 10.1109 / TPAMI.2008.88gydF4y2Ba 2 - s2.0 - 59549091486gydF4y2Ba 库马尔gydF4y2Ba R。gydF4y2Ba RavulakollugydF4y2Ba K·K。gydF4y2Ba 手写devnagari数字识别:基准测试新的数据集gydF4y2Ba 理论和应用信息技术杂志》上gydF4y2Ba 2014年gydF4y2Ba 60gydF4y2Ba 3gydF4y2Ba 543年gydF4y2Ba 555年gydF4y2Ba 2 - s2.0 - 84894616032gydF4y2Ba 达斯gydF4y2Ba N。gydF4y2Ba ReddygydF4y2Ba j . M。gydF4y2Ba SarkargydF4y2Ba R。gydF4y2Ba 巴苏gydF4y2Ba 年代。gydF4y2Ba 茶室gydF4y2Ba M。gydF4y2Ba NasipurigydF4y2Ba M。gydF4y2Ba 巴苏gydF4y2Ba d·K。gydF4y2Ba statistical-topological功能组合的手写数字识别gydF4y2Ba 应用软计算杂志gydF4y2Ba 2012年gydF4y2Ba 12gydF4y2Ba 8gydF4y2Ba 2486年gydF4y2Ba 2495年gydF4y2Ba 10.1016 / j.asoc.2012.03.039gydF4y2Ba 2 - s2.0 - 84861883346gydF4y2Ba