文摘
近年来,自主学习(SPL)吸引了太多的关注,由于非凸优化基于机器学习算法的改进。从人类学习方法介绍,SPL动态评估每个样本的学习困难和学习提供了加权模型对努力学习样本的负面影响。在这项研究中,我们提出了一个认知驱动SPL方法,即。,retrospective robust self-paced learning (R2SPL), which is inspired by the following two issues in human learning process: the misclassified samples are more impressive in upcoming learning, and the model of the follow-up learning process based on large number of samples can be used to reduce the risk of poor generalization in initial learning phase. We simultaneously estimated the degrees of learning-difficulty and misclassified in each step of SPL and proposed a framework to construct multilevel SPL for improving the robustness of the initial learning phase of SPL. The proposed method can be viewed as a multilayer model and the output of the previous layer can guide constructing robust initialization model of the next layer. The experimental results show that the R2SPL outperforms the conventional self-paced learning models in classification task.
1。介绍
通过将样品在基于先验知识的有意义的学习顺序,课程学习(CL) [1)提供了一个easy-to-hard学习过程,使模型更加符合人类认知。在处理课程学习更实用机器学习问题,Kumar et al。2)自适应评估模型,提出了自主学习中的样例学习困难的方法。具体来说,积极自学算法和动态获得最初的学习从原始数据序列,逐步增加困难的学习样本在每个迭代。然而,在课程学习,样例学习课程预设。通过预定义或动态生成的学习顺序,课程学习和自主学习可以避免主要功能落入局部最优解。许多研究人员应用课程学习和自学学习一些艰难的模式识别问题。在文献[3),江泽民等人提出了自学课程学习,不仅得到了样本序列动态模型的过程中学习,而且还利用先验知识来避免过度拟合。赵et al。4应用矩阵分解的非凸问题,抑制了噪声和离群值的有效性在模型上的数据。同时,他们指出,自适应地选择战略便于学习样本序列类似于人类认知的过程。詹姆斯et al。5)采用自主学习支持向量机在多通道数据检索,取得了可喜的成果。自主学习被介绍给许多学习模型,并显示出良好的性能在许多实际的应用程序。
自主学习似乎挑战传统的学习方法,主动学习,学习提高和传输。在机器学习的观点,这些边界样本,噪声样本,和离群值将会增加模型的不确定性,可能使模型生成一个糟糕的分类边界。因此,便于学习样本相比,努力学习学习样本已从传统模式备受关注。在我们的工作中,我们旨在处理监督学习问题,便于学习样本对应的样品小损失而努力学习样本对应样本大损失。在无监督学习,便于学习样本的意思是容易确定的样本而努力学习样本表示的样本会导致模型是不稳定的。摘要分类错误的样本被指示为产品的样本的预测价值和标签是负的。通常,在学习演算法,模型训练分类器通过改变样本分布基于前面的迭代分类错误的样本(6]。李等人。7]应用序列的演算法来训练分类器,从薄弱的学习者和逐步提高作为一个强大的学习者。主动学习是一种semisupervised学习,它选择标签的最有价值的样本模型。这些低样本可能包含有用的信息很难被选择,这需要更多的专业知识来识别。病重et al。8)提出了一个口语理解方法结合活性和semisupervised学习human-label和自动标记数据。黄等。9)提出了一个系统的框架,同时测量信息量和代表性的实例。信息量标准反映了样本的能力在降低模型基于标签数据的不确定性,而样本的代表性措施可以代表无标号数据。然而,自主学习模型首先考虑便于学习样本与预测损失小,逐步采用艰苦学习样本更大扩展训练集预测损失。自主学习之间的区别和转移学习是转移学习提高了模型的泛化通过共享模型在不同的任务10),而自主学习更新和学习本身获得局部最优解。
研究[11]指出人类识别和强化学习之间的内在一致性。在处理学习问题,人类和其他动物利用的和谐组合重复学习和分层感官处理系统。在自主学习中,初始模型与一些便于学习样本训练不足,这就增加了后续迭代学习风险,甚至降低了最终模型的泛化。解决小样本问题的惯例包含特征选择(12),正规化,添加人工样品(13]等。为了提高泛化的初始模型组成的小样品在自主学习,我们设计的框架,它使用模型的自主学习反复迭代构造初始模型。对应于人类的重复学习的过程,如果初始模型继承了大样本学习模型的性质,得到最终模型可能更健壮和歧视。
同时,尽管自主学习和一些传统的机器学习方法(学习演算法,主动学习和转移)是非常不同的在样本处理中,我们仍然可以吸收这些传统方法为自主学习的优点。具体而言,在本文中,我们提出回顾健壮的自主学习(R2SPL)。自主学习在每个迭代中,除了考虑便于学习样本,这些样本分类错误的迭代模型也将参与培训。例如,如果努力学习样本(他们的类别是很难确定)数据是多数,传统的自主学习可能不会得到良好的局部最优解。在这种情况下,我们建议的方法着重于便于学习样本和分类错误的样本在每个迭代中,可以开车最后成熟的模型是健壮的和歧视。
总的来说,我们的主要贡献可以概括如下:(我)我们介绍这些分类错误的样本伴随着简单的样品小损失在每个迭代中变得更有识别力的指导模型。(2)回顾自主学习提出了提高自主学习的初始化的鲁棒性。(3)实验结果表明该方法达到承诺导致分类任务。
本文的其余部分组织如下。我们简要介绍相关工作自主学习部分2。我们建议的SPL节3。节4,我们ADNI和UCI数据集进行实验。我们提供的结论和未来研究计划部分5。
2。相关工作
2.1。课程学习和自主学习
2009年,Bengio et al。1)提出了一个模仿儿童教育秩序的方法叫做课程学习。不同与传统的机器学习方法从总体样本学习,在他们的工作,他们整理样品以一种有意义的秩序和学习模型在几个部分。受益于先验知识,课程的学习可以得到更好的结果比其他机器学习模型在某些任务。然而,安排样品订单通常需要专家鉴定,这就增加了模型的难度和成本。此外,有序样本序列是静态的和缺乏灵活性在处理新样品或任务。为缓解这一缺陷,Kumar et al。2)在2010年提出的自主学习。没有任何先验知识和专家鉴定,自主学习可以动态地分配由易到难的样品根据样品和模型之间的适应性。在多媒体检索,陆et al。14提出了自学reranking多通道数据的模型,模型的图像和视频搜索任务上取得了很大的进步。周et al。15]把自主学习深层神经网络,可以自适应地涉及到忠实的样本在训练过程。通过分析自主学习的工作机制,风扇等。16)提出了一个通用隐式正则化框架。因为采用自主学习到许多模型,这些模型之间的共性在于样品处理。在每个迭代中,这些模型通常选择这些高信任度的样品符合模型更好的构建当前模型和逐步用剩下的低样本来调整模型,让它变得更加泛化。
课程学习是第一次尝试将人类认知的序列和机器学习模型。虽然课程学习也有一些缺点,它使easy-to-hard学习后者的概念模型。自主学习是课程学习的扩展,更加灵活和简洁。类似于人类学习,自主学习训练样本容易困难,逐步提高了模型的鲁棒性。
2.2。艰难的学习样本
在样品处理策略,自主学习方法与一些艰难的样本集中学习方法是不同的,像演算法,主动学习,学习和转移。在我们的工作中,我们尽量精细区分不同类型的样本,包括便于学习样本,努力学习样本,和分类错误的样本,给他们不同的权重模型。通过结合简单的分类器,演算法可以处理复杂的问题。例如,在许多多类问题(17,18),样本的分布是非常复杂的19]。喜欢SVM,演算法可以渐近实现边缘分布是健壮的噪声(7,20.,21]。主动学习是一个semisupervised模型使用标记样品改善模型得到的标记样本。然而,由于未标记样本没有标签,一些数据很难区分通常需要手工注释类型。否则,如果这些数据确定模型,它可能会增加的不确定性模型。林等。22提出积极自主学习,利用这两个模型的特点自动注释高信任度和低样本并将它们纳入培训下弱专家换发新证。Kumar et al。2)指出,确定性并不意味着正确性。许多研究人员进行支持向量机和主动学习一些实际的应用程序中,像文本分类23,24),图像检索(25),和分割的图像26]。模型调整从原始域的重量数据,从而提高数据的相似性之间的目标域和源域(10]。在孩子学习的过程中,一些问题有共同的底层结构,但在表面表现不同,这是类似于转移的特点学习(27]。为了使模型接近人类智慧,许多研究人员结合模型和环境反馈和转移学习(28- - - - - -30.]。
在我们的工作中,我们将重点放在便于学习样本和艰难的样本,提高自主学习的歧视。同时在每个迭代中,我们将选择这些便于学习和分类错误的样本训练样本。像人类认知,它有利于提高最终自学的推广模式,同时学习高信任度样品和低样本在每个迭代中。
3所示。该方法
3.1。健壮的SPL
具体来说,我们定义了一个对角矩阵 每个样品的重量分类错误表示。让和代表的标签和预测价值 - - - - - -th样本,分别。对于二元分类问题,如果 ,的 - - - - - -样品是纠正分类。否则,这个示例是分类错误的样本。在我们的工作中,这些分类错误的样本的重量( )在权重矩阵应该比这些修正样品,这种类型的重量范围不应该有很大区别。因此,在我们的工作中,我们采用乙状结肠函数,如图1,权函数对产品标签和预测价值。考虑到标签向量 ,数据矩阵 ,和当前的模型参数 ,的分类错误的重量 - - - - - -样品可以计算 对于监督问题,自主学习功能 分配重量根据样品样品损失。这些样品用小损失将被视为便于学习样本。然而,我们的模型同时考虑便于学习样本和艰难的样本在每个迭代中。具体来说,我们结合和自学权重矩阵线性。然后,模型可以作为制定 在哪里正则化项。嵌入在特征提取结构信息,我们采用 - - - - - -标准回归系数 。的值越接近为0,稀疏的特征提取的结果。 自学功能和重量控制样品的数量被认为是构造模型。起初,只有少数样本小损失可以用来构建模型。的减少 ,越来越多的样本更大损失将加入模型训练过程。
不管是什么形式的自学功能 是,他们应该满足三个属性(3,14]: 凸对吗 ; 样品的重量应该是单调递减对其相应的损失;样品的重量应该是单调递减的速度参数 。
与此同时,在人类认知过程中,人们通常犯错误由于缺少知识。通过不断总结陌生和误解的概念,人们可以形成一个更健壮的知识体系。值得注意的是,如果孩子得到帮助成年人(如老师和家长)在认知的过程中,他们可以更快地构建知识框架和良好。自主学习是类似于教育过程的儿童没有成人的帮助。因此,学会了初始模型可能不够健壮。为缓解这一缺陷,在本文中,我们提出了回顾性健壮的自主学习。具体来说,我们级联多个自学学习算法,它可以帮助减少负面影响后续自学学习的初始化过程中由于缺乏样本简单的大小问题。自然,在未来的自主学习过程,可以适度加快学习速度。重复这个过程几次,我们可以获得更健壮和歧视模型。该方法的框架可以被视为一种多层网络如图2。首先,我们构造初始模型基于这些便于学习样本。获得的初始模型没有好的辨别力由于缺乏训练样本。然后,我们采取更加努力学习和分类错误的样本来训练我们的模型,使模型更加健壮和歧视。当这一层的训练完成后,融合结果将被用作下一层模型的先验知识。重复此操作,直到所有n-layer模型训练。因为自主学习阶段本质上是一个网络层。具体来说,第一层的输出可以用来指导选择便于学习样本的第二层的初始化,可以预期的是比这更健壮的独立学习。
3.2。优化
由于参数 , ,和彼此是独立的,我们可以解决其他参数计算。在 - - - - - -th迭代,每个参数可以计算的 - - - - - -迭代参数。 在 - - - - - -th迭代中,每个部分都是一个凸问题;可以实现参数的最优解。的解决方案 , ,和提出了如下。
(1)的解 为了简化计算,我们将第二项(4) 。 是一个对角矩阵,对角元素可以计算吗 在哪里是 - - - - - -th元素 。然后,(4)可以等价为制定 得到的推导在(6),将其设置为0: 的最优解是 在下一次迭代中,模型将纠正其错误,引导回归系数基于参数 。的影响下的积累和 ,即对应于简单的小样本损失和误导的样本,我们提出了自主学习模式将更健壮和歧视比传统的自主学习模型只考虑简单的样本在每个迭代中。
(2)的解决方案 在我们的工作中,我们定义的 作为 在哪里 , 用于描述样品损失的下界,然后呢 是用来描述上界。与此同时, 还描述了模型的年龄。在最初的阶段,只有简单的样品小损失被认为是构造模型。作为 大的增长,越来越多的复杂样品损失将采用模型,使之更成熟。样品的重量可以由我们的自学权函数计算 。得到的推导在(9),将其设置为0: 在哪里方的损失吗 - - - - - -样本。的最优解是由 正如上面提到的,我们采用回顾自主学习框架来提高模型的鲁棒性和歧视。具体来说,步长在当前自主学习过程小于在后续过程。在我们的工作中,我们组第一次自主学习层的步长是0.1,然后逐渐增加它在后续过程。为了简化计算,我们设置层数为3的方法。
(3)的解 。的解决方案可以计算(1)。在我们的工作中,我们应用乙状结肠函数分配重量值矩阵 。使用不同的自学重量函数(10),我们可以获得不同的模型。在细节,我们采用三个自我学习功能,二进制,线性和对数。 可以制定如下。
(一)二进制
(b)线性
(c)对数 在哪里 。显示了我们的模型算法的求解算法1。
4所示。实验
4.1。设置
评估我们的方法的有效性,我们进行我们的实验十二进制分类数据集从UCI库和阿尔茨海默病的神经影像学(ADNI)数据库。UCI数据集提出了表的详细信息1。广告数据用于我们的实验得到的阿尔茨海默病的神经影像学(ADNI)数据库(adni.loni.usc.edu)。在我们的工作中,阿尔茨海默病(AD)和116 - 913个样本数据维度,这是由公元160年的病人,542 MCI患者和211名健康对照(HC)。具体来说,MCI患者可分为三个阶段,82年重要的内存问题(SMC)患者,273年早期轻度认知障碍(EMCI)病人,和187年晚期轻度认知障碍(LMCI)患者。ADNI有五种形式的数据,包括ID(序列号),单核苷酸多态性(SNPdata),基于体素的形态测量学(VBM),氟脱氧葡萄糖位置发射断层扫描(FDG)和淀粉样蛋白f - 18 florbetapir PET扫描成像(AV45)。在ADNI数据库,我们执行三个分类任务,广告与HC, MCI和HC, SMC与LMCI。在每个分类任务中,我们把我们的方法与基线与RBF核函数支持向量机,演算法和传统的自学方法。在样本处理,演算法调整训练样本的分布性能的基础上基本的学习者,这使得当前迭代的误导样本在下一次迭代得到更多的关注。
对于传统的自主学习模型的权重函数(13),(14)和(15),我们将他们定义为二进制、线性和日志。与此同时,我们构造两个自主学习模型基于我们提出的模型。如果参数没有考虑到回顾模型,我们称之为模型Easy-SPL。当我们提出的模型只是一个水平self-pace包含参数学习 ,它可以被定义为Single-SPL。获得公正的结果,我们采用10倍交叉验证策略有四个测量,包括分类精度(ACC),灵敏度(SEN),特异性(SPE)和接受者操作特征曲线下面积(AUC)。在UCI数据库,我们重复实验30倍和2倍交叉验证。在实验中,我们分析的结果每一层的自学学习过程来确定层数。我们停止训练模型时当前自学学习过程的收敛性结果与以前相比并没有显著提高迭代过程。然后,我们可以确定我们的模型的层数。
4.2。实验结果在UCI和ADNI数据
首先,我们验证引入严厉的样本的有效性和回顾自主学习模型在每个迭代中十个UCI数据集。图3列出了每一层的结果提出了自主学习的方法。显然,后引入权重矩阵 ,模型表现更多的歧视在每个迭代中。与此同时,去年自学学习过程的模型不仅具有更好的性能,而且表现得比以前更健壮的层。表2列表的ACC和AUC七基线和模型。我们建议的模型达到10 UCI数据集上的所有最好的结果在几个数据集,使巨大的改善。
我们比较了提出方法,即。,R2SPL, with several representative classification methods, including SVM, AdaBoost, SPL with binary, linear, or log function, Single-SPL (Sin-L), SPL without tough samples (N-SPL). The results are shown in Figure4。我们画这些方法在图的precision-recall曲线5提出了AUC和ACC结果表2。从数据看4和5和表2,我们发现我们的方法比这些比较方法在所有十个数据集。
我们也表现ADNI数据集方法和比较方法,进行了三个分类任务,广告与HC, MCI和HC, SMC与LMCI。三个任务的比较结果,广告与HC, MCI和HC, SMC与LMCI,表中列出3,4,5,分别。显然,我们提出的方法具有更好的性能与其他方法相比在ACC, SEN, SPE, AUC。它展示了我们的模型的优越性和其他广告分类问题的分类器。
4.3。参数的影响
我们的模型有两个参数包括正则化项λ和稀疏p。我们测试10个UCI数据集的两个参数的影响。的参数λ是调来和稀疏的值从0到2 p是调整。当检测对模型参数的敏感性,我们只有改变该参数的值并修复另一个参数的值。图6给出了实验结果。具体来说,图6给出正则化项的影响λ和参数p。我们可以看到从图6,当λ是调来 ,我们建议的模型的性能在大多数情况下是稳定的。图6还显示稀疏项p的影响。当p变化从0.4到2,我们提出的方法的性能略有变化。我们10 UCI数据集进行多组实验。实验结果证明我们的模型具体参数不敏感,只有相关的结构模型。
4.4。不同层次的模型的收敛性结果
收敛性分析中,我们发现不同的模型有不同的收敛率。融合结果图中列出7;显然,随着层数的增加,模型的收敛速度也加快。受益于先前的迭代过程的先验知识,当前模型能够更快地获得局部最优解。
5。结论
在本文中,我们将样本划分为便于学习样本,努力学习样本,分类错误的样本和分析他们的角色在学习。然后,我们介绍艰难或分类错误的样本在每个迭代训练自主学习。同时,考虑到人类认知过程中,人们通常需要不断探索和学习相同的数据或任务来获取深度了解它由多个学习阶段。所以我们设计回顾框架来提高自主学习的健壮,它使用上一层模型减少小样本问题的负面影响下一个迭代的初始化阶段。实验结果表明,该方法比传统的自主学习行为更加健壮和歧视方法和许多具有代表性的方法。在进一步的工作中,我们将扩展框架之上其他学习任务,如semisupervised学习。
数据可用性
原始数据生成在南京航空航天大学。派生数据支持本研究的发现可以从相应的作者。
的利益冲突
作者宣称没有利益冲突。
确认
这项工作的部分支持由中国国家自然科学基金(61501230号,61732006,61876082,61861130366),国家科技重大项目(没有。2018 zx10201002),中央大学基础研究基金(没有。NP2018104)。