-norm regularization that can decrease the ability of representation from the interclasses of each testing sample. Simultaneously, a competitive -norm regularization is introduced to the DCCRC model with the class discrimination information with the aim of enhancing the competitive ability of representation from the true class of each testing sample. The effectiveness of the proposed DCCRC is explored by extensive experiments on the several public face databases and some real numerical UCI data sets. The experimental results demonstrate that the proposed DCCRC achieves the superior performance over the state-of-the-art representation-based classification methods."> 歧视、竞争和协作表示分类规范合法化 - raybet雷竞app,雷竞技官网下载,雷电竞下载苹果

复杂性

PDF
复杂性/2019年/文章

研究文章|开放获取

体积 2019年 |文章的ID 3251026 | https://doi.org/10.1155/2019/3251026

郭台铭,建平Junyu Lu,和平的歌,红星马、华欧、甲客, 歧视、竞争和协作表示分类 - - - - - -规范合法化”,复杂性, 卷。2019年, 文章的ID3251026, 14 页面, 2019年 https://doi.org/10.1155/2019/3251026

歧视、竞争和协作表示分类 - - - - - -规范合法化

学术编辑器:卢多维Minati
收到了 2019年9月26日
接受 2019年11月14日
发表 2019年12月07

文摘

最近,协作表示分类(CRC)和它的许多变化已经广泛应用在模式识别各种分类任务。进一步加强CRC的模式的歧视,在本文中,我们提出一种新颖的CRC的延伸,名为歧视、竞争和协作表示分类(DCCRC)。提出DCCRC,阶级歧视信息是充分利用促进每个测试样本的真实类居多的代表测试样本在协作表示。阶级歧视的信息也被认为是新设计的区别的 - - - - - -规范正规化,可以减少的能力表示的组内的每一个测试样本。同时,竞争 - - - - - -规范介绍了正则化与阶级歧视DCCRC模型信息,目的是增强竞争力的代表真正的每个测试样本的类。的有效性提出DCCRC几个公共脸上被广泛探索实验数据库和一些真正的数值UCI数据集。实验结果表明,该DCCRC达到最先进的基础分类方法性能优越。

1。介绍

如今,线性表示分类(RBC)通常包括稀疏表示分类(SRC) [1)和协作表示分类(CRC) (2]在模式识别已经吸引了越来越多的关注。SRC和CRC,每个测试样本是线性由所有训练样本由职业专用表示残差和总分类。由于出色的表示分类性能,红细胞的方法已经广泛应用于许多分类任务,如图像分类(3- - - - - -10和人脸识别11- - - - - -19]。

众所周知,SRC的 - - - - - -规范表示系数正则化是一种非常有前途的稀疏的加拿大皇家银行由于其良好的属性和自然歧视(1,20.,21]。然而,它一直认为歧视源于表示模式 - - - - - -规范的合作表示所有的训练样本,而不是 - - - - - -规范稀疏表示的一些训练样本,然后一般标准CRC第一次被提出作为扩展的SRC (2]。具体地说,使用 - - - - - -规范正规化的表示系数,有效的歧视的好处从协作表示所有的职业专用训练样本。因为有效的CRC的封闭解的有效的分类性能,许多CRC扩展开发近年来(6,15,17- - - - - -19,22- - - - - -35]。此外,自然歧视CRC的可能的原因进行了详细分析从阶级的角度可分性的数据(18)和概率(22]。CRC的方法,一般的扩展是加权CRC使用数据的地方作为权重约束协作表示系数(17,27- - - - - -29日,31日]。因为协作表示有效分类性能,设计了两阶段协作表示分类方法(30.- - - - - -33,36]。而且,这种两阶段协作的稀疏表示的分类也有属性增强的能力模式歧视(30.]。利用稀疏表示的优势和协作表示,相结合的扩展都提出了分类(34,35,37,38]。此外,由于良好的潜在的歧视中包含表示,利用稀疏表示和协作表示,设计有效的最近邻分类(39- - - - - -41]。

在许多的最新扩展CRC,阶级歧视信息的数据实际上是完全用于加强权力的模式分类42- - - - - -47]。从概率的角度来看,一个概率CRC (ProCRC)是由使用表征之间的区别的正规化的所有类,每个类(22]。使用数据的先验信息扩展ProCRC (EProCRC)提出了43,使用粗到细的表示时履行ProCRC提出了在33]。通过设计的区别的正规化对任何两个类的表示,新的区别的稀疏表示的分类方法(DSRC)提出了44]。基于DSRC ProCRC,小说区别的CRC方法提出了延长DSRC [45]。克服问题的表示和分类阶段最CRC变化不是集成到一个统一的模型,一个协作和竞争表示分类器(CCRC)提出了46]。CCRC直接包括分类决策的模型,可以提高每个类的训练样本竞争力表示每个测试样本。目的是获得类似的竞争表现在所有的类,歧视 - - - - - -规范表示的正规化的所有类除了任何一个类被设计提出的竞争和协作表示分类方法(Co-CRC) [47]。认为上面这些区别的CRC扩展,歧视表示取得了良好的分类。

基于事实的歧视信息数据可以探索促进协作模式的力量歧视的代表,在本文中,我们提出了一个新颖的歧视竞争和协作表示分类方法(DCCRC)通过使用的所有类之间的区别的表示。拟议中的DCCRC假定每个类可以有区别地和竞争力代表测试样品。所有类之间的歧视和竞争合作表示可以由两个实现的 - - - - - -规范合法化在DCCRC模型中。一个是新设计的 - - - - - -规范对表示的正规化的所有类的所有类和表示不包括任何一个类。另一个是竞争力 - - - - - -规范正规化的陈述不包括任何一个类的所有类(47]。实验验证的分类性能提出了DCCRC,我们比较先进的红细胞的方法在多个数据库和一些真正的数值UCI数据集。进行的实验表明,该方法是有效的和比竞争红细胞的方法更好的分类结果。总之,我们在本文中给出了主要贡献如下:(1)一个新的歧视 - - - - - -规范正规化设计通过使用陈述的所有类不包括任何一个类(2)小说歧视、竞争和协作表示通过考虑歧视提出了分类信息的数据(3)实验分析报告论证的有效性提出DCCRC为好

本文的其余部分组织如下。部分2简要描述了相关工作。部分3详细介绍了提出DCCRC然后分析它。部分4广泛的实验报告评估的有效性提出DCCRC。最后,给出本文的结论部分5

在本节中,我们简要回顾一些相关RBC模型。首先,一些常用的符号表示。我们假设所有的训练样本集C类是表示 ,在哪里d特征空间的维数和吗N 是所有训练样本的数据类和类,分别。请注意,th的列向量X代表了训练样本 和训练样本类的子集 此外,我们还假定 是一个给定的测试样本用于分类。在班轮表示分类、测试样本y近似表示为 ,在哪里 是向量的表示系数对应的所有训练样本吗X 从类的subvector表示系数

2.1。儿童权利公约

CRC是一个典型的线性表示分类器提出最近[2]。CRC,一个给定的测试样本y协作由所有训练样本的分类。CRC模型被定义为 在哪里λ是一个积极的正则化参数。显然,CRC可以学习的封闭解年代作为 在哪里 用一个单位矩阵。使用学到的 ,职业专用表示残差确定 最后,给出测试样本y与最低分为类表示剩余的所有类。

2.2。短距离

短距离(44)是一种歧视的稀疏表示方法 - - - - - -规范对任意两个职业专用的正则化表示。它可以实现良好的模式与稀疏歧视不同的类中。DSRC模型被定义为 在哪里γ是一个积极的正则化参数。通过一些代数操作,有效的解决方案年代可以获得的 在哪里 使用学到的 ,我们计算出残差与职业专用表示 和分类y与最小类表示剩余的所有类。

2.3。Co-CRC

Co-CRC [47)是一种新的扩展的CRC促使每个培训班有区别地和竞争性表示每个测试样本。Co-CRC模型被定义为 在哪里β是一个积极的正则化参数。第二项的方程(5)是竞争表示约束。据的解决方式年代(47),的学习解决方案年代是实现 在哪里 使用 ,职业专用表示残差计算 和测试样本y与最低分为类表示剩余的所有类。

3所示。拟议中的DCCRC

在本节中,我们详细提出DCCRC方法。DCCRC的基本思想是首先,然后是DCCRC模型及其求解过程描述,最后DCCRC持有的基本性质进行了分析。

3.1。DCCRC的想法

拟议中的DCCRC包含两个假设最初的灵感来自于竞争和协作表示(47]。清晰的描述,的合作表示给定的测试样本y使用所有训练样本是写成 ,在哪里 代表类的训练样本不包括样本与相应的向量 的表示系数。一个假设源于期望给予真正的类测试样本y可以代表居多y和其他类代表它(例如,几乎没有贡献 )。不幸的是,真正的类的测试样本y不知道,任何一个培训课程可以选为真正的类y。事实上,我们只让一个类的训练样本竞争力代表测试样本y尽快为代表和贡献y从其他类是理想情况下尽可能低。因此,通过这种好期望,测试样本y是表示为 从类通过同时最小化表示 从其他类。因此,在该方法中,我们引入竞争的约束 这是第一次设计(47]。

在协作表示,所有训练样本大约代表测试样本y尽快,即 在表达的过程中,如果y属于类与占主导地位的代表 ,表示 从其他类往往是非常小的。在特定的, 往往是相当于表示 在某种程度上。在这样一个理想的情况下,近似等式可以学到, 借贷的想法有辱人格的类间的相关性通过最小化区别的约束 (44),我们也假设之间的关系表示 从类和表示 从其他类尽可能小。也就是说,如果类可以代表居多y 和所有的训练样本可以代表y ,之间的相关性 应该是小的。类似的定义 (44),我们设计一个新的歧视约束 很明显,最小化 可以最小化 , , 最小化 满足第一个假设。如果 ,最小化 约等于最小化 这可以降低之间的关系表示从一个类和其他类的代表。

3.2。DCCRC模型

在本节中,我们首先介绍DCCRC提出的目标函数模型,然后提出解决问题的程序的细节。给定的测试样本y是由协作表示所有的训练样本,和DCCRC模型的基础上,其想法是定义如下: 在哪里 是积极的正则化参数。在方程(7),第二项 ,第一次设计(47),是竞争约束,可以使每个类有竞争力和有区别地代表测试样本y在所有的类。第三项 有识别力的约束,不仅使每个类竞争力代表测试样品y但也降低了表示一个类与其他类之间的相关性为更多的歧视。注意,当 ,DCCRC CRC是一样的,当 ,DCCRC Co-CRC是一样的。

为了实现的解决方案表示系数向量年代方程(7应该进一步的新配方 在哪里 简单地解决年代,让 首先,的导数 关于年代是计算

可以写成 在哪里 ,G被定义为

使用方程(9)和(10), 是新配方

的导数 关于年代是计算

在方程(13),使用 , 可以新配方

使用方程(10)和(14),方程(13最后)可以写成

显然,DCCRC的目标函数 使用方程(10)和(15),该函数的导数与尊重年代

最后,我们组 ,的解决方案表示系数向量年代在方程(7)获得

在获得表示系数向量年代,我们计算职业专用表示残差和确定类标签 测试样本的y作为

也就是说,给定的测试样本y划分为残差最小的类表示在所有的类。根据上面的提议DCCRC模型的描述中,综述了国内外近年来提出DCCRC算法1

输入:给定的训练集 和测试样品y有三个正规化参数 , ,
输出:确定的类标签y。
(1) 每个样本的正常化Xy。
(2) 计算 G与方程(11)。
(3) 用方程解决表示向量(17)。
(4) 计算残差与职业专用表示
(5) 预测的标签y与方程(18)。
3.3。分析DCCRC

在本节中,我们首先进一步分析 在拟议的DCCRC方法中,为了解释模式的更多权力歧视。然后,分析之间的差异提出DCCRC Co-CRC, DSRC强调。

使用分析竞争的方式表示[47), 在术语 可以写成 ,我们可以获得平等的

假设之间的角度 α。使用方程(19), 可以获得的

根据方程(20.),当 , 方法 相同的方向。在这种理想情况下,给定的测试样本y是主要由 从类y真正属于。因此,要减少 有两个优点。一是每个类竞争力代表了测试样品y。另一个是真正的类y可能有竞争力的代表和其他类不代表它。

此外, 在术语 可以新配方 通过简单的代数 ,我们也可以实现方程(20.)。这一事实意味着最小化 最小化的非常相似的优势 而且,我们可以重写 作为 最小化 同时减少 , , 我们可以看到,除了最小化 ,最小化 可以降低之间的关系 (44]。也就是说,最小化 可以降低一个类与其他类之间的关系,以提高模式的力量歧视和竞争表现在所有的类。因此,术语 可以获得有利的竞争和歧视的协作表示分类。此外,歧视模式中所有的类都可以直观地验证下一节。

之间的差异提出DCCRC Co-CRC,短距离可以通过比较分析(即相应的模型。方程(7DCCRC),方程(5Co-CRC),方程(3对DSRC))。根据方程(3)和(7从DSRC), DCCRC非常不同,但都有类似的歧视条款。这个词 在短距离可以降低歧视任何有利的两类模式之间的相关性,但这个词 在DCCRC可以降低任何一个类和其他类之间的相关性对竞争力的增强歧视表示每个类的分类。此外,DSRC相比,该DCCRC也有竞争约束的正则化系数表示。此外,提出的扩展是DCCRC Co-CRC因为DCCRC Co-CRC有相同的竞争约束 与Co-CRC相比,该DCCRC还设计有识别力的约束 和正规化的表示系数,以便DCCRC进一步提高竞争表现在所有的类。因此,提出DCCRC模式歧视比短距离和Co-CRC实验验证在接下来的实验部分。

4所示。实验

在本节中,几个脸上的广泛实验数据库和一些真正的数值UCI数据集进行。在实验中,我们比较先进的加拿大皇家银行的提议DCCRC方法包括SRC (1],CRC [2],CCRC [46],Co-CRC [47],DSRC [44],ProCRC [22],EProCRC [43]。应该注意的是,所有竞争的正规化参数方法预设的范围 公平的比较实验。每个竞争方法得到的最优分类结果之间的参数范围。

4.1。数据集

在本节中,我们简要介绍了使用数据集包括AR YaleB, IMM,耶鲁,PIE29数据库和真正的UCI数据集。YaleB数据库(http://vision.ucsd.edu/leekc/ExtYaleDatabase/ExtYaleB.html)不同的姿势和不受控制的照明条件下拍摄。耶鲁大学数据库(http://cvc.yale.edu/projects/yalefaces/yalefaces.html)是由不同的面部表情。基于“增大化现实”技术的数据库(http://www2.ece.ohio-state.edu/aleix/ARdatabase.html)是由各种面部表情和光照条件下,我们使用的一个子集AR 1400从100年主题形象。IMM数据库(http://www.imm.dtu.dk/∼麦/数据/ datasets.html)包含240带注释的单眼图像从40科目。PIE29数据库(http://www.intbox.com/public/project/4742/)摄于不同条件下包括13个姿势,43个灯,和4表达式。在实验中,每个图像裁剪和缩放 256每像素灰度值和灰度值归一化到[0,1]。总样本的数量、类样本每个类,每个类和选择训练样本如表所示1。作为一个例子,一个主题的图像样本从每个数据库如图1


数据 总样本 每个类样本 训练样本每个类

YaleB 2432年 38 64年 12日,18日,24日,30岁
耶鲁大学 165年 15 11 2、3、4、5
基于“增大化现实”技术 1400年 One hundred. 14 2、4、6、8
IMM 240年 40 6 2、3、4、5
PIE29 1632年 68年 24 2、4、6、8

真正的使用八个UCI数据集从加州大学欧文分校机器学习库下载(UCI) (http://archive.ics.uci.edu/ml)。他们是“酒”、“汽车”,“汽车MPG,”“Statlog(核心),”“Statlog(澳大利亚信贷审批),”“信贷审批”,“Isolet”和“电离层。汽车MPG,“注意”Statlog(核心),”“Statlog(澳大利亚信贷审批),”“信贷审批”和“电离层”缩写为“汽车”“心,”“SCredit,”“信用”和“Iono,分别”。总样本的数量、类、属性和训练样本类显示在表中2。在实验中,每个样本在这些UCI数据集也归一化 此外,这些表面上和UCI数据集,它们随机分为训练和测试样本集的十倍,每个类的训练样本选择如表所示12


数据 总样本 属性 训练样本每个类

178年 3 13 7、8
车辆 846年 4 18 10、11
汽车 392年 3 8 10、14
信贷 690年 2 15 8、10
270年 2 13 6、8
SCredit 690年 2 14 35岁,50
Isolet 1560年 2 617年 21日,26日
Iono 351年 2 34 15、20

4.2。实验1

在本节中,我们首先进行实验来分析竞争对手的术语 和区别的词 通过改变参数的值 在提出的五个脸上DCCRC数据库中。参数的值 , , 预设是 ,选择和训练样本的数量每个类 基于“增大化现实”技术, IMM, YaleB, 在耶鲁大学, PIE29。对于视觉比较,模型 没有 是表示DCCRC1,该模型 没有 是表示DCCRC2。因此,我们比较DCCRC1DCCRC演示这个词的歧视 通过改变参数的值 和我们比较DCCRC2DCCRC演示这个词的歧视 通过改变参数的值 应该注意的是,参数的值 当DCCRC与最优分类精度1与DCCRC相比,参数的值 当DCCRC与最优分类精度2与DCCRC相比。为方便的值 在这些数据中,我们使用 (即。,the values of 对应的 ,分别)。

DCCRC的分类精度1和DCCRC不同 如图2,DCCRC的2和DCCRC不同 如图3。从实验结果图2,我们可以看到DCCRC 明显比DCCRC执行1没有 ,和DCCRC更健壮的变化 比DCCRC1。如图3,我们也可以观察到DCCRC 明显比DCCRC执行2没有 和DCCRC更健壮的变化 比DCCRC2。此外,DCCRC的分类性能1的变化 和DCCRC2的变化 说明条款 可以提高电源模式的歧视。实验结果在两个数据暗示该DCCRC具有有效的和可靠的分类性能。因此,多模式的歧视提出DCCRC源于竞争和歧视的条款进行验证。

然后,我们直观地验证的区别的能力提出DCCRC法相比,竞争力CRC法(即。Co-CRC)。作为讨论的部分3所示。3贡献,我们定义职业专用表示给定测试样本y作为

显然,DCCRC和Co-CRC分类与最大的每个测试样本到类 在所有的类。模式歧视的能力都是直观地表示所代表的重建图像给定类的测试样本26在AR IMM和类9。前五表示重建的图像测试样本对应贡献最大的前五名表示如图4。注意括号中的数字在每个重建图像的类及其代表的贡献 例如, 在重建图像意味着类26有代表性的贡献 我们可以看到在图4正确,提出DCCRC表示和分类测试样本,但Co-CRC错误表示和分类。此外,我们可以观察到,第一个重建图像重建的类中贡献最大的表示Co-CRC非常类似于每个脸上的测试图像数据库。通过实验说明图4,提出DCCRC比Co-CRC更有识别力的分类。这意味着设计术语 是歧视。因此,可以得出结论,提出DCCRC有效和强大的分类由于竞争和歧视的约束。

4.3。实验2

在本节中,我们比较建议DCCRC脸上的竞争方法数据库和UCI数据集。每个竞争方法的实验结果是平均分类精度的每个数据集的十个部门。每种方法的最佳分类精度实现参数的范围,以及预设职业专用训练样本在每个数据集如表所示12

所有的竞争方法的分类精度如表所示3在面对数据库和表4在UCI数据集。注意,最好的分类性能在所有的方法在每个数据集是黑体字表示。如两个表所示,几乎每个竞争方法的分类精度提升职业专用的增加训练样本在所有的数据集。脸上数据库,我们可以看到,该DCCRC几乎达到最好的分类精度在所有竞争的方法,但它可能不是非常显著改善相比,一些方法。显示在表4,该DCCRC显著表现优于其他竞争的方法。此外,分类结果的两个表,我们可以观察到CCRC, Co-CRC,短距离,ProCRC, EProCRC获得类似的有竞争力的分类性能。可能的原因是,这些方法可以充分利用职业专用表示协作表示改善模式歧视在所有的类。因此,我们可以得出这样的结论:DCCRC方法是一种很有前途的表示分类器模式分类的有效性和鲁棒性。


数据 l SRC 儿童权利公约 CCRC ProCRC EProCRC Co-CRC 短距离 DCCRC

YaleB 12 91.770.95 93.58±0.58 93.78±0.63 94.34±0.51 93.72±0.67 94.53±0.40 94.05±0.53 94.61±0.38
18 95.48±0.45 96.21±0.41 96.55±0.46 96.63±0.51 96.51±0.49 96.52±0.46 96.09±0.54 96.91±0.38
24 96.81±0.43 97.31±0.42 97.62±0.23 97.69±0.23 97.59±0.22 97.54±0.29 97.13±0.30 97.93±0.24
30. 97.57±0.47 97.64±0.38 98.12±0.46 98.13±0.48 98.12±0.46 97.63±0.43 97.46±0.47 98.25±0.45

基于“增大化现实”技术 2 84.99±0.90 86.71±0.77 89.92±0.70 90.15±0.77 89.89±0.68 90.10±0.79 85.46±0.80 90.18±0.77
4 94.18±0.49 94.48±1.16 96.55±0.78 96.60±0.73 96.50±0.80 96.48±0.50 94.93±0.63 96.72±0.78
6 96.67±0.94 96.25±0.75 98.04±0.87 98.02±0.89 97.85±0.90 97.78±0.58 97.35±0.46 98.08±0.80
8 98.00±0.87 98.00±0.88 99.08±0.55 99.17±0.51 99.06±0.64 98.38±0.34 98.22±0.62 99.17±0.43

耶鲁大学 2 73.21±4.23 71.60±4.68 77.53±4.36 77.53±4.36 77.04±4.39 77.65±4.53 76.54±3.59 78.52±4.16
3 82.92±1.56 80.69±1.11 85.97±1.44 86.39±1.95 85.97±1.44 85.56±2.51 85.14±2.91 86.81±1.93
4 85.87±2.12 81.75±2.98 88.41±2.37 88.89±2.23 88.57±2.17 87.78±2.65 87.94±2.93 89.37±2.37
5 90.74±3.95 88.33±4.65 92.04±2.57 92.41±2.37 92.22±2.43 88.89±1.57 88.89±6.29 92.96±2.78

IMM 2 63.54±2.76 60.00±1.58 66.67±2.67 66.77±2.54 66.67±2.52 66.15±2.66 65.83±2.19 66.88±2.40
3 69.72±2.34 63.89±2.15 73.06±2.34 73.61±3.48 72.50±2.47 73.33±3.21 72.08±2.09 73.61±3.15
4 74.38±4.24 68.96±5.09 77.08±3.42 78.33±3.59 77.08±3.68 77.08±2.92 75.83±3.23 78.54±3.57
5 82.92±4.01 81.67±4.08 85.00±2.24 85.42±3.68 84.58±2.92 83.33±3.42 83.33±3.42 86.25±3.45

PIE29 4 89.90±0.70 90.94±0.57 91.01±0.71 91.37±0.55 90.97±0.74 91.56±0.48 90.50±0.60 91.68±0.58
6 92.12±0.77 92.29±0.40 92.68±0.64 92.81±0.65 92.60±0.70 92.76±0.67 92.45±0.41 92.91±0.70
8 92.94±0.48 92.74±0.75 93.49±0.54 93.49±0.60 93.51±0.54 93.22±0.66 93.14±0.56 93.77±0.60
10 93.68±0.61 94.03±0.78 94.47±0.53 94.54±0.54 94.39±0.47 93.99±0.85 93.89±0.92 94.60±0.54


数据 l SRC 儿童权利公约 CCRC ProCRC EProCRC Co-CRC 短距离 DCCRC

车辆 10 56.382.00 62.11±3.27 60.02±3.60 60.07±3.62 60.02±3.62 53.55±4.14 57.94±2.21 63.03±3.44
11 57.03±1.13 64.56±1.77 63.22±1.69 63.24±1.69 63.22±1.69 54.34±7.00 61.22±4.23 65.01±2.70

汽车 10 70.54±2.24 73.02±2.09 73.47±1.66 73.67±1.93 73.68±1.90 69.18±5.38 70.02±2.86 73.89±1.59
14 73.80±4.06 75.28±3.03 75.66±3.14 75.63±3.18 75.62±3.17 71.16±7.51 74.16±4.13 75.93±3.60

信贷 8 61.25±5.80 67.98±2.44 68.72±1.04 68.55±0.84 68.55±0.82 59.91±5.39 62.85±6.82 69.50±3.05
10 64.90±4.28 68.78±1.12 69.25±2.19 69.31±2.02 69.22±2.01 61.88±3.92 63.82±6.59 72.42±2.79

7 66.88±4.79 77.58±6.10 87.13±3.17 88.41±2.64 72.10±3.67 62.80±3.62 76.56±6.17 89.81±2.06
8 70.52±5.39 82.8±1.93 89.22±4.17 90.00±3.00 77.79±3.96 66.88±7.01 80.91±6.17 91.04±2.57

6 58.76±5.69 61.94±5.16 64.65±2.89 64.42±2.77 64.42±2.77 61.24±2.2 63.64±8.63 67.13±4.04
8 63.54±4.11 70.87±3.32 71.42±2.65 71.42±2.65 71.42±2.65 69.53±5.49 66.14±4.40 73.23±2.83

SCredit 35 63.10±2.77 71.97±2.87 72.00±2.77 72.03±2.71 72.23±2.77 57.58±3.35 63.74±4.81 75.84±3.81
50 66.07±3.51 74.64±2.83 74.41±1.38 74.44±1.34 74.47±1.52 59.32±2.60 65.53±4.88 76.95±4.32

Isolet 21 71.41±3.02 71.38±1.48 69.83±0.94 69.47±1.10 69.47±1.10 66.36±2.69 72.89±2.39 73.19±2.50
26 78.10±1.70 79.22±2.02 77.80±2.20 77.53±2.29 77.55±2.32 75.81±3.01 79.50±2.27 79.88±2.28

Iono 15 83.49±4.25 88.66±3.88 87.54±3.50 87.35±3.39 87.35±3.43 82.06±3.84 81.99±3.18 89.72±4.29
20. 86.37±1.94 91.38±1.27 88.49±2.05 88.04±1.55 87.97±1.45 82.06±1.45 83.09±1.91 92.99±1.12

4.4。实验3

在本节中,我们进行实验IMM和耶鲁比较提出DCCRC竞争方法的情况下,测试样本的腐败。在实验中,这些数字l职业专用训练样本的预设 IMM和 在耶鲁大学,剩下的样品每个类被视为测试样品。和每个竞争方法的分类结果的识别精度平均十训练和测试部门的数据。此外,每个类的测试样本是随机被随机添加像素块阻塞和一只熊猫。也就是说,每个测试的像素腐败,一些像素图像取而代之的是随机不确定的灰度值在0到255之间,和每个测试的部分图像随机闭塞的熊猫。损坏的比例大小每个测试图像的原始大小从0.1到0.4步骤0.1。为例,测试和样品随机像素从一个类图所示5和随机遮挡如图6

IMM的竞争方法的分类结果和耶鲁不同比率见表的随机错误了5随机遮挡和表6对随机纠正像素。注意,最好的分类性能的所有方法中两个表是黑体字表示。两个表中列出,每个竞争方法的分类精度下降的比率的增加破坏每一个测试图像的大小。从这些实验结果,我们可以看到,该DCCRC几乎是所有中最强劲的竞争方法,因为它优于其他竞争的方法。因此,该方法具有有效性和鲁棒性的情况下数据和噪音。


数据 比率 SRC 儿童权利公约 CCRC ProCRC EProCRC Co-CRC 短距离 DCCRC

IMM 0.1 62.17±1.80 63.00±1.00 65.17±1.33 65.50±0.85 62.33±0.97 63.67±1.35 62.67±0.97 66.00±0.82
0.2 54.33±1.43 56.17±1.80 59.50±1.87 58.67±1.63 55.50±3.27 55.33±1.55 57.50±1.18 59.67±1.45
0.3 45.67±2.44 47.67±1.62 50.00±2.36 50.83±2.47 48.17±2.44 49.50±2.51 49.83±1.22 51.50±2.26
0.4 37.33±3.14 35.83±1.90 40.50±2.15 41.00±2.44 38.33±2.36 39.67±1.72 39.33±2.20 41.00±2.44

耶鲁大学 0.1 82.67±2.83 86.67±2.11 86.50±2.25 86.50±1.94 85.50±2.53 85.00±3.18 84.17±3.23 87.33±2.31
0.2 76.00±2.83 79.17±3.46 79.00±1.73 79.17±1.76 78.67±1.76 75.33±1.15 75.00±1.60 79.33±1.89
0.3 64.83±3.52 68.83±2.49 70.33±2.56 69.50±3.01 69.17±2.94 62.50±3.23 65.50±3.49 70.83±1.94
0.4 53.07±2.13 56.80±1.36 57.87±2.32 56.27±4.49 56.53±4.81 45.33±2.53 50.67±2.39 58.40±2.29


数据 比率 SRC 儿童权利公约 CCRC ProCRC EProCRC Co-CRC 短距离 DCCRC

IMM 0.1 65.17±1.11 64.67±0.67 65.33±1.55 65.67±1.86 63.17±2.32 62.17±2.39 63.50±1.11 66.00±2.07
0.2 58.67±1.35 59.33±1.33 58.17±1.22 58.17±1.22 57.33±1.33 53.00±1.63 57.17±0.85 59.67±1.80
0.3 51.33±1.35 52.17±1.55 49.33±1.62 49.67±1.80 48.67±2.27 43.33±2.74 48.172.07 53.17±3.00
0.4 40.50±3.64 40.50±3.10 39.83±2.26 40.00±2.11 39.83±2.66 32.50±2.04 32.17±3.60 40.83±2.30

耶鲁大学 0.1 87.73±2.29 89.87±1.81 90.67±1.69 90.67±1.69 89.33±1.89 90.93±1.96 89.87±2.17 90.93±1.96
0.2 83.47±1.81 85.87±1.36 86.93±1.31 87.47±1.07 85.07±1.00 86.13±1.81 86.40±1.77 88.00±1.19
0.3 79.73±4.25 80.27±2.59 83.73±2.72 83.20±2.61 79.73±1.96 83.20±2.87 83.20±3.44 84.53±2.32
0.4 69.07±2.44 74.67±2.23 75.73±1.55 74.67±2.53 70.13±3.22 72.00±1.19 76.00±1.89 76.27±1.55

5。结论

协作表示分类是一个典型的模式识别技术。进一步提高模式歧视协作表示,我们设计一个新的歧视,竞争力,和协作表示分类方法(DCCRC)在本文中。拟议中的DCCRC扩展了Co-CRC方法和主要设计区别的正规化的协作表示所有类的所有类和那些不包括任何一个类。该方法充分利用协作表示职业专用表示,可以有竞争力和有区别地提高职业专用表示良好的分类。一些脸上的广泛实验数据库和UCI数据集进行验证拟议中的DCCRC方法的有效性和鲁棒性。通过比较DCCRC与最先进的基础分类方法,提出DCCRC优于竞争方法。因此,提出DCCRC是一种有效的和健壮的模式识别分类器。在未来的工作中,我们将使用在所有竞争和协作的概念表示的类到其他类型的分类器。

数据可用性

UCI和面临数据用于我们的文章来支持本研究的发现已经存入相应的公共存储库。作者考虑到网站,可以下载使用的数据。

的利益冲突

所有作者声明没有关于这篇文章的出版的利益冲突。

确认

这项工作是支持部分由中国国家自然科学基金(批准号。61976107,61976107,61502208),中国江苏省自然科学基金(批准号。BK20150522和BK20170558),国际博士后交流中国博士后奖学金计划委员会(没有。20180051),江苏大学的有才华的学者研究基金会(批准号14 jdg037),中国博士后科学基金(批准号2015 m570411),开放的人工智能的基础四川省重点实验室(批准号2017 ryj04),贵州省自然科学基金([2017][2017]1130号5726 - 32),中国宁夏自然科学基金(没有。2019 aac03122),北方民族大学的关键科学研究项目(没有。2019 kj43)。

引用

  1. j·赖特,a, y, a . Ganesh s Sastry,和y妈,“基于稀疏表示的人脸识别,”IEEE模式分析与机器智能没有,卷。31日。2、210 - 227年,2009页。视图:出版商的网站|谷歌学术搜索
  2. l, m·杨,x,“稀疏表示或协作表示:这有助于人脸识别?“在《计算机视觉国际会议,页471 - 478,东京,日本,2011年5月。视图:谷歌学术搜索
  3. y . Chen n·m·Nasrabadi t . d . Tran et al .,“使用基于字典的稀疏表示的高光谱图像分类,”IEEE地球科学和遥感卷,49号10日,3973 - 3985年,2011页。视图:出版商的网站|谷歌学术搜索
  4. w·李,j·刘,Du,“稀疏低秩图判别分析的高光谱图像,”IEEE地球科学和遥感,54卷,不。7,4094 - 4105年,2016页。视图:出版商的网站|谷歌学术搜索
  5. 方b .涂黄,l . et al .,“高光谱图像分类通过加权联合最近邻和稀疏表示,“IEEE选择杂志的主题应用地球观测和遥感,11卷,不。11日,第4075 - 4063页,2018年。视图:出版商的网站|谷歌学术搜索
  6. j .郭台铭侯,w·欧,毛问:,h·杨和y . Liu”几个健壮的扩展协作表示的图像分类,“Neurocomputing卷,348年,第133 - 120页,2019年。视图:出版商的网站|谷歌学术搜索
  7. j . x Peng, s .肖W.-Y。瑶族,j·t·周和s .杨“结构化autoencoders子空间聚类,IEEE图像处理,27卷,不。10日,5076 - 5086年,2018页。视图:出版商的网站|谷歌学术搜索
  8. c, n . Chen j·t·彭et al .,“最近的正规化联合稀疏表示的高光谱图像分类,“IEEE地球科学和遥感信,13卷,不。3、424 - 428年,2016页。视图:谷歌学术搜索
  9. y s, w . Wang Yan, l . Bruzzone来说字典学习的高光谱图像分类,“Neurocomputing卷,220年,第129 - 121页,2017年。视图:出版商的网站|谷歌学术搜索
  10. w·李、杜问:“拉普拉斯算子的正则化协作图判别分析的高光谱图像,”IEEE地球科学和遥感,54卷,不。12日,第7076 - 7066页,2016年。视图:出版商的网站|谷歌学术搜索
  11. y, z, j·杨,d,“字典学习算法对人脸识别的调查,“IEEE访问5卷,第8514 - 8502页,2017年。视图:出版商的网站|谷歌学术搜索
  12. t, b . Zhang, y y . Tang“稀疏表示分类器失控和不平衡分类监管,”IEEE神经网络和学习系统,2018年,页1 - 10。视图:出版商的网站|谷歌学术搜索
  13. m, l .张x冯,d,“基于稀疏表示的费舍尔歧视字典学习的图像分类,“国际计算机视觉杂志》上,卷109,不。3、209 - 232年,2014页。视图:出版商的网站|谷歌学术搜索
  14. w·邓、j·胡和j .郭”扩展的SRC: undersampled人脸识别通过组内变异字典,”IEEE模式分析与机器智能,34卷,不。9日,第1870 - 1864页,2012年。视图:出版商的网站|谷歌学术搜索
  15. z赵、g·冯·l·张,j .朱问:沈,“小说基于正交协作字典学习高效的人脸识别,”以知识为基础的系统卷,163年,第545 - 533页,2019年。视图:出版商的网站|谷歌学术搜索
  16. j . x Peng, z, r .严,“自动通过主要系数嵌入子空间学习,”IEEE控制论卷,47号11日,第3596 - 3583页,2016年。视图:出版商的网站|谷歌学术搜索
  17. z . j .郭台铭l . Wang Yi, j . Lv问:毛,中州。元,“一个新的歧视协作邻居表示的人脸识别方法,”IEEE访问》第六卷,第74727 - 74713页,2018年。视图:出版商的网站|谷歌学术搜索
  18. w·邓、j·胡和j .郭”人脸识别通过协作表示:其判别性质和叠加表示,“IEEE模式分析与机器智能,40卷,不。10日,2513 - 2521年,2017页。视图:出版商的网站|谷歌学术搜索
  19. 美国曾庆红,j .郭台铭和l .邓小平,“抗噪音的通过联合稀疏表示的人脸识别方法l1l2正则化”,专家系统与应用程序卷,82 - 2017页。视图:出版商的网站|谷歌学术搜索
  20. z, y, j·杨,李x和d·张,“稀疏表示的调查:算法和应用,“IEEE访问,3卷,第530 - 490页,2015年。视图:出版商的网站|谷歌学术搜索
  21. c . x Peng陆、z易和h . Tang”nuclear-norm之间的连接和frobenius-norm-based表示,“IEEE神经网络和学习系统卷,29号1,第224 - 218页,2016。视图:出版商的网站|谷歌学术搜索
  22. Cai, l . Zhang w .左et al .,“基于概率协作表示为模式分类方法,”IEEE会议程序计算机视觉和模式拉斯维加斯,页2950 - 2959年,NV,美国,2016年6月。视图:谷歌学术搜索
  23. j .徐,w、l . Zhang和d,“稀疏的、协作的、或负的表示:这有助于模式分类?”模式识别卷,88年,第688 - 679页,2019年。视图:出版商的网站|谷歌学术搜索
  24. g .谢z . Liu, l·张,j .聚氨酯“融合线性表示分类,”软计算,23卷,不。6,1891 - 1899年,2019页。视图:出版商的网站|谷歌学术搜索
  25. t . s . l . y . Peng Li Liu Lei, j . Wu,“一个新的虚拟samples-based CRC的人脸识别的方法,”神经处理信件,48卷,不。1,第327 - 313页,2018。视图:出版商的网站|谷歌学术搜索
  26. y Chi和f . Porikli分类和促进与多个协作表示,“IEEE模式分析与机器智能,36卷,不。8,1519 - 1531年,2013页。视图:出版商的网站|谷歌学术搜索
  27. r . Timofte和l . Van干傻事,”自适应图像分类和加权协作表示,“模式识别的字母,43卷,第135 - 127页,2014年。视图:出版商的网站|谷歌学术搜索
  28. 彭x l . Zhang z,彝族,k . k . Tan“学习”locality-constrained协作表示的人脸识别,模式识别卷,47号9日,第2806 - 2794页,2014年。视图:出版商的网站|谷歌学术搜索
  29. x, h .张朱l . et al .,“加权本地化合作表示基于稀疏的子空间,“杂志的视觉传达和图像表示58卷,第194 - 187页,2019年。视图:出版商的网站|谷歌学术搜索
  30. y, d, j·杨,j . y .杨”两阶段测试样本稀疏表示方法用于人脸识别,”IEEE电路和系统视频技术,21卷,不。9日,第1262 - 1255页,2011年。视图:出版商的网站|谷歌学术搜索
  31. z . Liu j . Pu、m .徐和y秋”人脸识别通过加权两阶段测试样本稀疏表示,“神经处理信件第41卷。。1,利润率达到,2015页。视图:出版商的网站|谷歌学术搜索
  32. j .郭台铭y, d,毛问:,l·杜詹y,“两阶段线性重建控制为人脸识别分类,“信息科学卷,433 - 434年17-36,2018页。视图:出版商的网站|谷歌学术搜索
  33. b . j .郭台铭l . Wang, j . Lv y元,毛问:,“两阶段协作表示概率分类,”专家系统与应用程序卷。133年,9-20,2019页。视图:出版商的网站|谷歌学术搜索
  34. n .说明f . Shafait, a .面有效的分类与稀疏增强协作表示,“模式识别卷,65年,第145 - 136页,2017年。视图:出版商的网站|谷歌学术搜索
  35. 吴x z . Liu j ., z,“稀疏增强区别的稀疏表示人脸识别,”模式分析与应用,22卷,不。4、1527 - 1535年,2019页。视图:出版商的网站|谷歌学术搜索
  36. y . e . Traboulsi f . Dornaika y Ruichek et al .,“Semi-supervised两个阶段测试样本稀疏表示分类器”,以知识为基础的系统卷。160年,16-27,2018页。视图:出版商的网站|谷歌学术搜索
  37. 美国曾、杨x和j .郭台铭“乘法融合的人脸识别的稀疏和协作表示,“多媒体工具和应用程序,卷76,不。20日,第20907 - 20889页,2017年。视图:出版商的网站|谷歌学术搜索
  38. 美国曾庆红,j .郭台铭,杨x”提高稀疏系数的健壮的稀疏和协作表示图像分类,“神经计算和应用,30卷,不。10日,2965 - 2978年,2018页。视图:出版商的网站|谷歌学术搜索
  39. j .郭台铭w .秋z, y,毛问:,詹和y”,一个当地的意思表示K最近的邻居分类器”,ACM智能交易系统和技术(TIST),10卷,不。3、2019年p。29日。视图:出版商的网站|谷歌学术搜索
  40. j·h·马j .郭台铭x Wang柯,和美国曾稀疏系数K最近的邻居分类。”IEEE访问5卷,第16634 - 16618页,2017年。视图:出版商的网站|谷歌学术搜索
  41. j .郭台铭w .秋z,沈x, y詹,和w·欧”局部性约束表示K最近的邻居分类。”以知识为基础的系统卷。167年,38-52,2019页。视图:出版商的网站|谷歌学术搜索
  42. r . s .局域网和y . c .周”,一个扩展的概率协作表示分类器为基础的影像分类,”学报2017年IEEE国际会议多媒体和世博会(ICME),页1392 - 1397,香港,中国,2017年7月。视图:谷歌学术搜索
  43. r . s .局域网y, z . Liu和x罗,“先验知识视觉识别概率协作表示,“IEEE控制论,1 - 11,2018页。视图:谷歌学术搜索
  44. y, z中,j·杨,j .你和d·张,”一个新的歧视通过稀疏表示的人脸识别方法l2正则化”,IEEE神经网络和学习系统,28卷,不。10日,2233 - 2242年,2017页。视图:出版商的网站|谷歌学术搜索
  45. j .郭台铭侯,y元,w•欧,美国曾通过新的歧视协作表示分类方法l2合法化。”神经计算和应用,2019年1 - 15页。视图:出版商的网站|谷歌学术搜索
  46. h .元,x, f . Xu y . Wang l . l .赖和y y唐,“基于collaborative-competitive表示的分类器模型,Neurocomputing卷,275年,第635 - 627页,2018年。视图:出版商的网站|谷歌学术搜索
  47. h . Chi, h·夏,l, c,和x唐,“竞争和协作表示分类,”模式识别的字母, 2018年。视图:出版商的网站|谷歌学术搜索

版权©2019建平郭台铭等。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点471年
下载653年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读