应用计算智能和软计算

PDF
应用计算智能和软计算/2016年/文章
特殊的问题

机器学习和视觉计算

把这个特殊的问题

研究文章|开放获取

体积 2016年 |文章的ID 2783568 | https://doi.org/10.1155/2016/2783568

戴Baokai祖茂堂科文夏,年代,Nelofar Aslam, 基于低秩的Semisupervised判别分析”,应用计算智能和软计算, 卷。2016年, 文章的ID2783568, 9 页面, 2016年 https://doi.org/10.1155/2016/2783568

基于低秩的Semisupervised判别分析

学术编辑器:于曹
收到了 2016年4月16日
接受 2016年6月14日
发表 2016年7月20日

文摘

Semisupervised判别分析(SDA)旨在降维与标记数据和大量的未标记数据有限,但它可能无法发现的内在几何结构当数据流形是高度非线性的。内核技巧被广泛用于映射原非线性可分问题的内在更大的维度空间类是线性可分的。灵感来自低秩表示(LLR),我们提出了一个新的内核SDA方法基于低秩的SDA (LRKSDA)算法的远程雷达用作内核表示。因为远程雷达可以捕获全局数据结构并获得最低的等级表示parameter-free,低级内核方法非常有效且健壮的类型的数据。广泛的公共数据库实验表明,该LRKSDA降维算法可以实现更好的性能比其他相关内核SDA方法。

1。介绍

对于许多现实世界的数据挖掘和模式识别应用,带安全标签的数据时非常昂贵的或很难获得,而无标号数据通常是丰富的和可用的。所以如何使用标记和未标记数据提高性能成为一个重要的问题1,2]。最近,semisupervised降维已经吸引了相当大的关注,可以直接用于整个数据库(3]。被semisupervised学习(SSL),提出了很多方法来缓解所谓的小样本大小(SSS) LDA的问题(4,5]。Semisupervised判别分析(SDA)首先是提出了Cai et al。2[],它可以很容易地解决样本外的问题6),更适合现实世界的应用。在SDA算法,标签样本用于最大化不同类别的可分性和无标号的估计数据的内在几何信息。

Semisupervised判别分析可能无法发现的内在几何结构当数据流形是高度非线性2,7]。内核技巧(8)已被广泛用于推广线性降维算法非线性的映射原非线性可分问题的内在更大的维度空间类是线性可分的。所以内核SDA (KSDA) (2,7)可以发现潜在的子空间特征空间更确切的说,这带来了一个更好的非线性子空间分类任务的学习技术。蔡等人讨论如何执行SDA在再生核希尔伯特空间再生核希尔伯特空间理论(),这导致内核SDA [2]。你等人提出了第一种方法的派生一个内核的优化参数。它可以映射原类分布空间,这些都是最优(关于贝叶斯)分离超平面(7]。提出了一种新的基于非线性判别分析算法来解决的根本局限性LDA (9]。小说KFDA内核参数优化准则提出了最大化的一致性class-pair分离性和类可分性同时在内核空间中(10]。克服非线性降维问题,采用多个LFDA的特性限制,小王和太阳提出了一种新的降维算法称为多个内核当地Fisher判别分析(MKLFDA)基于多个内核学习(11]。kernelization的图嵌入内核技巧适用于线性图嵌入算法处理数据的非线性分布(12]。温伯格等人描述了一种基于半定规划的非线性降维算法和内核矩阵分解学习内核为高维数据矩阵,位于或接近一个低维流形13]。

低秩矩阵分解和完成自杨等人最近变得非常受欢迎,陈等人证明的稳健估计底层分解得到的子空间,可以观察到一个低秩矩阵和稀疏误差矩阵(14,15]。最近,刘等人提出一个低秩表示方法是健壮的噪声和数据腐败由于其能力分解噪音从数据集14]。最近,低秩表示(16,17),是一种很有前途的方法来捕捉数据的潜在的低维结构,吸引了大量关注的模式分析和信号处理的社区。远程雷达方法(16- - - - - -18]寻求共同的最低等级表示所有数据,这样每一个数据点都可以表示为一个线性组合的基地。

内核方法的主要问题是找到适当的内核参数。但所有这些内核方法通常使用固定的全局参数确定内核矩阵,这是非常敏感的参数设置。事实上,最合适的内核参数可能差异很大,不同的随机分布的相同的数据。此外,内核映射KSDA总是分析的关系数据使用one-to-others模式,强调局部信息和缺乏全局约束他们的解决方案。这些缺点限制KSDA方法的性能和效率。为了克服传统的内核方法的缺点,灵感来自远程雷达,我们提出一种新颖的基于Semisupervised判别分析基于低秩的SDA (LRKSDA)低秩表示作为内核的方法。与其他内核相比,低秩内核共同获得代表全球低秩约束下的所有的样品(19]。因此,善于捕捉全球数据结构和非常健壮的不同随机分布的数据集。此外,我们可以得到最低的等级表示parameter-free的方式,这是非常方便和健壮的类型的数据。广泛的公共数据库上进行的实验表明我们提出LRKSDA降维算法可以实现更好的性能比其他相关方法。

剩下的纸是组织如下。我们首先简要回顾在SDA的概述部分2。然后介绍了基于低秩的SDA框架部分3。然后一节4报告实验结果在现实世界中数据库的任务。节5,我们的结论。

2。SDA的概述

给定一组样品 ,在那里 ,第一个 样品贴上 ,剩下的 没有标记的。他们都属于 类。SDA [2)希望能找到一个拒绝矩阵 之前,它激励我们的假设的一致性规范术语。目标函数如下: 在哪里 类散射和总类之间的散射矩阵。和 内部类被定义为散射矩阵 在哪里 总样本的均值向量, 样品的数量吗 th类, 的平均向量 th类, th的样本 类。

的参数 在(1)平衡模型复杂性和经验损失。调整项向美国提供的灵活性结合先验知识的应用。我们的目标是在建设 通过可用的标记样本图结合流形结构(2]。SSL算法的关键是事先假设的一致性。对于分类来说,这意味着附近的样品可能会有相同的标签20.]。降维,这其中牵扯到的附近的样品也有类似的嵌入低维表示。

给定一组样品 ,我们可以构造图 代表附近的样品之间的关系 神经网络算法。然后把之间的边缘 最近的邻居。相应的权重矩阵 定义如下: 在哪里 表示的集合 最近的邻居的 。然后 词可以定义如下: 在哪里 是一个对角矩阵的条目列(或行自 是对称的)的总和 ;也就是说, 。拉普拉斯算子矩阵(21)是

我们可以得到的目标函数与规范术语SDA (2]: 通过最大化的广义特征值问题,我们可以得到射影向量 :

3所示。基于低秩SDA框架

3.1。低秩表示

燕和王22]提出的稀疏表示(SR)构造 图(23)通过求解 优化问题。然而, 图缺乏全局约束,这大大降低了性能数据时严重损坏。为了解决这个缺点,刘等人提出了低秩表示和用它来构造的一个无向图上的相似之处(这里称为LR-graph) (19]。都共同获得的代表性样品在全球低秩约束,因此最好是在捕获全局数据结构(24]。

是一组样本;每一列是一个示例,可以表示为一个线性组合的字典 (19]。在这里,我们选择样本本身 随着字典 : 在哪里 系数矩阵每个吗 系数是表示 。不同于老,不可能抓住全球的数据结构,远程雷达寻求最低等级的解决方案通过解决以下优化问题(19]: 上述优化问题可以放松以下凸优化(25]: 在这里 表示核规范(或跟踪规范)(26的一个矩阵,矩阵的奇异值的总和。通过考虑噪声或腐败在我们现实世界的应用程序中,一个更合理的目标函数 在哪里 可以 规范或 规范。在本文中,我们选择 被定义为规范作为误差项 。的参数 是用来平衡低等级和误差项的影响。最优解 可以通过不精确的增广拉格朗日乘数方法(27,28]。

3.2。内核SDA

Semisupervised判别分析可能无法发现的内在几何结构当数据流形是高度非线性的。内核的技巧是一个受欢迎的机器学习技术在使用核函数将样本映射到一个高维空间(8,29日,30.]。通过使用内核的技巧,我们可以非线性原始数据映射到内核功能空间。

是一个非线性映射 特征空间。对于任何两个点 中,我们使用一个内核函数 将数据映射到内核的功能空间。一些常用的内核是包括高斯径向基函数(RBF)的内核 ,多项式的内核 和乙状结肠内核 (2,31日]。

表示内核空间中的数据矩阵: 。射影向量 特征向量的问题(6),然后我们得到 变换矩阵 。的数量特征维度 可以由我们决定。然后可以嵌入到数据点 维的特征空间, 在哪里

内核SDA (KSDA) (2,7)可以发现底层特征空间的子空间更准确。它导致一个更好的非线性子空间分类任务的学习技术。

3.3。基于低秩SDA

所有这些内核方法的主要问题是找到适当的内核参数。他们通常使用固定的全局参数确定内核矩阵,这是非常敏感的参数设置。事实上,最适当的内核参数可能在不同的随机分布差异很大,即使他们对相同的数据。此外,传统的内核映射总是分析使用模式one-to-others数据的关系,强调局部信息和缺乏全局约束他们的解决方案。这些缺点限制KSDA方法的性能和效率。要克服这些缺点上面所提到的,灵感来自低秩表示,我们提出一种新颖的基于Semisupervised判别分析(LRKSDA)远程雷达用作内核表示。

是一个低秩的映射 低秩内核功能空间 。为数据库 ,一个合理的目标函数如下: 最优解 系数矩阵每个吗 低秩表示系数

表示内核空间的数据矩阵。射影向量 特征向量的问题(6), 变换矩阵是 。的数量特征维度 可以由我们决定。然后可以嵌入到数据点 维的特征空间, 在哪里 的低秩表示吗

以来的低秩表示共同获得表示所有的样品在全球低秩约束捕捉全球数据结构,我们可以得到最低的等级表示parameter-free的方式,这是非常方便的和健壮的类型的数据。所以基于低秩的SDA算法可以很大程度上提高性能。LRKSDA的步骤如下。

首先,标记和未标记数据映射到LR-graph内核空间。其次,执行SDA降维算法。最后执行的最后分类的最近邻方法派生的低维特征子空间。低秩基于SDA的过程描述如下。

算法1(基于低秩的SDA算法)。输入。整个数据集 ,在那里 样品标签和 没有标记的。
输出。分类的结果。
步骤1。地图标记和未标记数据 特征空间的远程雷达算法: 步骤2。实现SDA降维算法。
步骤3。执行的最近邻方法最终分类。

4所示。实验和分析

在本节中,我们进行广泛的实验研究基于低秩的SDA算法的效率。仿真实验进行MATLAB7.11.0 (R2010b)环境在电脑上与AMD Phenom II (tn) P960 1.79 GHz CPU和2 GB RAM。

4.1。实验概述
以下4.4.1。数据库

拟议中的LRKSDA真实世界测试6数据库,包括三个脸数据库和三个加州大学欧文(UCI)数据库。在这些实验中,我们正常的样本单位规范。

(1)扩展耶鲁面对数据库B (2]。这个数据库已经38个人和大约64附近额图像在不同的灯饰/个人。每个面图像的大小为32 32像素。我们选择第一个20人,选择20样品的每个主题。

(2)ORL数据库(22]。ORL数据库包含10个不同的图像每40截然不同的主题。图像在不同的时间,不同的照明,面部表情,面部细节。每个面图像是手工裁剪和调整大小以32 32像素,每像素256灰色的水平。

(3)中央派面对数据库(2]。它包含68例41368脸图像。面对捕获图像在不同姿势下,灯饰,表达式。每个图像的大小调整大小以32 32像素。我们选择第一个20人,选择20个样本/主题。

(4)麝香(版本2)数据集2。这个数据库包含166类和6598个实例特性。在这里,我们随机选择300例的实验。

(5)种子数据集。它包含210个实例对三种不同的小麦品种。软x射线技术包和谷物被用来构建所有7、实值属性。

(6)SPECT心脏数据集。数据库描述诊断心脏单光子发射计算机断层扫描(SPECT)的图像。每个病人分为两类:正常和不正常的。267 SPECT图像集的数据库处理来提取特征,总结原始SPECT图像。模式进一步处理获得22二进制特征模式。

4.1.2。算法相比

为了演示semisupervised可以提高降维性能低秩基于SDA,我们列出SDA KSDA1, KSDA2算法进行比较。在所有的实验中,最近的邻居的数量 神经网络调整图设置为4。

(1)KSDA1算法。KSDA1算法的KSDA高斯径向基函数(RBF)的内核

(2)KSDA2算法。KSDA2算法是KSDA使用多项式核 。在这里,

由内核参数分类精度的影响。所以比较后,我们选择一个合适的内核参数 KSDA1和KSDA2算法在以下对每个数据库,分别 是耶鲁面对数据库B,长 ORL数据库, 是中央派数据库, 是麝香数据库, 种子数据集, 分别对SPECT心脏数据集。以来最合适的内核参数在不同的随机分布差异很大,即使他们是同样的数据,这些内核参数相对合适的多次比较之后的运行。

4.2。实验1:不同的算法性能

检查该LRKSDA算法的有效性,我们六个公共数据库上进行实验。在我们的实验中,我们随机选择样本每个类30%作为标记样本评估性能和不同数量的选择功能。评估是为每个算法进行了20个独立运行。我们平均作为最终结果。首先我们利用不同内核的方法来获得内核映射,然后我们实现SDA降维算法。最后,最近邻方法是用于最后的派生的低维特征子空间分类。对于每个数据库,不同算法的分类精度图所示1。表1显示了不同算法的性能比较。请注意,所有这些不同的结果是最好的结果选择上面提到的特性。从这些结果,我们可以观察到以下。


耶鲁B ORL 麝香 种子 SPECT的心

LRKSDA 0.825769 0.815 0.578243 0.836667 0.90625 0.778378
KSDA1 0.691392 0.693025 0.541478 0.756849 0.825 0.683333
KSDA2 0.723549 0.681576 0.534542 0.755128 0.709814 0.694154
SDA 0.668397 0.687692 0.527715 0.757407 0.819122 0.69857

在大多数情况下,我们提出了基于低秩的SDA算法始终达到最高的分类精度比其他算法。LRKSDA达到最佳性能,当维数大于一定低维度。和分类精度远高于其他内核SDA算法。所以提高分类的性能在很大程度上,这表明煤内核更有意义和适合SDA算法。

因为适当的内核参数是最重要的这些传统算法和自KSDA1和KSDA2算法的内核参数是固定的全局参数,这两种算法对不同的数据非常敏感相同或不同的随机分布的数据。这些KSDA方法的性能改善不明显。更严重的是,由于随机选择的标签样本,随机分布在每次运行可能不适应所谓的合理内核参数KSDA1和KSDA2算法。此外,传统的内核映射总是分析使用模式one-to-others数据的关系,强调局部信息和缺乏全局约束他们的解决方案。这种情况可能会导致不好的性能在某些情况下,在低秩表示善于捕捉全球数据结构。我们可以得到最低等级表示parameter-free方式,这是非常方便和健壮的类型的数据。所以基于低秩的SDA分离不同类型很好与其他内核SDA。它可以提高性能在很大程度上,这意味着我们提出低秩内核方法是非常有效的。

4.3。实验2:标签数量的影响

我们评估影响标签的数量在这部分。进行的实验是为每个算法与20个独立运行。我们平均作为最终结果。实验1的过程是相同的。对于每个数据库,我们不同的标记样本的比例从10%降至50%,识别精度如表所示23,我们观察以下。


数据库
算法 标签样本的百分比
10% 20% 30% 40% 50%

耶鲁B LRKSDA 0.711471 0.792667 0.825769 0.848636 0.877778
耶鲁B KSDA1 0.316113 0.536868 0.691392 0.807183 0.856101
耶鲁B KSDA2 0.33994 0.569484 0.723549 0.819317 0.877637
耶鲁B SDA 0.325919 0.560259 0.668397 0.815348 0.855167
ORL LRKSDA 0.615556 0.728125 0.815 0.873333 0.9
ORL KSDA1 0.172412 0.448653 0.693167 0.868578 0.937414
ORL KSDA2 0.172454 0.454899 0.681576 0.851755 0.930487
ORL SDA 0.173478 0.442731 0.687692 0.877294 0.948035
LRKSDA 0.29 0.46 0.578243 0.701044 0.82734
KSDA1 0.195252 0.371027 0.541478 0.711166 0.827522
KSDA2 0.195345 0.37646 0.543015 0.712033 0.825519
SDA 0.195707 0.387806 0.527715 0.725264 0.82658


数据库
算法 标签样本的百分比
10% 20% 30% 40% 50%

麝香 LRKSDA 0.767778 0.827083 0.838095 0.838889 0.895125
麝香 KSDA1 0.356299 0.592578 0.756849 0.83253 0.883174
麝香 KSDA2 0.418741 0.607271 0.755128 0.817146 0.888439
麝香 SDA 0.352444 0.611676 0.757407 0.840006 0.894315
种子 LRKSDA 0.890323 0.893333 0.90625 0.90813 0.929608
种子 KSDA1 0.46676 0.654862 0.825 0.874946 0.914757
种子 KSDA2 0.410025 0.609322 0.709814 0.845034 0.890559
种子 SDA 0.503879 0.725435 0.819122 0.872932 0.929595
SPECT的心 LRKSDA 0.778992 0.778378 0.776216 0.78038 0.826076
SPECT的心 KSDA1 0.404513 0.622916 0.683333 0.786381 0.85786
SPECT的心 KSDA2 0.398401 0.608538 0.702989 0.77983 0.869786
SPECT的心 SDA 0.364647 0.556669 0.69857 0.759696 0.818995

在大多数情况下,我们提出了基于低秩的SDA算法始终达到最好的结果,这是健壮的标签百分比变化。虽然相比其他算法不一样健壮我们的LRKSDA算法,我们可以看到,分类精度是非常可怕的,当标签率很低。因此,我们提出的方法比传统的优势KSDA和SDA算法。有时,这些传统的方法可以实现良好的性能在某些数据库与速率足够高的标签。但他们并不像我们一样稳定算法。由于带安全标签的数据时非常昂贵和困难,我们的算法是健壮的和适合真正的数据。

部分在前面已经提到,由于矩阵低秩内核方法内核parameter-free,健壮的不同类型的数据,而对于传统的内核像高斯径向基函数内核和多项式内核,如果数据的结构不适合他们使用的稳定的内核参数,他们不能获得良好的原始数据集表示。因此,低级内核方法更稳定的我们使用的数据集。和低秩表示共同获得的代表所有的样品在全球低秩约束,它可以捕获全局数据结构。所以它是健壮的标签百分比变化即使标签率很低。

4.4。实验3:不同类型噪声鲁棒性

在这个测试我们比较不同算法的性能在嘈杂的环境中。扩展耶鲁面对数据库B和麝香数据库中随机选择这个实验。高斯白噪声,“盐和胡椒”噪音,和乘法噪声分别添加到数据。高斯白噪声均值为0,方差不同从0到0.1。“椒盐”噪声添加到图像具有不同噪声密度从0到0.1。和乘法噪声添加到数据 使用方程 ,在那里 原始和噪声数据和吗 均匀分布随机噪声平均值为0和不同方差从0到0.1。标签样本的数量在每个类是30%。每个算法的实验进行了20分。我们平均作为最终结果。实验1的过程是相同的。对于每一个图,我们改变参数不同的噪音。结果如表所示45


噪声类型
算法 方差或密度的三个声音
0 0.02 0.04 0.06 0.08 0.1

高斯 LRKSDA 0.825769 0.816429 0.814286 0.807857 0.808214 0.807143
高斯 KSDA1 0.691392 0.555408 0.565422 0.562556 0.574249 0.579816
高斯 KSDA2 0.723549 0.585366 0.597015 0.602456 0.590576 0.59866
高斯 SDA 0.668397 0.543879 0.540266 0.542199 0.541947 0.543264
“盐和胡椒” LRKSDA 0.825769 0.794643 0.7675 0.711786 0.643929 0.599286
“盐和胡椒” KSDA1 0.691392 0.56888 0.509246 0.474557 0.450803 0.436003
“盐和胡椒” KSDA2 0.723549 0.59498 0.522505 0.478096 0.446308 0.43581
“盐和胡椒” SDA 0.668397 0.553305 0.498777 0.468533 0.452681 0.429647
乘法 LRKSDA 0.825769 0.825357 0.821429 0.82 0.814286 0.793929
乘法 KSDA1 0.691392 0.631297 0.619849 0.594597 0.584588 0.576168
乘法 KSDA2 0.723549 0.641188 0.622062 0.616446 0.594529 0.594516
乘法 SDA 0.668397 0.594035 0.588897 0.58513 0.582225 0.556328


噪声类型
算法 方差或密度的三个声音
0 0.02 0.04 0.06 0.08 0.1

高斯 LRKSDA 0.838095 0.783333 0.810476 0.795238 0.789524 0.777619
高斯 KSDA1 0.756849 0.689112 0.705138 0.702206 0.699312 0.710083
高斯 KSDA2 0.755128 0.705054 0.695936 0.697523 0.695125 0.70306
高斯 SDA 0.757407 0.713289 0.699202 0.714286 0.676558 0.681785
“盐和胡椒” LRKSDA 0.838095 0.785238 0.771429 0.772143 0.766429 0.761905
“盐和胡椒” KSDA1 0.756849 0.683009 0.667079 0.656237 0.66388 0.653854
“盐和胡椒” KSDA2 0.755128 0.705003 0.664427 0.658723 0.656934 0.652174
“盐和胡椒” SDA 0.757407 0.70503 0.697131 0.681818 0.678207 0.666734
乘法 LRKSDA 0.838095 0.832381 0.827143 0.809524 0.793333 0.784286
乘法 KSDA1 0.756849 0.733777 0.723228 0.71144 0.716774 0.71115
乘法 KSDA2 0.755128 0.737889 0.716812 0.710216 0.701506 0.68323
乘法 SDA 0.757407 0.749432 0.738486 0.726044 0.703764 0.68799

正如我们所看到的,我们提出了基于低秩的SDA算法总是达到最好的结果,这意味着我们的方法是稳定的高斯噪声,“盐和胡椒”噪音,和乘法噪声。因为低秩表示噪声的鲁棒性,我们的方法LRKSDA比其他算法更健壮。与不同种类的逐渐增加噪声,传统的KSDA和SDA算法性能下降很多,而我们的方法的性能是健壮的这三个声音和滴。

注意,噪音比原始数据从其他不同的模型的子空间。远程雷达可以解决低秩表示问题。当数据被任意错误,远程雷达还可以约恢复原始数据和理论保证。换句话说,远程雷达是健壮的一个有效途径。因此,我们的方法比其他算法更健壮与上面提到的三种声音。

5。结论

在本文中,我们提出一种新颖的基于低秩的SDA (LRKSDA)算法,这在很大程度上提高了性能KSDA SDA。由于低秩表示是善于捕捉全局数据结构,LRKSDA算法分离不同类型很好与其他内核SDA。因此,我们提出低秩内核方法是非常有效的。实证研究在现实世界6数据库显示,我们提出基于低秩的SDA更健壮和适合真正的应用程序。

信息披露

当前所属Baokai祖茂堂计算机科学系,伍斯特理工学院伍斯特,马01609,美国。

相互竞争的利益

作者宣称没有利益冲突。

确认

这项工作是由中国国家自然科学基金(没有。51208168)、天津(没有自然科学基础。13 jcybjc37700)、河北省自然科学基金(没有。E2016202341)、河北省自然科学基金(没有。F2013202254也没有。F2013202102),河北省学者(没有返回的基础。C2012003038)。

引用

  1. d . Zhang z h .周,陈,Semi-Supervised降维长效磺胺,明尼阿波利斯,明尼苏达州,美国,2007年。
  2. d . Cai, x, j .汉“Semi-supervised判别分析,”《IEEE 11计算机视觉国际会议(ICCV ' 07),页1 - 7,里约热内卢,巴西,2007年10月。视图:出版商的网站|谷歌学术搜索
  3. y张和D.-Y。杨,”Semi-supervised判别分析使用健壮的基于路径相似,”学报》第26届IEEE计算机视觉与模式识别会议(CVPR ' 08)安克雷奇,页1 - 8,阿拉斯加,美国,2008年6月。视图:出版商的网站|谷歌学术搜索
  4. m . Sugiyama t . Ide、美国及其和j .涩涩,“Semi-supervised当地Fisher判别分析降维,”机器学习,卷78,不。1 - 2日,35 - 61年,2010页。视图:出版商的网站|谷歌学术搜索|MathSciNet
  5. y的歌,f·聂,c . Zhang和美国,“一个统一框架semi-supervised降维,”模式识别第41卷。。9日,第2799 - 2789页,2008年。视图:出版商的网站|谷歌学术搜索
  6. y Bengio, j . f . Paiement p·文森特et al .,”米歇尔样本外扩展,isomap, MDS, eigenmaps,和谱聚类”神经信息处理系统的进步16,页177 - 184年,麻省理工学院出版社,2004年。视图:谷歌学术搜索
  7. d你,o . c . Hamsici, a . m .马丁内斯内核优化判别分析,“IEEE模式分析与机器智能,33卷,不。3、631 - 638年,2011页。视图:出版商的网站|谷歌学术搜索
  8. K.-R。穆勒,米卡,g . Ratsch k .津田和b . Scholkopf”介绍基于学习算法”,IEEE神经网络,12卷,不。2、181 - 201年,2001页。视图:出版商的网站|谷歌学术搜索
  9. W.-J。曾,X.-L。李,X.-D。张,e . Cheng“基于非线性判别分析对多级使用最小平方误差准则和undersampled问题,“信号处理,卷90,不。8,2333 - 2343年,2010页。视图:出版商的网站|谷歌学术搜索
  10. f . j . Liu赵,刘y”学习内核参数内核Fisher判别分析,”模式识别的字母,34卷,不。9日,第1031 - 1026页,2013年。视图:出版商的网站|谷歌学术搜索
  11. 王z和x的太阳”,多个内核当地Fisher判别分析人脸识别,”信号处理,卷93,不。6,1496 - 1509年,2013页。视图:出版商的网站|谷歌学术搜索
  12. 燕,d .徐张,周宏儒。张、杨问:和美国林,”图嵌入和扩展:降维的总体框架,“IEEE模式分析与机器智能卷,29号1,40-51,2007页。视图:出版商的网站|谷歌学术搜索
  13. k·温伯格,b·d·帕克和l . k .扫罗,“非线性半定规划和内核矩阵分解降维,”学报第十届国际研讨会在人工智能和统计(AISTATS ' 05)2005年1月,页381 - 388。视图:谷歌学术搜索
  14. y . m . s .杨x Wang Wang汉,和l .焦”Semi-supervised低秩表示为模式识别、图形”专业图像处理,7卷,不。2、131 - 136年,2013页。视图:出版商的网站|谷歌学术搜索|MathSciNet
  15. 张炳扬。陈,C.-P。魏和研究。f . Wang“低秩矩阵恢复的人脸识别和结构不连贯,”《IEEE计算机视觉与模式识别会议(CVPR 12)IEEE,页2618 - 2625年,普罗维登斯,RI,美国,2012年6月。视图:出版商的网站|谷歌学术搜索
  16. 林z . g . Liu,燕,j .太阳和马y, y Yu”强劲复苏的子空间结构低秩表示,“IEEE模式分析与机器智能,35卷,不。1,第184 - 171页,2013。视图:出版商的网站|谷歌学术搜索
  17. g .刘和美国燕”,潜在的低秩表示子空间分割和特征提取”《IEEE计算机视觉国际会议(IC-CV 11)IEEE,页1615 - 1622年,巴塞罗那,西班牙,2011年11月。视图:出版商的网站|谷歌学术搜索
  18. 王x, y, y元,“Graph-regularized destriping高光谱图像低秩表示,“IEEE地球科学和遥感,51卷,不。7,4009 - 4018年,2013页。视图:出版商的网站|谷歌学术搜索
  19. g .刘、林z和y,“健壮的子空间分割在低秩表示,”学报》第27届国际会议上机器学习(ICML 10)以色列海法,页663 - 670,,2010年6月。视图:谷歌学术搜索
  20. d .周o . Bousquet: t . La et al .,“学习”与当地和全球一致性,先进的神经信息处理系统,16卷,不。16,321 - 328年,2004页。视图:谷歌学术搜索
  21. d . m . Cvetkovic)和p·罗林森光谱图论”代数图论的话题,页88 - 112年,剑桥大学出版社,2004年。视图:谷歌学术搜索
  22. 燕和h . Wang“Semi-supervised学习通过稀疏表示,”学报2009年暹罗国际会议数据挖掘长效磺胺,页792 - 801年,2009年。视图:出版商的网站|谷歌学术搜索
  23. j·赖特,a, y, a . Ganesh s Sastry,和y妈,“基于稀疏表示的人脸识别,”IEEE模式分析与机器智能没有,卷。31日。2、210 - 227年,2009页。视图:出版商的网站|谷歌学术搜索
  24. c·科尔特斯和m . Mohri”转换回归,”神经信息处理系统的进步19,第312 - 305页,2007年。视图:谷歌学术搜索
  25. e . j .萤石x, y,和j·赖特,“稳健主成分分析?”ACM的杂志,卷。58岁的没有。3、第十一条,2011年。视图:出版商的网站|谷歌学术搜索|MathSciNet
  26. 肯尼迪。Cai、e . j .萤石和z沈,“矩阵奇异值的阈值算法完成。”暹罗杂志上优化,20卷,不。4、1956 - 1982年,2010页。视图:出版商的网站|谷歌学术搜索|MathSciNet
  27. 马y, z, m . Chen“增广拉格朗日乘子方法精确恢复损坏的低秩矩阵,”https://arxiv.org/abs/1009.5055视图:谷歌学术搜索
  28. 林z . g . Liu,燕,j .太阳和马y, y Yu”强劲复苏的子空间结构低秩表示,“IEEE模式分析与机器智能,35卷,不。1,第184 - 171页,2013。视图:出版商的网站|谷歌学术搜索
  29. 任杨,z, y, h . Liu和l .娇,“通过内核低秩表示Semi-supervised分类图,”以知识为基础的系统,卷69,不。1,第158 - 150页,2014。视图:出版商的网站|谷歌学术搜索
  30. v . n . Vapnik诉Vapnik,统计学习理论约翰·威利& Sons,纽约,纽约,美国,1998年。
  31. h .阮w·杨,f .沈,c .太阳内核为人脸识别低秩表示,“Neurocomputing卷。155年,32-42,2015页。视图:出版商的网站|谷歌学术搜索

版权©2016 Baokai祖茂堂et al。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点1177年
下载613年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读