应用计算智能和软计算

PDF
应用计算智能和软计算/2017年/文章
特殊的问题

成像、视觉和模式识别

把这个特殊的问题

研究文章|开放获取

体积 2017年 |文章的ID 9635348 | https://doi.org/10.1155/2017/9635348

Lijuan段,赵重阳,小君苗,远华俏,兴苏, 深基于散列融合指数法对大规模图像检索”,应用计算智能和软计算, 卷。2017年, 文章的ID9635348, 8 页面, 2017年 https://doi.org/10.1155/2017/9635348

深基于散列融合指数法对大规模图像检索

学术编辑器:Ridha Ejbali
收到了 2017年3月31日
接受 2017年4月26日
发表 2017年5月24日

文摘

散列法已经被广泛部署执行近似最近邻(安)寻找解决问题的大规模图像检索存储和检索效率。最近,深提出了散列方法执行同步特性学习和散列码与深层神经网络学习。即使深哈希已经显示出更好的性能比传统的散列方法与手工制作的特性,学会了紧凑的从一个深哈希散列码网络可能无法提供完整的形象的代表。在本文中,我们提出一个新颖的哈希索引方法,称为深基于哈希的融合指数(DHFI)来生成一个更紧凑的散列码,具有较强的表达能力和区分能力。在我们的方法中,我们训练两种不同架构的散列子网和融合生成的哈希码两个子网统一图像。两个真实数据集的实验表明,我们的方法可以比最先进的图像检索的应用程序。

1。介绍

快速增长的图像在互联网上,这是很难找到相关图片根据不同人的需要。例如,现在图片的体积变得越来越大,和一个数据库拥有数以百万计的图像是很常见的。因此,大量的时间和内存使用线性搜索整个数据库。此外,图像总是由实值的特性,这样的诅咒维度通常发生在许多基于内容的图像搜索引擎和应用程序。

解决效率低下问题的内存成本实值特性,安搜索(1)已经成为一种流行的方法和近年来的一个研究热点。安在现有技术,散列方法提出了将图像映射到紧凑的二进制代码,大约保持在原始空间数据结构(2- - - - - -6]。由于查询速度和低内存成本较高、散列和图像二值化技术已成为最受欢迎的和有效的技术来提高识别和检索信息的使用基于内容的图像识别[4,7- - - - - -16]。而不是实值特性,图像是由二进制代码,这样搜索的时间和内存成本可以大大降低17]。然而,大多数现有的散列方法的检索性能严重依赖于他们使用的特性,这基本上是在一种无监督的方式提取,因此更适合处理视觉相似性搜索比语义相似性搜索。

我们都知道,卷积神经网络(CNN)展示了其令人印象深刻的学习能力在图像分类(5,18- - - - - -20.),对象检测(21],人脸识别[22),和许多其他视觉任务(23- - - - - -25]。CNN中使用这些任务可以被视为一个特性提取器在目标函数的指导下,专门为个人设计的任务(5]。CNN的成功应用在各种任务意味着学会了CNN的特性可以捕捉图像的底层语义结构尽管显著的外观变化。此外,哈希与深度学习网络表明特征表示和哈希编码可以更有效地学习。

灵感来自CNN特征的鲁棒性和高性能的散列方法,我们提出一个二进制代码生成和融合框架指数大规模图像数据集,叫深基于哈希的融合指数(DHFI)。

在我们的方法中,首先,我们训练两种不同深度成对哈希网络以图像对连同标签表示两幅图像是否相似的训练输入,将生成的二进制代码作为输出。然后,我们合并产生的哈希码两个子网在一起,认为合并后的散列码指纹或二进制索引图像的。在这两个阶段,图像可以很容易地由向前传播通过网络编码,然后合并网络输出二进制散列码表示。

剩下的纸是组织如下:部分2讨论了方法的相关工作。部分3详细描述DHFI方法。部分4广泛评估该方法在两个大型数据集。部分5给出了结论。

现有的学习方法可以分为两类:data-independent方法和视方法(8,24,26,27]。

data-independent哈希函数的方法通常是随机生成的,是独立于任何训练数据。代表data-independent方法包括locality-sensitive散列(激光冲徊化)1)和它的变体。视方法尝试学习一些训练数据的哈希函数,也称学习哈希(L2H)方法(15,26]。L2H方法可以实现类似或更好的准确性data-independent方法相比更短的哈希码。在真实的应用程序中,L2H方法比data-independent方法已经成为更受欢迎。

现有L2H方法可以进一步分为两类:非监督哈希和监督哈希指的是一个全面的调查28]。

无人监督的哈希方法使用标记的训练数据只有学习哈希函数和编码二进制代码输入数据点。典型的无监督哈希方法包括重建误差最小化(29日,30.基于哈希[的],图3,31日),各向同性的散列(IsoHash) [9),离散图哈希(DGH) [32),可伸缩的图哈希(功能减退)33),和迭代量化(ITQ) [8]。

监督哈希利用信息,比如类标签,学习紧凑的哈希码。代表监督哈希方法包括二进制重建嵌入(BRE) [7),最小的损失哈希(MLH) [34与内核(KSH)[],监督哈希4),两步散列(TSH) (35)、快速监督哈希(FastH) [12),和潜在因素哈希(LFH) [36]。在这些方法的管道,图像首先由手工制作的视觉描述符特征向量(例如,要点37,猪38]),紧随其后的是独立的投影和量化步骤,编码向量为二进制哈希码。然而,这些手工制作的特性代表了低水平的信息图片的施工过程是独立于哈希函数的学习过程,以及由此产生的功能可能不是最佳兼容的哈希码。

最近,随着深度学习表明其有效图像表示功率在一幅高层语义信息,然后,很多功能学习基础深哈希方法最近被提议和显示他们的更好的性能比传统的散列方法与手工制作的特性,如卷积神经网络散列(CNNH) [39),网络在网络散列(全国)40),深散列网(DHN) (41),和深成对监督哈希(DPSH) [15]。CNNH提出了夏et al . CNNH方法首先学习成对的哈希码标签,然后试图学习的哈希函数和特征表示图像像素基于哈希码。赖昌星等人改进的两级CNNH提出全国。全国使用一个三联体排名损失保存相对相似性和哈希码的图像编码除以和编码模块。此外,这个方法是一个学习和哈希编码深度网络同步特性,这样图像表示和哈希码可以提高彼此的共同学习的过程。DHN进一步提高全国通过控制量化误差原则的方式,设计一个原则性更强的成对交叉熵损失将成对成对的汉明距离相似标签,而DPSH学习哈希码通过学习特性和哈希码同时成对的标签。因为不同的组件在深成对监督哈希(DPSH)可以提供反馈,DPSH优于其他方法在图像检索的应用程序就我们所知。

在这项工作中,我们进一步提高检索精度的两个步骤:(1)训练两种不同架构的散列子网和(2)生成的哈希码两个子网融合统一图像,合并后的代码可以代表更多的语义信息和相互支持。这两个重要的阶段构成DHFI方法。

3所示。该方法

在本节中,我们详细描述我们的方法。我们首先训练两种不同架构的散列子网。然后,我们执行每个图像通过子网生成二进制哈希码和融合产生的哈希码相同的图像。章节中讨论的第一步3所示。1学习和散列码,我们遵循同步特性的学习方法15]。主要新奇的方法是训练两个哈希子网和融合生成的哈希码两个子网索引图像。

3.1。子网的培训

我们有 图像(特征点) 和监督的训练集散列成对的标签还包含一系列成对的标签 ,在那里 意味着 是相似的, 意味着 是不同的。这里,成对的标签通常指语义标签提供手工工作。

监督与成对散列标签的目的是学会一个二进制代码 对于每个点 ,在那里 是长度的代码。二进制代码 应该保留的相似性 。更具体地说,如果 二进制代码,然后 应该有一个低汉明距离;如果 ,二进制代码 应该有一个高的汉明距离。一般来说,我们可以把二进制代码 ,在那里 是学习的哈希函数。子网的训练步骤中,我们使用模式和学习方法称为深成对监督哈希(DPSH)李et al。该模型是一个端到端的深度学习的方法,它包括两个部分:特征学习和目标函数。

学习部分有七层的特性,它是快速的相同架构的卷积神经网络(CNN-F) (42,43]。

对于目标函数部分,鉴于二进制代码 对所有的图像,成对的标签的可能性 可以被定义为的LFH [36]: 在哪里 。请注意, 。当观察到的负对数似成对的标签 ,这个问题成为一个优化问题:

上述优化问题可以使两个类似的图像之间的汉明距离(点)尽可能小,使两个不同的图像之间的汉明距离(分)同时尽可能大。而问题是一个离散的优化问题,很难解决,我们遵循策略由李等。设计,将问题如下: 在哪里 。问题可以通过将不断优化等式约束方程的正则化条件。 在哪里 正则化项。

完全连接散列层设计两部分,将他们之间的一个整体框架。框架如图1。请注意,两个图像输入到框架在每个训练时间,和损失函数是基于对标签的图片。

散列层,我们集 在哪里 表示第一个七层的所有参数特性学习部分, 表示第七层与图像相关的输出(点) , 表示权重矩阵, 是一个偏差向量。

后连接特性的学习和目标函数在一起,学习的问题

在每个子网,李et al。之后,我们还采用基于minibatch战略和交替学习包含的参数的方法 , , , 。我们样品minibatch图像(分)从每个子网学习整个训练集和基于这些采样图像(点)。然后,我们优化与其他参数固定的一个参数。 可以直接优化如下:

我们学习其他参数使用反向传播方法 , , 。特别,我们可以计算出衍生品损失函数与尊重的 如下: 在哪里 。然后,我们可以更新参数 , , 通过反向传播:

在我们的方法中,我们训练两散列子网利用学习算法(15]。更特别,CNN-F和Caffe-alex [18]pretrained网络单独使用的功能学习不同子网的一部分。

3.2。哈希码生成和融合

子网我们已经成功地完成了训练后,我们只能得到图像训练数据的哈希码。我们仍然需要预测的哈希码没有出现在其他图像训练集,任何图像 ,我们让它在每个子网来预测其哈希码只要向前传播:

因此我们可以得到两个相关的哈希码 。我们连接两个不同的哈希码从两个不同的子网在一个向量方法和使用最新的散列码的级联码 。哈希代码生成和融合过程如图2

4所示。实验

4.1。实验设置

我们所有的实验与MatConvNet DHFI完成(43NVIDIA GPU K40服务器上。

在本节中,我们进行广泛的评价该方法的两个广泛使用的基准数据集不同的图片:CIFAR-10 NUS-WIDE。(1)CIFAR-10 [44]数据集包含60 k 彩色小图像,分为10类(6 k小图片每个类)。这是一个单标牌数据集的每个图像属于一个的10类。(2)NUS-WIDE数据集(45,46)有近270 k图片从网上收集。multilabel数据集,每个图像注释在81年与一个或多个类标签的语义概念。后(15,40),我们只使用21最常见的图像类。这些类,每个类的图像数量至少5公里。

试验协议(15也用于我们的实验。1000年CIFAR-10图像(100图像类)是随机选择的查询集。无监督方法,我们使用其他图像作为训练集,监督方法,我们随机选择了5000图片(500图像类)的图像作为训练集,成对的标签集 构建基于图象类标签,两个图像将被认为是类似的,如果他们共享相同的类标签。

2100年NUS-WIDE查询图像来自21个最频繁的标签(100图像类)是随机抽样如下设定的查询中使用的策略(15,39,40]。监督的方法,我们随机选择500图像每个类的图像作为训练集,成对的标签 构建基于图象类标签。这意味着两个图像将被认为是类似的,如果他们有至少有一个共同的标签。

后(15),我们比较方法几种先进的散列方法,包括SH (31日],ITQ [8],SPLH [47],KSH [4],FastH [12],LFH [36],SDH [13],DPSH [15],CNNH [39],DHN [41,近年来5),和全国通40]。注意,SH和ITQ无人监督的哈希方法和其他方法监督散列方法。DPSH、CNNH DHN, DSH四深哈希方法成对的标签,虽然全国triplet-based方法。除此之外,我们也评估具有散列方法深CNN-F特征提取。

散列方法,使用手工制作的特性,我们代表每个图像在CIFAR-10 512 -维要点向量。我们代表每个图像NUS-WIDE以1134 -维低层次特征向量,包括64 - d颜色直方图,144 - d颜色相关图,73 - d边缘方向直方图,128 - d小波结构,225 - d基于块颜色的时刻,和500 - d筛选功能。

深散列方法,我们首先调整图像 像素,然后直接使用原始图像像素作为输入,采用CNN-F网络已pretrained ImageNet数据集初始化层的特征学习的部分。相似的初始化策略也已通过其他深哈希方法(48]。

对于我们的方法,我们分别学习哈希码不同架构的pretrained网络;我们使用架构的快速卷积神经网络(CNN-F)和Caffe-alex网络初始化参数。

4.2。结果与讨论

平均平均精度(MAP)经常被用来测量精度在大规模图像检索的应用程序。因为大多数现有散列方法,地图是用来测量方法的准确性。公平的比较,所有使用相同的训练集和测试集的方法。摘要地图价值计算基于NUS-WIDE数据集返回的前5000名的邻居。最好的地图为每个类别表粗体所示。

首先,验证深度融合二进制哈希代码的有效性,我们比较两个不同的方法架构的深度成对监督哈希模式;一个使用CNN-F pretrained模型特性学习部分和其他使用Caffe-alex pretrained模型特征学习的部分。映射结果列在表中1。请注意,DPSH1使用CNN-F和DPSH2使用Caffe-alex pretrained模型。通过比较DHFI DPSH1 DPSH2,我们发现DHFI可以大大超过了他们两人。这意味着集成的哈希码从不同架构的深度比哈希码哈希子网可以得到一个更好的解决方案产生独立的子网。


方法 CIFAR-10 NUS-WIDE
24位 32位 48位 64位 24位 32位 48位 64位

DPSH1 0.727 0.744 0.757 0.768 0.822 0.838 0.845 0.850
DPSH2 0.686 0.714 0.745 0.736 0.828 0.838 0.846 0.849
DHFI 0.750 0.768 0.774 0.788 0.836 0.854 0.860 0.864

其次,映射表中列出所有方法的结果23。请注意,在桌子上2,DSH DPSH DHN、全国和CNNH深散列方法,和所有其他方法具有方法与手工制作的功能。全国的结果,CNNH KSH, ITQ来自[15,39,40),结果DPSH来自[15),近年来的结果是(5),结果DHN来自[41]。请注意,上面的实验设置和评价指标是完全一样的(15,39,40]。因此,比较合理。我们可以发现我们的方法显著优于其他基线,包括无监督方法,监督方法与手工制作的特性,学习和深哈希方法与特性。


方法 CIFAR-10 NUS-WIDE
12位 24位 32位 48位 12位 24位 32位 48位

上海 0.127 0.128 0.126 0.129 0.454 0.406 0.405 0.400
ITQ 0.162 0.169 0.172 0.175 0.452 0.468 0.472 0.477
SPLH 0.171 0.173 0.178 0.184 0.568 0.589 0.597 0.601
LFH 0.176 0.231 0.211 0.253 0.571 0.568 0.568 0.585
KSH 0.303 0.337 0.346 0.356 0.556 0.572 0.581 0.588
SDH 0.285 0.329 0.341 0.356 0.568 0.600 0.608 0.637
FastH 0.305 0.349 0.369 0.384 0.621 0.650 0.665 0.687
CNNH 0.439 0.476 0.472 0.489 0.611 0.618 0.625 0.608
全国通 0.552 0.566 0.558 0.581 0.674 0.697 0.713 0.715
DHN 0.555 0.594 0.603 0.621 0.708 0.735 0.748 0.758
近年来 0.616 0.651 - - - - - - 0.661 0.548 0.551 - - - - - - 0.562
DPSH 0.713 0.727 0.744 0.757 0.747 0.822 0.838 0.845
DHFI 0.613 0.750 0.768 0.774 0.807 0.836 0.854 0.860


方法 CIFAR-10 NUS-WIDE
12位 24位 32位 48位 12位 24位 32位 48位

SH +有线电视新闻网 0.183 0.164 0.161 0.161 0.621 0.616 0.615 0.612
ITQ +有线电视新闻网 0.237 0.246 0.255 0.261 0.719 0.739 0.747 0.756
SPLH +有线电视新闻网 0.299 0.330 0.335 0.330 0.753 0.775 0.783 0.786
LFH +有线电视新闻网 0.208 0.242 0.266 0.339 0.695 0.734 0.739 0.759
KSH +有线电视新闻网 0.488 0.539 0.548 0.563 0.768 0.786 0.790 0.799
SDH +有线电视新闻网 0.478 0.557 0.584 0.592 0.780 0.804 0.815 0.824
FastH +有线电视新闻网 0.553 0.607 0.619 0.636 0.779 0.807 0.816 0.825
DHFI 0.613 0.750 0.768 0.774 0.807 0.836 0.854 0.860

进一步验证的有效性深二进制哈希代码融合,我们比较DHFI其他具有方法与深度特征快速提取的架构的卷积神经网络(CNN-F)。结果如表所示3CNN的符号“+”表示,使用深度特征作为输入的方法。我们可以发现,我们的方法优于所有其他具有非基线与深度特性。

5。结论

在本文中,我们提出了一个基于“两阶段”深哈希的融合指数图像检索的方法。在该方法中,我们训练两种不同体系结构的深哈希网络,然后合并生成的哈希码一起从单独的网络统一一个图像。由于哈希码从不同的网络和他们可能提供不同的信息和相辅相成的,该方法可以学习比其他散列方法更好的代码。真实数据集的实验表明,我们的方法在最先进的图像检索应用程序性能优越。

的利益冲突

作者宣称没有利益冲突有关的出版。

确认

这项工作得到了中国自然科学基金(批准号。61370113,61572004,61572004,91546111),北京市自然科学基金(批准号。4152005和4152005),北京市教育委员会的关键项目(批准号KZ201610005009];天津的科技项目(批准号15 yfxqgx0050],青海省科技计划项目(批准号2016 - zj - y04]。

引用

  1. 答:安和p .迪克,”算法散列算法的近似最近邻高维度,“51.1计算机科学基金会年度研讨会上,第122 - 117页,2008年。视图:出版商的网站|谷歌学术搜索
  2. s . j . Wang库马尔,s . f . Chang Semi-supervised散列大规模搜索,“IEEE模式分析与机器智能,34卷,不。12日,第2406 - 2393页,2012年。视图:出版商的网站|谷歌学术搜索
  3. h . Jegou m . Douze和c·施密德,“产品量化最近邻搜索,”IEEE模式分析与机器智能,33卷,不。1,第128 - 117页,2011。视图:出版商的网站|谷歌学术搜索
  4. r·w·刘,j . Wang, Y.-G。江,S.-F。常,“监督与内核哈希,”《IEEE计算机视觉与模式识别会议(CVPR 12)普罗维登斯,页2074 - 2081年,RI,美国,2012年6月。视图:出版商的网站|谷歌学术搜索
  5. h·刘,s, r . Wang和x陈,“深监督快速图像检索的哈希”学报IEEE计算机视觉与模式识别会议(CVPR 1 b),第2072 - 2064页,2016年。视图:出版商的网站|谷歌学术搜索
  6. k·詹,j .关、y杨和吴,“无监督歧视哈希,”杂志的视觉传达和图像表示40卷,第851 - 847页,2016年。视图:谷歌学术搜索
  7. b·巴巴的,t·达雷尔。”学习与二进制映射进行重建,哈希”少量的酒,1042 - 1050页。视图:谷歌学术搜索
  8. y锣et al .,“迭代量化:普罗克汝斯忒斯之学习方法的二进制编码大规模图像检索,”学报IEEE计算机视觉与模式识别会议(CVPR 11),第824 - 817页,2011年。视图:出版商的网站|谷歌学术搜索
  9. w .香港和w·j·李”,各向同性哈希。”先进的神经信息处理系统,2卷,第1654 - 1646页,2012年。视图:谷歌学术搜索
  10. 崔m . Rastegari j . s . Fakhraei d·哈尔·l·戴维斯,“可预测的dual-view哈希,”30日学报》国际会议上机器学习,第1336 - 1328页,2013年。视图:谷歌学术搜索
  11. k·f·温,他和j .太阳。”K——散列:一个affinity-preserving量子化方法学习二进制代码紧凑,”学报》26日IEEE计算机视觉与模式识别会议,CVPR”,第2945 - 2938页,2013年。视图:出版商的网站|谷歌学术搜索
  12. 问:“沈g .林c, a Van Den Hengel,和d·苏特,“快监督高维数据的哈希与决策树”学报》27日IEEE计算机视觉与模式识别会议,CVPR”2014年,页1971 - 1978,美国。视图:出版商的网站|谷歌学术搜索
  13. f .沈c .沈w·刘,h·t·沈,“监督离散哈希,”学报IEEE计算机视觉与模式识别会议,CVPR”2015年6月,页37-45,。视图:出版商的网站|谷歌学术搜索
  14. 王成k、l .胡军和z Zhi-Hua,“列基于采样的离散监督哈希,”AAAI,2016年。视图:谷歌学术搜索
  15. l .吴俊w .盛,k .望城”功能学习基础深厚的监督与成对散列标签,”IJCAI,2016年。视图:谷歌学术搜索
  16. r·达斯美国Thepade, s·巴塔查里亚和s . Ghosh”检索架构对基于内容的图像识别分类查询,”应用计算智能和软计算,卷2016,2页,2016。视图:出版商的网站|谷歌学术搜索
  17. y,沈,x, l .高谭x, y . Wang“大规模图像检索与监督稀疏哈希,”Neurocomputing卷。229年,45-53,2017页。视图:出版商的网站|谷歌学术搜索
  18. a . Krizhevsky Sutskever,和g·e·辛顿ImageNet与深卷积神经网络分类。,“在学报》国际会议Curran Associates Inc .神经信息处理系统,第1105 - 1097页,2012年。视图:谷歌学术搜索
  19. c . Szegedy w·刘,y贾et al .,“要更深的曲线玲珑,”《IEEE计算机视觉与模式识别会议(CVPR 15)美国大众,页1 - 9,波士顿,2015年6月。视图:出版商的网站|谷歌学术搜索
  20. k . x张,他任美国,j .太阳”深入深入整流器:超越人类imagenet分类、性能”学报》第15届IEEE计算机视觉国际会议(ICCV 15)IEEE,页1026 - 1034年,圣地亚哥,智利,2015年12月。视图:出版商的网站|谷歌学术搜索
  21. c . Szegedy a Toshev, d . Erhan“深层神经网络目标检测,”先进的神经信息处理系统26卷,第2561 - 2553页,2013年。视图:谷歌学术搜索
  22. x x y太阳,小王,唐,深度学习的脸表示联合身份认证,27卷,2015年。
  23. j .长,大肠Shelhamer, t·达雷尔“完全卷积网络语义分割”《IEEE计算机视觉与模式识别会议(CVPR 15)IEEE,页3431 - 3440年,波士顿,质量,美国,2015年6月。视图:出版商的网站|谷歌学术搜索
  24. y, y, h·赖,c . Liu和j .阴“Margin-based两级监督图像检索的哈希”Neurocomputing卷,214年,第901 - 894页,2016年。视图:出版商的网站|谷歌学术搜索
  25. d·谢·l·张,l·巴姨,“深度学习在视觉计算和信号处理”,应用计算智能和软计算卷。2017年,1-13,2017页。视图:出版商的网站|谷歌学术搜索
  26. j·邓:叮,y贾et al .,“大规模对象分类使用标签关系图,”课堂讲稿在计算机科学(包括子系列讲义在人工智能和课堂讲稿在生物信息学)卷。8689年,48 - 64年,2014页。视图:出版商的网站|谷歌学术搜索
  27. z Songhao et al .,“集成图像检索的语义和视觉哈希”杂志的视觉传达和图像表示,2016年。视图:谷歌学术搜索
  28. w .香港和w·j·李”,各向同性哈希。”先进的神经信息处理系统,卷2,不。2012年,第1654 - 1646页,2012年。视图:谷歌学术搜索
  29. w .京东et al .,“散列相似搜索:一项调查,”计算机科学,2014年。视图:谷歌学术搜索
  30. r . Salakhutdinov g·辛顿,“学习保护类社区结构的非线性嵌入,”机器学习研究杂志》上,2卷,第419 - 412页,2007年。视图:谷歌学术搜索
  31. y . Weiss, a . Torralba和r·费格斯“谱哈希,”神经信息处理系统,学术会议12月DBLP温哥华,不列颠哥伦比亚,加拿大,第1760 - 1753页,2008年。视图:谷歌学术搜索
  32. l .,“离散图哈希”学报》国际会议上麻省理工学院出版社神经信息处理系统,第3427 - 3419页,2014年。视图:谷歌学术搜索
  33. 问:江元w·j·李”,与功能转换、可伸缩的图哈希”人工智能国际会议AAAI Inproceeding出版社,第2254 - 2248页,2015年。视图:谷歌学术搜索
  34. n穆罕默德Emtiyaz和d . j .舰队”,紧凑的二进制代码,最小损失哈希”在机器学习国际研讨会论文集贝尔维尤,页353 - 360年,华盛顿,美国,2011年。视图:谷歌学术搜索
  35. 林,c .沈d·苏特,A . v . d . Hengel“一般两步上优于散列方法,”学报》2013年第14 IEEE计算机视觉国际会议上,ICCV 2013来自,页2552 - 2559年,2013年12月。视图:出版商的网站|谷歌学术搜索
  36. 张平,W.-J w . Zhang。李、郭m .“监督散列与潜在因素模型,”学报》第37国际市立图书馆会议在信息检索的研究与开发,SIGIR 2014来自,页173 - 182年,2014年7月。视图:出版商的网站|谷歌学术搜索
  37. a·奥利瓦和a . Torralba建模场景:的形状的整体表示空间信封,“国际计算机视觉杂志》上,42卷,不。3、145 - 175年,2001页。视图:出版商的网站|谷歌学术搜索
  38. n .中间人和b区格”的梯度直方图的人体检测,”《IEEE计算机学会学报计算机视觉与模式识别会议(CVPR ' 05),1卷,第893 - 886页,2005年6月。视图:出版商的网站|谷歌学术搜索
  39. c·r·夏y, h . Lai Liu和严,“监督哈希通过图像表示为图像检索学习,”AAAI会议上人工智能,第2162 - 2156页,2014年。视图:谷歌学术搜索
  40. 刘h·赖,y, y, s .严”同步特性与深层神经网络学习和哈希编码,”学报IEEE计算机视觉与模式识别会议,CVPR”2015年6月,页3270 - 3278。视图:出版商的网站|谷歌学术搜索
  41. z汉”,深哈希网络高效相似性检索”学报》第三十AAAI人工智能大会AAAI出版社,第2421 - 2415页,2016年。视图:谷歌学术搜索
  42. k .地方k . Simonyan a Vedaldi, a . Zisserman“魔鬼在细节的回归:深入深入回旋的网,“计算机科学,2014年。视图:谷歌学术搜索
  43. a Vedaldi和k . Lenc MatConvNet:卷积神经网络matlab,”第23届ACM国际会议多媒体学报》上,页689 - 692,布里斯班,澳大利亚,2015年10月。视图:出版商的网站|谷歌学术搜索
  44. a . Krizhevsky“学习多层小图像的特性,“2012年,学习多层特性的小图片。视图:谷歌学术搜索
  45. t·s·艾。蔡,j . Tang r .香港h . Li z罗,和y郑”NUS-WIDE:一个真实的网络图像数据库从新加坡国立大学”学报ACM国际会议上图像和视频检索,CIVR 2009集选区,页368 - 375年,2009年7月。视图:出版商的网站|谷歌学术搜索
  46. 张x赵、李x和z,“通过深度学习多媒体检索排名。”IEEE信号处理信件,22卷,不。9日,第1491 - 1487页,2015年。视图:出版商的网站|谷歌学术搜索
  47. s . j . Wang库马尔,s . f . Chang”顺序投影学习与紧凑的哈希码机器学习DBLP Inproceeding国际会议,第1134 - 1127页,2010年。视图:谷歌学术搜索
  48. f .赵黄y l . Wang和t . Tan“深层语义基于排名的散列多标记图像检索”学报IEEE计算机视觉与模式识别会议,CVPR 20152015年6月,页1556 - 1564。视图:出版商的网站|谷歌学术搜索

版权©2017段Lijuan et al。这是一个开放的分布式下文章知识共享归属许可,它允许无限制的使用、分配和复制在任何媒介,提供最初的工作是正确引用。


更多相关文章

PDF 下载引用 引用
下载其他格式更多的
订单打印副本订单
的观点1869年
下载901年
引用

相关文章

文章奖:2020年杰出的研究贡献,选择由我们的首席编辑。获奖的文章阅读