文摘
Zero-shot学习是致力于解决分类问题的看不见的类别,而广义Zero-shot学习目标分类样本选择两类和看不见的类,“看到”和“看不见的”类表示他们是否可以使用在训练过程中,如果是这样,他们表示见过类,反之亦然。如今,促进深度学习技术,zero-shot学习的性能大大改善。广义zero-shot学习是一个具有挑战性的话题,在许多现实场景中前景十分广阔。虽然zero-shot学习任务取得了可喜进展,仍有强劲的看到类之间的偏差和看不见的类在现有的方法。最近关注学习方法统一semantic-aligned可视化表示两个域之间的知识转移,而忽略了内在特征的视觉特征歧视足以分类本身。解决上述问题,我们提出一个新的模型,使用判别信息的视觉特性来优化生成模块,生成模块的双一代条件VAE和改善WGAN组成的网络框架。具体地说,该模型使用的歧视信息的视觉特性,根据相关的语义嵌入,综合看不见的类别的视觉特性使用发电机,然后火车最后softmax分类器通过使用生成的视觉特性,从而实现对看不见的类别。此外,本文还分析了影响具有不同结构的其他分类器的区别的信息的传播。我们进行了很多实验6个常用的基准数据集(AWA1、AWA2 APY,弗洛,太阳,和幼崽)。实验结果表明,我们的模型优于几种先进的方法对传统以及广义zero-shot学习。
1。介绍
近年来,深度学习(1- - - - - -4)取得了巨大的成功在一个广泛的计算机视觉和机器学习任务(5),包括人脸识别、情感分类、和视觉问题回答。在大多数情况下,这些深度学习模型在许多方面比人类更有效,因为他们可以观察潜在的信息,可能忽视了人类的眼睛在图片。然而,作为神经网络的发明者,人类更擅长识别事物之前他们从未见过的通过一些语义知识对这些小说的对象。在这方面,深度学习的效果不如人类。它恰恰是因为深度学习任务为图像识别严重依赖全程指导训练,所以他们需要一个非常大量的标记数据。然而,一些对象类是很难获得,图像数据等濒危物种和新生产的商品。此外,即使他们得到相关类的带安全标签的数据时,他们仍将面临数据不平衡的问题。很难获得这些对象的图像,更不用说大量的标签样本。因此,训练模型与大量的带安全标签的数据是不现实的。在此背景下,zero-shot学习提出的概念,这吸引了广泛关注领域的计算机视觉和大大发展。
有太多的类在现实世界中,不可能收集到足够的为每个类标记数据。在这种情况下,zero-shot学习的任务是可取的,但它是具有挑战性的。在文献[6- - - - - -10),zero-shot学习通常是意识到通过使用标记的样本类别和category-related语义嵌入这被认为是辅助信息。语义嵌入编码阶级之间的关系,通常是属性,词向量,或句子嵌入。因此,共享类和看不见的类在语义嵌入空间。在传统zero-shot学习设置(11,12),目标是培养一个图像分类器的类,然后测试训练分类器在看不见的类,在类和看不见的类是不相交的。然而,传统的zero-shot学习设置是不现实的,而且它并不总是适用的在现实世界中,因为在现实中,测试图像可以来自于看到类。因此,有这样一个趋势,我们希望训练分类器不仅可以识别看不见的类也见过类,叫做广义zero-shot学习(13,14]。在以下的文章中,我们统一表达传统zero-shot学习ZSL和广义zero-shot GZSL学习。新和GZSL之间的主要区别是标签空间是否包含类测试期间。在这项工作中,我们进行了比较实验研究在ZSL和GZSL合成视觉特性的看不见的类使用的潜力和价值的区别的信息。
在本文中,我们指出了存在的问题在ZSL GZSL作品近日报道,我们分析双生成网络的有效性提出了以及视觉特性的区别的信息表示。在早期,如图1(一),大多数方法(7,11,15- - - - - -18)图像的视觉特性映射到语义空间解决ZSL任务基于类属性嵌入或其他方面的知识。然而,使用语义空间的映射空间将受到hubness问题中指出[19- - - - - -21]。因为预测高维视觉特性,低维语义空间将大大减少特征的多样性,有些分不同类别可能会变得更加聚集中心,如图2。为了缓解hubness问题,一些作品19- - - - - -21)提出了语义特征映射到视觉空间如图1 (b)。然而,这将导致另一个问题称为域的转变。例如,猪的尾巴和一匹马的尾巴是相似的语义空间,但他们有很大的不同在视觉空间,如图3。然后,一个共享的概念提出了潜在的空间。人视觉特征和语义属性映射到一个潜在的空间同时,如图1 (c),表现最近邻搜索计算平均每个类(精度。这个共享潜在空间被认为是缓解hubness和转移的问题,但该方法的泛化能力差。当使用GZSL映射方法,性能将显著下降。双代模型结合了改进WGAN和条件VAE的优点,它可以缓解hubness和转移的问题,从而有效地实现广义zero-shot zero-shot学习和学习的目标。
(一)
(b)
(c)
(一)
(b)
相比之下,最近ZSL和GZSL方法(8,22- - - - - -25)是基于生成对抗网络(26),旨在直接优化背离真实的和生成的数据分布。西安的工作等。8甘)学习通过使用类视觉特性和相应的手动带注释的属性或词的语义嵌入向量(27)表示。假的视觉特征看不见的类别是合成使用训练有素的发生器,然后与看到的真正的视觉特性一起使用类培训新分类器在全程指导。但甘斯往往遭受模式崩溃和不稳定的训练问题。灵感来自生成对抗网络的概念,我们提出双重生成框架结合的优势条件变分汽车编码器网络和改善WGAN,歧视的信息通过使用一个额外的分类器训练在看到类增加样本的多样性和分辨率是由生成器生成的。其中,改进WGAN可以克服模式崩溃问题,和VAE可以减轻GAN培训的不稳定问题,因此,我们的模型可以稳定和快速生成视觉特性对应类别根据语义嵌入。
如上所述,我们结合的优势提高WGAN和条件VAE与内在特征的视觉特性表示自己通过使用额外的分类器提出一个名为双生成网络的新模型与歧视的信息(DGDI)。与以前相比生成方法的新模型遭受模式崩溃问题[28,29日),我们的模型更稳定,使用条件VAE协助GAN产生视觉特性。在这项工作中,我们的主要任务是获取一个健壮的发电机无标号的合成视觉特征类。特别是,如果发电机学习区别的视觉特性数据有足够的变异,生成的数据应该有用的实现监督学习。此外,我们考虑我们的双重生成框架,它是由改善WGAN和条件VAE可以学习互补信息的语义空间,因此我们相信,我们的模型可以从语义映射进行生产更高质量的视觉特性。
总结我们的主要贡献如下:(1)提出一个新颖的生成模型名为DGDI结合改进WGAN和条件VAE的优点,它可以从语义互补信息嵌入的学习。(2)与以往zero-shot学习作品,我们添加一个额外的分类器训练发电机损失通过使用视觉特性表征的内在特征,使得合成的视觉功能更加多样化和区分。(3)我们进行大量的实验,说明了模型的有效性,结果保持高精度内和GZSL六广泛使用的基准数据集。此外,为了更好地利用区别的信息表达的视觉特性,我们也分析不同结构分类器的影响。(4)我们也进行可视化实验合成视觉t-SNE[从看不见的类的特性30.],它直观地证明了我们的模型的有效生成能力。
2。相关工作
在本节中,我们将讨论一些相关的工作(广义)zero-shot学习以及生成模型。
我们有兴趣在ZSL和GZSL任务,前者旨在预测标签的看不见的类,而后者试图预测看见和看不见的类标签。视觉特性表示本身具有强大的分辨率,但这是由先前的研究人员往往被忽视,所以它不是重用。本文有识别力的分类器添加到研究内在区分信息的视觉特性,并应用于双代模块合成更独特的特征表示根据相应的语义类别的属性。
早期作品(31日,32]看见和看不见的类通过直接学习相关属性分类器。然而,最近的工作或者学习图像特征和类之间的兼容性函数嵌入空间(7,11,16,17,21)或学习看不见的类,可见类的混合物(33- - - - - -35]。例如,同步(33,36,37]试图预测未知类的标签通过学习线性分类器。王等人。38)提出将知识图与图卷积网络(39)和语义映射进行。Rohrbach说道et al。40]你们和郭[9)项目形象功能嵌入空间语义标签传播紧随其后。胆量和意大利广播电视公司(41]对待未知的看不见的类的标签图像作为潜变量和应用采用(EM)。所有上述模型nongenerative,罹患的问题hubness domain-shifting一样,但是我们的方法使用一个双重生成模型转换ZSL或GZSL传统监督学习通过生成假看不见的类的视觉特征,这被认为是缓解问题的嵌入方法。
近年来,生成模型已被广泛使用。生成对抗网络(26)最初是作为一个图像合成方法提出基于一个特定的图像数据分布(42),取得了最先进的成果。生成对抗网络(26,42,43由一台发电机,综合假数据分布和鉴别器区分假数据与真实数据。然而,甘斯正遭受不稳定问题的培训和模式崩溃(44,45]。为了缓解这些问题,提高合成的质量特性,许多研究提出自己的方法。Arjovsky et al。44甘]提出WGAN优化执行1-Lipschitz光滑近似瓦瑟斯坦距离。尽管WGAN取得更好的理论性能比原来甘,它仍失踪的问题和爆炸梯度由于重量剪裁执行1-Lipschitz约束鉴别器,然后,Gulrajani et al。45)提出了一个改进的版本WGAN叫做WGAN-GP执行李普希茨约束(3通过梯度点球)。因此,我们的方法借鉴改进WGAN的想法。不同于现有的工作,直接生成图像本身,我们建议的模型选择生成视觉特性相反,可以直接用来训练歧视zero-shot学习分类器。
此外,朱et al。46)提出了一个有趣的应用程序,甘斯命名CycleGAN翻译一个图像从一个域到另一个域,然后回到原始域形成闭环。Schonfeld et al。47)提出了一个方法,介绍了交叉和分布对齐损失调整视觉特性和相应的嵌入在一个共享的潜在空间,通过使用两个变分汽车编码器(48]。的工作(25类似于我们的模型,引入了一个f-VAEGAN框架,结合VAE和氮化镓通过共享VAE的译码器和生成器的功能合成氮化镓。西安et al。8使用一个条件瓦瑟斯坦GAN [44]随着看到类别分类器学习看不见的类特性的发电机合成。我们建议的模型结合的想法VAEGAN [25)和见过类分类器(8)鼓励发电机合成更有识别力的特性,这将提高zero-shot学习和广义zero-shot学习的性能在一定程度上。
上述zero-shot学习的生成方法和广义zero-shot学习几乎忽略类别之间的视觉特性的固有分辨率表示,这实际上是非常重要的分类。因此,我们应用视觉特性的关键区别的信息表示该双代框架,促进生成的合成视觉特性表征学会发电机更容易相互区别。还在这篇文章中,我们分析的作用具有不同结构的其他分类器的传播有识别力的信息。
3所示。提出的模型
在本节中,我们首先正式定义zero-shot学习广义zero-shot学习问题,概述我们的提议双生成模型使用视觉特性的区别的信息表示另一个分类器,然后详细介绍每个组件的模型。
3.1。新配方和GZSL问题
在本文中,我们研究传统和广义zero-shot学习。具体地说,让源数据集被定义为 ,在哪里代表了类的训练数据, 是由一个图像的视觉特性pretrained通常在ImageNet1K ResNet101训练神经网络,是视觉特征的集合类,图像视觉特征的标签吗 , 是标签的集合类,然后呢是类的语义嵌入 。同样,我们可以定义测试集,即。目标数据集 在哪里从看不见的类代表的形象特征,代表为看不见的类标签的集合, 。任务ZSL和GZSL学习分类器 和 ,分别。
3.2。模型概述
我们提出的总体框架框架见图4。在我们的模型中有四个主要组件,即。,an encoder, a generator/decoder, a discriminator, and a pretrained classifier, in which the encoder, the generator/encoder, and the discriminator form a dual generative framework, i.e., VAE-GAN. Our proposed method is based on the recently introduced f-VAE-GAN [25]VAE的优点相结合48和氮化镓26)是一样的我们的方法和新分类取得了令人印象深刻的成果。指的想法25],我们添加一个额外的分类器的利用率有识别力的信息分类生成的视觉功能的类,分类器的pretrained看到类。我们相信,额外的分类器的损失可以使发电机学会合成更有识别力的视觉功能,这是有益的。我们的模型的核心组件是双重生成框架的作用是生成各种视觉特性条件对某些类语义嵌入。在这篇文章中,我们充分利用视觉特性的内在区别的信息表示和这个固有的特性应用到双代模块鼓励发电机综合视觉特性表征,更容易被分类的基础上,相应类别语义属性。在下面,我们将介绍双生成网络的主要组件,额外的分类器,和他们的损失函数的详细模型。
3.3。双重生成框架
在这项工作中,我们提出一个双重生成框架的合成视觉特性表示看不见的类稳定和效率。双重生成网络结合的优势提高WGAN和条件VAE,它可以处理模式崩溃和不稳定的培训问题。
从图我们可以看出4,有条件的VAE网络由一个潜在的噪音编码器 译码器和视觉特性表示 ,和条件提出了VAE地图随机噪声向量生成方法 来自 一个数据点在语义上的数据分布调节嵌入 。我们训练条件VAE通过最小化以下损失函数 : 在哪里 代表了 ,即。,the Kullback–Leibler divergence between 和 ,条件分布 被建模为 , 等于 ,和是高斯分布作为一个单元。
如图4,改善WGAN发电机组成G和一个鉴别器d。我们的目标是学习一个发电机 在语义嵌入的条件。生成器类嵌入 和随机高斯噪声 作为输入,然后输出一个假的视觉特性类的 。我们的改善WGAN的损失函数 在哪里 , ,与 ,和是惩罚系数、初始化为10。不同于纯氮化镓,歧视WGAN被定义为网络 这消除了乙状结肠层和输出一个真正的价值。前两个方程(2)被认为是瓦瑟斯坦距离,第三项是梯度刑罚执行的梯度D有单元沿直线之间真正的规范和对生成的视觉特性。我们也计算梯度惩罚项的值在每个时代的培训调整超参数 。
一旦双重生成模型学习产生的视觉特征类,条件见过类语义映射进行 ,它还可以生成的看不见的类别通过其类语义嵌入 。所以,zero-shot学习和广义zero-shot学习问题可以转化为传统的监督学习。
3.4。额外的分类器有识别力的信息
为了确保所产生的视觉特性改善WGAN非常适合有识别力的分类器训练,我们添加了一个分类器C利用视觉特性表征的区别的信息,如图4的真面目,pretrained看到类鼓励生成器来生成独特的特性。为此,模块C使用负对数似然最小化分类损失在生成的功能在以下公式: 在哪里 , 的类标签吗 ,和 的概率表示与它真正的预测类标签 。一个线性的计算条件概率softmax分类器参数化 。分类损失可以被视为一个正规化执行发电机构造区别的特征。在下一节中,我们进行实验分析不同分类器的性能zero-shot学习和广义zero-shot学习。
总之,我们建议的模型优化目标函数如下:
如图5,一旦模型训练,为了预测看不见的类的标签,我们可以先为每一个看不见的类生成pseudovisual特性使用学到的发电机。然后,我们构造一个新的数据集通过结合这些pseudovisual特性的真面目见GZSL类。之后,我们可以训练分类器基于这个新的数据集包含的视觉特征类和看不见的类。因此,GZSL任务转化为一个监督学习问题。在这里,我们使用一个自学习分类器来调整精度的(24]。
4所示。实验
在本节中,我们进行了大量的实验6个公共基准数据集内和GZSL。实验装置的详细信息中提供了相应的章节,为了更好地利用区别的信息,我们将讨论的影响具有不同结构的分类器进行比较实验,全面分析了相应的实验结果。
4.1。数据集和设置
我们比较模型与多个基线六广泛使用的数据集,即。,牛津鲜花(FLO) [49用属性(AWA2)[2],动物14),Caltech-UCSD-Birds(宝宝)50(太阳)[],太阳属性51],APascal-a雅虎(年)。在这些数据中,32年包含类别从2008年帕斯卡VOC和YahooL包含15339张图片。AWA2是粗粒度的,中等规模数据集包含30475张图片,85年50类和属性。幼崽,弗洛,太阳是中等规模,但细粒度数据集,子包含11788图像从200年与312年不同类型的鸟带注释的属性。弗洛数据集包含8189张图片来自102个不同类型的花没有属性的注释。然而,我们使用收集的细粒度的视觉描述[27]。太阳包含14340张图片与102年从717年的场景带注释的属性。统计的数据展示在表1。
对于真正的视觉特性,我们提取2048 -昏暗的顶层池ResNet101(单位56从整个图像。我们不做任何图像预处理如种植或使用任何其他数据增强技术。ResNet101 pretrained ImageNet1K和不精确。对于pseudovisual特性,我们使用我们的模型生成2048 -昏暗的特性。为类语义映射进行中,我们使用每个类属性远(85 -暗),幼崽(312 -暗)和太阳(102 -暗),年(64 -暗)。此外,对于数据集弗洛,我们1024 -昏暗的基于字符的特征提取的细粒度的视觉描述CNN-RNN [57]。
在测试时间内设置,目标是正确分类看不见的类标签,例如, ,在GZSL设置,搜索空间包括看见和看不见的类,例如, 。我们使用统一的评估协议(58]。内环境中,我们首先计算每个类别的平均精度独立,然后求和所有类别的平均精度和除以类别的总数平均每个类(精度(T1)。至于GZSL设置,我们计算出平均每个类(精度上看到类表示为年代平均每个类(精度上看不见的类表示为u;后,我们计算调和平均数作为最后的措施,例如, 。
4.2。实现细节
在我们的模型中,编码器,发电机,鉴别器都实现为多层感知器(MLP)。通过实验,我们发现,当语义嵌入的维度和高斯随机噪声 是相同的,zero-shot学习的性能是最好的。因此,我们设定的尺寸高斯随机噪声随着语义维度的每个数据集的嵌入。潜在的向量和语义映射进行连接和饲料到发电机。同样,鉴别器以输入为连接的图像嵌入的特性和类。,鉴别器,编码器和发电机都是两层全(FC)与4096年网络隐藏的单位。除了输出层G,其他组件使用LeakyReLU作为一个非线性激活函数。而对于G公元前,乙状结肠激活用于应用损失。通过实验,我们证明这个额外的分类器是单层感知器时,最好使用有识别力的信息通过视觉特性表示。模型训练使用亚当优化学习速率为0.0001。下面的建议WGAN纸(44),我们更新发电机每隔5鉴别器迭代。Hyperparameters和分别是初始化为1和10,然后通过交叉验证来调谐。
4.3。比较先进的方法
我们比较我们的方法和啤酒6],f-WGAN [8],SE-GZSL [52],Sycle-WGAN [22],LisGAN [24],f-VAEGAN [25],TCN [53],DVBE [55],SAE (45)内和GZSL,两个方法,CADA-VAE [54]和DVBE [55GZSL)进行比较。上述方法代表的或先进的发表在过去的几年里。在以前的工作(24,25),我们报告的平均每个类(精度。具体来说,新,我们报告(看不见的样本的准确性只有看不见的标签搜索空间。然而,GZSL,我们报告的准确性都见过类和看不见的类具有相同的设置(58]。本文的一些结果的报告也引用从[5]。
表2报告内的结果。在这些实验中,只有搜索的测试样本的类别 。可以看出,分类精度得到AWA1,年,弗洛,太阳,和幼崽是71.4%,44.9%,73.6%,65.1%,和62.6%,分别。我们提议AWA1框架提高了最先进的性能,年,弗洛,太阳,和幼崽数据集0.3%,1.8%,3.3%,0.4%,1.6%。至于AWA2,我们实现最好的作品。从表2,我们也可以观察到生成的方法,例如,LisGAN, f-CLSWGAN,和我们通常有更好的结果比嵌入的,例如,啤酒。氮化镓的方法将在ZSL转换为监督问题,看不见的类生成的视觉特征,而嵌入方法用间接的方式处理看不见的类。这也证明了内生成模型的有效性问题。一般来说,我们的方法产生最好的演出之一比现有方法在5 6个数据集。
表3总结了GZSL的结果。从表3,我们可以观察到,我们提出的模型具有更好的性能比现有的方法,类似于结论表2。我们的方法稳定预测看见和看不见的类。尽管一些以前的方法,如啤酒、识别看不见的样品在新环境中表现良好,他们的表现在GZSL显著下降。当看不见的类的数量变得更大,新模型总是混淆,导致性能下降。这一现象尤其明显当看不见的类的数量远比看到的类。此外,在现实生活中,见过的类,可以手工注释绝对是远比看不见的类。因此,这些新方法在实际应用的适用性有限,GZSL发展趋势符合现实。
我们使用调和平均数比算术和几何平均被认为是更稳定的测量平均值之间的准确性看见和看不见的类。从公布的业绩表3,我们可以发现,我们的方法比现有方法更稳定。我们建议的方法避免之间的不平衡和极端的结果年代 和u。作为调和平均数H而言,我们取得了高达0.3%,0.2%,3.1%,0.8%,和1.1%的改进AWA2,年,弗洛,太阳,和幼崽。在五个平均值是1.1%。尽管我们的模型并不在AWA1表现最佳,其性能几乎等于之前的艺术水平。从结果可以看出,我们的方法减少了精确已知类和未知类之间的差异在某种程度上,这验证了我们有效的泛化能力的方法。
考虑到f-WGAN和f-CLSWGAN利用甘斯合成看不见的视觉特性,性能改进的方法可以归因于两个方面。其一,我们引入一个分类器训练看到类来保证每个类的生成特性可以相互区分开来,这被认为是歧视的信息的使用。另一种是我们的分类器在测试时间自学习机制,这是能够利用自信的结果来调整自己。一般来说,结果验证它是有利于利用额外的分类器训练VAEGAN。正确的看不见的视觉特性保证每个合成生成分类样本特性高度相关的类别和区分。
4.4。讨论额外的分类器
在这里,我们分析的额外损失的影响与不同结构分类器的性能zero-short学习和广义zero-shot学习。数据集上的实验结果太阳和幼崽如表所示4。
从表中我们可以看出4单层感知器的效果是最好的在所有测试分类器,除了太阳内的准确性。所有分类器的输出层采用乙状结肠激活函数计算分类损失,因此限制双重一代网络合成的视觉特性表示容易分类。通过比较实验结果从2到4线和线在表3 - 74,我们发现使用ReLu作为隐藏层的激活函数效果最好。同时,从数据的最后三行和表的前三行4,可以看出隐藏层使用1024台比512内和GZSL。通过实验,我们发现使用单层神经网络作为一个额外的分类了解歧视信息不仅可以得到最好的结果,但也降低了运行时间。
4.5。合成图像特性的分析
为了提供一个直观的评价我们的模型,我们想象一些合成图像视觉特征的视觉特性和相应的真实图像的视觉特征看不见的类。结果如图所示6。为了方便起见,我们选择10看不见的类别AWA2数据集的可视化。首先,我们得到的语义映射进行和真正的图像特征选择类别。其次,我们将这些语义嵌入和高斯随机噪声输入学习了发电机获得合成图像的特性。最后,我们使用t-SNE [30.)减少合成和真实的视觉特征的维数从2048到2和情节获得特性数据为可视化散射。
从样品图的可视化功能6(一),可以看出某些类别重叠在很大程度上,如海豹、海象、蓝色鲸鱼和海豚。他们是合理的重叠,因为蓝色的鲸鱼,海豚,海豹,海象是相似的生物学和视觉上看起来很相似。合成图像的可视化特性如图6 (b)。通过比较6(一)和6 (b),我们可以清楚地发现对大多数类别,比如海豹和海豚,合成图像特性非常接近真实的样品,和他们中的一些人甚至重叠与实际样品,如马、羊、和长颈鹿。一个失败是老鼠,我们可以看到,合成功能远非真正的功能。另一个缺点是,几乎没有合成样品的类别之间的混淆,这是与实际情况相反。然而,最后softmax训练分类器可以预测大多数种类的测试图像的标签。
(一)
(b)
5。结论
在这篇文章中,我们讨论了广义zero-shot称为DGDI学习任务和提出一个模型,一个双重生成框架,结合条件VAE的优点和改进WGAN获得一个更健壮的生成模型的使用区别的信息通过添加一个分类损失。我们充分利用视觉特性表示类之间的区别的信息进一步提高双生成模块通过添加softmax分类器pretrained看到类来鼓励学习的发电机上区别的信息。六个数据集上实验结果清楚地表明我们的有效性提出了框架;我们的方法取得了良好的性能在几乎所有的数据集,这充分证明的重要性的视觉特性表征之间区别的信息类别。这是一个有意义的问题改善zero-shot精度和泛化能力的学习,我们将进一步研究。
数据可用性
在这项研究中使用的数据集可以从下载http://datasets.d2.mpi-inf.mpg.de/xian/xlsa17.zip。
的利益冲突
作者宣称没有利益冲突。
确认
这部分工作是支持下由中国国家重点研发项目批准号2019 yfa0706200,中国国家重大研究项目批准号下2018 aaa0102002,中国国家自然科学基金(国家自然科学基金委)批准号。61976076和61976076。