复杂性 复杂性 1099 - 0526 1076 - 2787 Hindawi 10.1155 / 2021/6206288 6206288 研究文章 一个Deep-Learning-Inspired Person-Job基于句子向量匹配模型和主项图 美术学 1 Zhenhong 1 https://orcid.org/0000 - 0002 - 7376 - 2925 Lingxi 2 1 学校的机械和电气工程 广州大学 广州510006 中国 gzhu.edu.cn 2 数据恢复四川省重点实验室 内江师范大学 内江 四川641100 中国 njtc.edu.cn 2021年 19 10 2021年 2021年 20. 8 2021年 7 10 2021年 19 10 2021年 2021年 版权©2021王晓伟et al。 这是一个开放的文章在知识共享归属许可下发布的,它允许无限制的使用,分布和繁殖在任何媒介,提供最初的工作是正确的引用。

在这项研究中,一个端到端的person-to-job post数据匹配的模型,和实验匹配实际的招聘数据的人。首先,构建知识的表示在低维空间。然后,它解释了在双向编码器陈述变压器(BERT) pretraining语言模型,这是介绍作为文本信息编码模型。person-post匹配的结构模型是解释的注意机制及其计算层。最后,基于person-post匹配模型实验与各种person-post匹配方法相比在实际的招聘数据,与实验结果进行了分析。

开放研究基金项目的数据恢复四川省重点实验室 DRN19012
1。介绍

在person-job合适的早期研究中,研究人员通常专注于个人和组织之间的关系(P-O)和人与环境(次) 1, 2]。在此基础上,一些person-job适合模型如招聘模型基于P-O适合[ 3)和加权P-O关系研究方法( 4)开发。此外,一些研究人员提出了关注的个性和工作特征,预测person-job健康有重要影响( 5]。随着机器学习的发展和深度学习,越来越多的机器学习领域的研究人员关注person-job健康。一些研究人员使用反向传播神经网络设计的端到端适合模型,( 6)而另一些手动输入特性和使用支持向量机来测量符合的程度( 7]。这些方法主要依靠手动功能建设和需要相关领域的许多专家的参与。此外,这些方法不能完全探索潜在的信息连接。一些先进的方法使用word2vec嵌入层来表示文本和递归神经网络或卷积神经网络(CNN)作为特征提取器( 8, 9]。然而,这些先进的方法仍然需要截断控制大量的句子和文本的整体长度,避免大量输入的特征维度。此外,一些研究人员使用推荐系统的概念全面调查用户首选项和项目之间的匹配 10, 11提出建议之前)。其他研究综合最优的历史数据来衡量和计算功能( 12]。因此,嵌入先验的方法过去简历功能更新调查不仅当前简历和需求之间的匹配也其他信息。研究中引用,双向的推荐系统 13, 14)是一个重要的分支领域的个性化推荐系统。双向人才推荐系统匹配应聘者和招聘人员之间的偏好和需求。这种双赢的策略提高了匹配的精度。相似的技术结合了显式和隐式偏好数据从求职者和招聘者也被提出( 15]。这种技术利用两个求职者的偏好之间的关联和招聘人员,因此推荐结果有积极影响。

一些研究者还建议将大量的先验信息专家团队提供更准确定向推荐一些专业人士 16, 17]。然而,依靠大量的专业知识会导致非常高的使用成本,阻碍了一个自动化的施工方法。相关的任务还包括预测人才流动的方向( 18),调查申请人的天赋技能的网络图( 19]。在这些任务中,我们探索了申请人的天赋技能的重要性。

基于这些先前的研究,我们的目标是减少句嵌入模型的缺点,充分表达的相关性。此外,我们的目标是充分表达求职者和招聘人员之间的相关性和文本的主题信息,将推荐系统的概念 20.- - - - - - 24]。因此,我们提出一个端到端的person-job适合模型,使用句子向量表征和整合知识图信息,称为KG-DPJF。我们遵循江的方法等。 25]。模型使用多层的注意机制全面检查候选人简历特性之间的信息交互和招聘需求特性。KG-DPJF嵌入学科术语信息和知识图信息充分探索候选人的文本描述符之间的关系。此外,翻译嵌入(TransE)方法用于简历实体信息表示为一个低维向量,然后嵌入到模型中。

2。知识表示

因为这项研究是基于知识person-post匹配模型,传统的知识表示方法和单层神经网络模型不能恰当地描述语义实体之间的关系。基于距离测量的使用反式方法能更好地描述空间实体之间的结构信息,将更准确的先验知识嵌入到模型中。然后,我们定义知识地图, G,所有三重关系中包含它。 (1) G = h , r , t

G构造,实体和关系映射到低维连续使用TransE向量空间。假设 h, r, t相对应的向量的头,关系,分别和尾巴。如果有三重关系,它是假定表明头部实体指向尾部实体关系。然后,TransE得分函数 (2) f r h , t = h + r t 2 2

得分函数越小,更可靠的三重关系( h, r, t图)的知识。此外,TransE模型有几个参数和较低的计算复杂度,而且它还具有良好的性能和可伸缩性的大规模稀疏的知识库,适合快速推理任务场景。

3所示。伯特编码

使person-post匹配模型学习简历中包含的文本信息和招聘要求,有必要使用嵌入空间矩阵变换这个词的文本语料库的简历和招聘需求到一个低维密集空间向量。如果一个炎热的表示方法是用来表示句子中的每个单词矢量地,例如,在“深度学习”,这个词假设所有单词的词典由只有四个字,一个炎热的表示形式是(1,0,0,0)。当字典的数量非常大,每个单词变成了高维稀疏的张量;因此,它显然是不合适的输入person-post匹配模型。此外,每个单词可以通过word2vec嵌入低维空间有限。例如,深度学习可以映射通过将在单词层面嵌入到一个向量的维度(200 4)。即使字典包含超过1000个单词,每个单词可以被映射到一个低维的word2vec嵌入矩阵作为下游的输入模式。但是,统计数据显示,单词的长文本项的数量在每个原始简历非常大,这让压力模型操作,和需要更多的文本截断模型输入,导致person-post匹配任务的匹配精度的损失。基于上述考虑,伯特的pretraining编码器用于编码的句子的简历和招聘要求,和强大的学习能力信息伯特语言模型是用于编码的长文本简历和招聘需求的长文本句子伯特编码器pretrained基于中国大型数据。模型可以进一步减少需要输入的特征维度对下游任务和保留尽可能多的文本信息。 Based on the representation ability of the large-scale pretraining model, all representation information in downstream tasks is fine-tuned to achieve fast and better results.

句子的数量实际所需的简历和招聘不一定是相同的,因为内容记录在文本本身是不一致的,既可以减少输入功能维度之间的匹配模式,只有输出编码向量的句子。编码基于pretraining模型结合的知识提取的原始语料库可以提供更多的语义信息模型。通过这种方式,不仅是维护的信息量也推理模型可以在一定程度上加速。这个句子由伯特可以表示为编码过程 (3) C = 伯特 年代 1 , 年代 2 , 年代 3 , , 年代 t , 其中伯特表示基于伯特编码器。中国pretraining模型使用768 -维pretraining模型, 年代 1 , 年代 2 , 年代 3 , , 年代 t 文本分割和后是这个句子吗 t表示句子的总数。 C d t × d e ,在那里 d e = 768年 是固定的编码长度。通过以上计算,句子表达嵌入矩阵 C 可以生产,可以输入下游任务模型替换句嵌入矩阵输入。

4所示。Person-Job匹配模型

在实际招聘过程中,关键的信息记录在简历和招聘需求往往决定了关键的就业意向招聘过程。现有person-post匹配模型直接拼接恢复特性和招聘需求的特性和输入到预测层,导致较低的可解释性和缺乏信息流招聘和需求之间的关系。为了解决这些问题,我们需要完全模拟招聘流程和构建基于注意机制匹配模型。模型分为特征表示,关注交互层,和预测层,如图所示 1

KG-DPJF的结构模型。

特性表示层必须进入图嵌入矩阵,即信息表示矩阵图的构建知识地图后获得的供应和需求是由反式训练算法。特征表示层还包括文本信息的特征表示,代表了字面意思文本信息通过使用pretraining伯特模型。注意交互层使用注意机制的输出加权值的集合之间的候选人简历,历史最好的简历,招聘需求。预测层接受组权重值和特性输入加权的简历和历史简历通过分类器和输出预测结果。

模型的设计是基于深度学习模型的施工过程,包括预处理、特征表示,多层感知器,和分类器。这包括模型的预处理:从上面的部分,可以使用伯特编码器编码输入文本的分割句子的简历和招聘需求和输出字面意思向量。这些向量直接形成嵌入式文句上拼接后权重矩阵。此外,我们使用反式学习所有的知识地图的结构信息和输出一个低维稠密的实体嵌入权重矩阵。在随后的匹配的推理过程,所有的实体向量输入文本分割句子,和实体嵌入矩阵是拼接后形成的。

特征表示层,模型的输入特性包括三个模块。第一个是当前输入的候选人的简历,包括工作经验分割句子,项目经验分割句子和实体。第二个是历史最好的简历 p n, n代表历史的简历。它还包括工作经验分割句子,项目经验分割句子,和实体。最后,招聘需求的简历包含的工作需求,细分的句子,和实体。此外,其他输入,如实体包括上下文和匹配分数。根据深度学习模型中,这些特性是离散的,可以转换为高维向量独立的热量。深度学习模型的建设,一个独特的热向量转化为低维稠密的特性通过嵌入层。功能项转换是字面意思表示,所以每个实际简历分割句子为代表 v 。例如,当前的特征表示简历简历的功能选择 j,它可以表示为 (4) j = v 1 , v 2 , v 3 , , v d d j × d v ,

在哪里 v 句子是句子向量在每个分段编码。 d j表示句子分割的总数, d v 代表伯特编码后的向量维数。分段的数量的句子通常是有限的;即向量伯特编码的句子句子嵌入矩阵,这是加载到运行模型,当模型图。历史招聘的表现特征 p招聘需求的特点和表示也可以表示为 (5) p = l 1 , l 2 , l 3 , , l d d p × d l , = k 1 , k 2 , k 3 , , k d d × d k ,

在哪里 l k是历史的句子向量分割后的句子表达的招聘和招聘需求编码。 d p d k表明分割句子的总数 d v d l, d k是相同的代表伯特编码后的向量维数。

功能交互层:它的基本结构是一个交互式计算层基于特征提取和注意力机制获得的简历和招聘需求之间的相关性的隐式方法。特殊的表示层后的句子特征向量矩阵与实体矢量拼接,实体矢量包含实体和实体的上下文信息。拼接的特征矩阵提取使用卷积神经网络(K-convolutional神经网络(KCNNs))和简历的输出表示向量和一个固定的维度 c, n历史的简历吗 p和目前的招聘需求。同样,嵌入层后表示,这是信息提取的卷积神经网络的输入,和历史生成的简历表示, u 。招聘需求 o。其中,KCNN卷积是一种卷积神经网络,使用不同的多个提取和叠加检查功能。这是表示为 (6) = c ˜ h 1 , c ˜ h 2 , , c ˜ h ,

在哪里是subconvolutions和卷积核大小的数量吗 h 。这是一个初步的特征提取方法。卷积层结构之间的参数数据是共享的,这不仅可以减少内存空间,也使参数矩阵更加灵活,这是方便关注交互式学习在以后的分支。建模关系当前的简历和历史的简历是由加权功能互动机制的方法,注意,结果表达的表示当前的简历 C。和 u 之间的相关性的重量是 一个 ^ j ;这被认为是一个候选人的简历和历史之间的信息增强最好的简历。这两个历史平均恢复功能是同样的加权和。同时,同样重视算法是用来表达之间的相关性权重招聘需求和历史的简历 一个 ^ 一个 ^ j 一个 ^ 可以通过以下公式表示: (7) e j = z 双曲正切 W j c + W p u + b , 一个 ^ j = 经验值 e j = 1 T 经验值 e j , e = z 双曲正切 W o + W p u + b , 一个 ^ = 经验值 e = 1 T 经验值 e ,

在哪里 W j d h × d c , W p d h × d u , b d h , z d h , W d h × d o , W p d h × d u , b d h , z d h 训练参数矩阵。然后,输出加权向量的关注表示当前的简历 c 。加权向量是招聘表示 o ,可以表示为下面的公式: (8) c = l T 一个 ^ j c , o = l T 一个 ^ o

在这里,使用另一对一层一层的关注, c′ o′进行相关计算。输出是 一个 ^ c 。注意层主要用来模拟相互关注匹配过程的实际招聘过程,全面衡量之间的隐式相关性三个,并为分类提供考虑输入层。 一个 ^ c 可以通过以下公式表示: (9) e ^ c = z ˜ 双曲正切 W j c + W o + b ˜ , 一个 ^ c = 经验值 e ^ c = 1 T 经验值 e ^ c , 在哪里 W j d h × d c , W d h × d o , b ˜ d h , z ˜ d h 。加权后的最终恢复特性计算 一个 ˜ c 。计算过程可以表示为 (10) 一个 ˜ c = l T 一个 ^ c c

最后,计算后,所有相关权重拼接 u ^ = 一个 ^ c , 一个 ^ j , 一个 ^ u ^ 代表 一个 ˜ c o 后拼接;构成了预测的输入层 X ^ = 一个 ˜ c , o , u ^ 。预测层充分考虑增强简历表示,招聘需求的表示,所有相关性计算模型和输出匹配的预测价值。

毕竟在预测层特性表示已通过多层注意力机制层,它们的加权特征向量和相关值输出。这些向量通过完整的连接层连接。隐藏层使用多层神经网络完全连接层和修正线性单元功能来激活。最后,输出被激活使用s形的函数。乙状结肠叉损失函数是用来计算逻辑输出和标签之间的损失。最后,特征向量输入完全连接层关注的输出层,和分类标签是ReLU类别 y 0 1 。因此,损失函数的计算公式 (11) l 目标 = 1 N x , y D y 日志 f x + 1 y 日志 1 f x , 在哪里 D训练集, N总样本中 f( x由感知器)是预测结果输出。

5。实验

用于person-post匹配实验的数据收集的数据是一样的知识地图时创建的。然而,由于不同的实验方法和数据处理方法,收集到的实验数据包含匹配标签匹配控制person-post匹配实验。

5.1。数据集预处理

实验使用e-resume数据基于实际的招聘过程。格式和提取麻木的数据和干净的数据。指的是施工方法的深度学习模型,person-post匹配模型使用TensorFlow平台,构建和数据转化为模型的输入格式。数据集的形式存储在数据恢复相应的位置。同时,招聘的招聘机制平台和公司的企业就业机制也应考虑在实验之前。企业的招聘流程:企业必须大致选择许多候选人简历,并将它们放入到人才招聘平台存储的文件夹简历或提交的简历的求职者。然后,选择一些合适的人员邀请参加面试。最后,只有一些候选人顺利通过面试,将正式聘用。这也是分类的基础。0意味着候选人只停在舞台上人才简历进入文件夹,1只意味着完成邀请面试阶段,和2意味着他们通过邀请面试,得到一个报价。 Note that there are only 0 and 1 labels in the training data; that is, only the data that passed the interview will be given a score of 1, and the rest of the resumes in other stages will be given a score of 0. This is meant to be close to the actual recruitment process and make the model more predictive when combined with the data.

同时,三个一组的所有信息从语料库中提取是基于反式训练算法。映射数据集文件的实体、关系、构造和三元组,数据转换为一个序列。然后,数据划分和标示如下:80%的数据作为测试集,10%的数据被用作第二个测试集,和剩下的10%作为验证集。输出嵌入模型尺寸设置为50。培训完成后,增长大约4 h。

准备所需的数据模型之后,它开始训练阶段。整个模型包括训练和调整阶段。两个阶段可以进行循环迭代。丰富知识地图后连续新知识的基础上,它可以执行连续训练生成知识表示,然后火车person-post匹配模型形成一个完整的模型应用迭代模式由知识驱动的。

在训练和预测,新知识就是从文本中提取预测。新知识是映射到嵌入式空间通过简历的指数关系ID对应的实体。每个简历中描述的技能关键词包含句子的主要思想和匹配任务提供信息支持。

此外,匹配最优的历史数据集构造基于模型设计。没有区别的最佳历史匹配数据集和普通的培训或测试数据集,但最优历史匹配数据存储预设数据最好的职位的候选人。设置的目的是模拟推荐系统的实践,将历史最优匹配信息嵌入到模型,模型,让学习简历和预测之间的关系的历史最优匹配结果来提高模型的匹配性能。

5.2。实验参数

能编码、语句实现pretraining伯特模型采用。所以,在线伯特服务可以使用基于并行处理。关于服务的信息设置伯特在表描述 1。并行运行的数量设置为4。中国768维度用于pretraining模型文件。并行运行的数量取决于GPU(图形处理器)的核心,这影响编码速度。基于伯特下游任务的概念描述,模型的输出层的输出操作得到了模型的中间层和作为中间层的参数或模型的输出层,它允许下游任务改进培训使伯特模型有更好的域的语义表达能力。在这里,我们首先遵循原始pretraining伯特的输出代码和输出句子向量。person-job匹配模型参数,如表所示 2,这个句子嵌入向量的长度是768,和实体嵌入的大小是50。此外,历史最佳招聘记录输入的数量是4,这取决于历史的平均数量匹配简历收集的位置。

伯特服务器的主要参数。

项目 标签描述 参数操作
BERT_config BERT_config.json 伯特模型的参数固定设置文件
许多并行服务 4 调整由伯特服务器同时处理的任务数量
伯特pretraining模型参数文件 chinese_l - 12 - _h - 768 - 12 中国768 -维pretraining模型
Model_dir 文件地址 伯特pretraining模型存储的地址
Vocab_dir 文件地址 解决词汇的同义词典的存储位置
Input_length 512年 最大允许句子长度

person-post匹配模型的主要参数。

项目 标签描述 参数操作
Num-history 4 模型加载历史上最优数量的恢复数据拷贝
学习速率 0.001 学习速率影响培训的时间和效果
Batch_sizes 8 为模型输入的批处理数据量训练
过滤器 [1,2] CNN卷积内核步长选择
Entity_dim 50 嵌入式向量的长度的实体
时代 500年 控制训练轮的总数

在解释设置信息所需的实验和数据分析,最后一个实验通常分为以下四个步骤:

数据预处理:正则表达式是用来消除重复和连续的标签,大面积的空行,压痕。

建立一个person-post匹配模型:匹配模型的框架下TensorFlow。然后,构造训练计划,文件地址保存培训被选中。

hyperparameters后根据实验条件,设置必要的函数库安装,培训项目启动,亚当的模型优化算法。电脑有4个gpu,准备实验和12 G内存。模型的图形卡是RTX2080s, CPU的内存是64 G。

参数的调整,以达到最佳的性能模型和记录实验数据。

5.3。基线和评价

这部分是指许多现有man-post匹配评价方法( 26- - - - - - 30.]。因此,在实验阶段验证模型的性能,传统方法包括逻辑回归(LR)模型和决策树(DT)方法用于构造person-post匹配模型,以及现有的主流person-job适合神经network-RNN (PJFNN-RNN)模型基于RNN的。由于行业数据的测试,需要创建多个基线方法取决于输入模式。根据设计的输入模式person-post匹配模型,实验还特别使用CNN结构构造一个模型来验证集成一个多层的注意机制的重要性。模型之间的比较然后执行pretraining word2vec伯特后能嵌入语句嵌入层和模型的编码。然后,实验还比较使用word2vec person-post匹配模型的性能和伯特编码,实验也指一个基线的文本语义匹配方法,即通过测量测量句子之间的相似度。最后,删除的性能对比实验也进行了知识地图。

的理念构建基于CNN作为基线模型特征提取层的灵感来自于端到端的person-post匹配在现有文献工作。模型的特征向量表示的文本语料库,它接受的输入简历和招聘需求,然后使用一个CNN与共享特征提取功能,并输入到分类层平均后激活输出分类概率。以来的输入数据集模型是一致的输入数据集person-post匹配模型,伯特编码方法也可以使用在这个实验中编码的句子表示,和word2vec方法也可以用来获得平均句子向量。

后所代表的简历和所需的文本嵌入层,输入到CNN,和简历表示特性输出,分别 年代 ^ J 和需要的特点 年代 ^ 。这些功能是输入分类器 D通过加权预测和输出到乙状结肠层激活功能层 y ^ 的概率 (12) D = 双曲正切 W d 年代 ^ j ; 年代 ^ ; 年代 ^ j 年代 ^ + b d , y ^ = 乙状结肠 W y D + b y

此外,它还提供了一种方法,句子之间的语义匹配长文本所需要的工作职位相比,文字如工作经验和项目经验。这个想法来自于短句子语义匹配方法。首先,这句话是分段,然后以前训练的字嵌入矩阵word2vec200和腾讯等嵌入用于计算文本的向量表示的分词。所有的向量形式表示句子语义矩阵 V t ,然后文本句子的语义矩阵的维数降低输出句子向量,然后距离测量方法是用于匹配的句子。目的是计算之间的距离长文本数据的电子简历和招聘需求的长文本数据中列出的招聘信息,然后通过整体相似度计算最终的匹配分数。这允许测量的简历和职位之间的匹配程度。余弦相似度的距离可以测量,计算公式如下: (13) 因为 θ = = 1 n x × y = 1 n x 2 × = 1 n y 2 , 在哪里 x y 分别代表两个句子向量需要计算余弦相似性。从空间的角度来看,这两个句子可以表达为两行中嵌入空间,以坐标原点为出发点和指向不同的方向,这之间形成一个夹角双线段。如果该夹角为0度,这意味着两个方向的向量空间是相同的,两条线重合。这也意味着文本语义两个向量所代表的是完全相同的。如果夹角是90度的直角,它表明,方向是完全不同的,语义的结果是不同的。如果夹角是180度,这意味着相反的方向向量和语义不相似。因此,我们可以表示的文本信息的简历和招聘需求根据训练有素字嵌入模型,然后判断向量表示的语义相似度夹角的大小。夹角越小,越相似的句子语义。这也是由分段的句子在上面的数据集,和实验进行基于上述想法。

实验方法是计算相似性所有句子根据简历和招聘职位的句子,选择相似度值最高的招聘需求文本基于所有简历一个接一个句子,然后根据简历的数量正常的句子,最后计算匹配度。例如,句子1和所有recruitment-required句子之间的相似度计算,和最高的相似度值是选为句子的最佳匹配句子语义的简历,然后依次计算。注意,招聘需求匹配的句子后,他们又不能匹配。因此,从的角度来看这是匹配的简历。

当比较之间的分割句子简历和招聘要求,输入数据是简历文本信息,该公司招聘所需数据的文本信息。后嵌入空间转换和平均被执行时,这个信息将计算如上所述,直到所有距离计算,结果符合服务的数量对匹配的输出,即。,它代表了匹配程度。

最后,模型的性能比较与前沿person-post匹配模型PJFNN-RNN不同结构下的数据来验证模型的性能。PJFNN-RNN是一个端到端的模型基于RNN的特征提取器所需的简历和文本。与前面的数据分析相比,实验是基于行业数据收集的真实的企业,招聘的门槛和有固定要求规定。因此,在招聘过程的分析中,承认通过率是标签设置为1,和一个失败的结果是标签设置为0。的准确性,准确率召回率, F1值作为评价指标结果。最后,80%的数据集作为训练集,选择下一个10%是用于调整参数,最后10%是用作测试数据作为测试集。值得注意的是,表 3也反映出数据不平衡和标签类别不平衡的问题。然而,由于民用部门和技术部门之间的差异,将数据分为民用部门和技术部门。同时,一些抽样方法是有限的,因为实际的招聘结果。因此,实验也根据实际生产应用程序,通过与企业的合作,使用一些人工知识提高的一些数据。例如,低层次开发职位的简历的描述可能接近中级开发的文章,并指出,大约3.72%的候选人选择同时申请多个职位。基于这个想法,少量的类似的工作职位是采样和手动标记,和数据集添加到入学面试文件类别。

实验数据的分析。

统计数据 价值
求职者的简历提交比例同时为两个或两个以上的职位总数的简历 0.0372
平均每个恢复的技术文章的字数 1271年
实验数据分析 643年
招聘技术岗位的比例 0.3733
文职职位招聘比例 0.2642
5.4。实验结果和分析

最重要的和实验的难点是处理简历,招聘数据和模型训练集的建设。我们的实验是基于行业语料库在实际招聘过程中收集的数据。收集到的简历和post数据文件后的企业招聘平台严格脱敏措施转化为数据集预处理后的数据文件。通过分析实际应用需求和相关文献,任务分为两类进行详细的实验人类工作匹配任务。

首先,正如结果表 4显示,构建嵌入式知识地图和BERT-based person-job适合知识是基于deep-learning-inspired person-job拟合模型,KG-DPJF。表 4显示的性能基于知识person-post匹配模型和多层的注意机制的实验。除了模型之间的对比实验和一些基线模型,包括DPJF (deep-learning-inspired person-job拟合模型),一些烧蚀实验也进行。人类设计的职位匹配模型集成知识地图和注意力机制比传统分类器输入功能,和 F1值提高了近13%。同时,使用多层关注的相关法计算模拟模型的招聘过程也提高了性能。而CNN单独使用特征提取器, F1值提高了近6%。此外,相对于直接使用pretraining word2vec200编码,使用伯特编码可以提高性能。这表明伯特模型基于非监督训练的大量中国主体之一可以给person-post匹配模型更多的语义知识的学习,还可以调整和伯特再次基于域的数据。此外,图 2还显示训练时间的分析也表明,利用BERT-based句子编码方法在训练时间也有显著的优势,而方法完全基于句输入特征提取层所需的计算量大大增加,导致较长的训练时间,这可以进一步启发的研究理念构建person-post匹配模型的两阶段模型结构。此外,基于以上,因为知识是输入中的实体嵌入层person-post匹配模型,实验的知识输入可以删除。在实验中,模型中嵌入知识地图对找工作有更好的性能比模型没有找工作的嵌入式知识地图,这也表明,实体与先验知识嵌入方法person-post模型匹配的信息可以帮助更好地理解潜在的技能和关键字后面的句子的意思,表达增强的实体词之间的相关性,并结合伯特的丰富的语义信息。它不仅可以减少计算量和提高操作速度也提高匹配精度。这意味着,在招聘过程中,人力资源部门能够判断候选人是否能够满足标准的基于文本内容的关键信息。

实验性能table-no结构化数据。

模型 精度 精度 回忆 F1
逻辑回归 0.5091 0.4493 0.4473 0.4627
决策树 0.5369 0.4478 0.4615 0.4646
CNN和word2vec200 0.5632 0.5001 0.5385 0.5185
CNN和伯特 0.5736 0.5147 0.5465 0.5383
DPJF-word2vec200 0.5939 0.5278 0.5846 0.5548
DPJF 0.5874 0.5421 0.5974 0.5684
KG-DPJF 0.6139 0.5810 0.6047 0.5926

性能比较word2vec和能嵌入语句之间。

然而,应该注意的是,只有非结构化数据用于测试的输入和输出匹配现有person-post匹配模型;即,多年的工作和性别等信息输入,只有工作经验和项目经验保留这些离散特征有不同的处理问题。

在表 5person-post匹配模型,我们可以看到PJFNN-RNN构造基于RNN,这是一种匹配模式感知基于RNN person-post文本信息。PJFNN-RNN模型是基于损失函数余弦距离。因此,我们可以比较的性能模型基于非结构化数据,也就是说,作为输入长文本。从表中,我们可以看到KG-DPJF模型PJFNN-RNN相比有一些改进。KG-DPJF模型更多的语义知识执行比仅仅依靠长途特征提取的方法和多层CNN提取。与此同时,这些方法也有表现好于基于余弦距离重排和DT的方法。可能是他们只依靠句子向量之间的距离计算而不学特性信息,不能充分利用语义信息。

比较experiment-no结构化数据。

模型 精度 精度 回忆 F1
逻辑回归 0.5091 0.4493 0.4473 0.4627
决策树 0.5369 0.4478 0.4615 0.4646
余弦距离 0.5275 0.5281 0.5034 0.5169
CNN和word2vec 0.5632 0.5001 0.5385 0.5185
CNN和伯特 0.5736 0.5147 0.5465 0.5383
PJFNN-RNN 0.6023 0.5716 0.5864 0.5789
KG-DPJF 0.6169 0.5810 0.6047 0.5926

6开始实验将非结构化数据。、年龄、性别和其他特性。同时,输入了非结构化知识实体。然而,当构造输入,对于这些任意数据,我们首先使用一个炎热的形式编码测量不同模型的性能。实验结果表 6离散数据显示,使用一个炎热的编码可以提高这些模型的性能。的上下文中分析,匹配是很有帮助的,因为它丰富了一些重要的输入匹配信息,如性别和教育。然而,在一个炎热的正式编码都有自己的缺点,因为它掩盖了一些语义信息,比如进步关系和教育水平的重要性。

在一个炎热的比较实验与结构化数据。

模型 精度 精度 回忆 F1
逻辑回归 0.5955 0.4973 0.5034 0.5040
决策树 0.6247 0.5159 0.4800 0.4973
PJFNN-RNN 0.6333 0.6511 0.5689 0.6079
KG-DPJF 0.6562 0.6467 0.6018 0.6286

实验结果如表所示 7。等离散数据的结构化数据,我们试图利用伯特统一编码成一个公共空间丰富的语义信息和输入到person-post匹配模型训练结合实体信息,剩下的非结构化数据。实验结果表明,这些模型已得到改进的性能在一定程度上,这些模型可以统一编码到共享固定空间使用伯特在非结构化数据和结构化数据提供一些信息,培训前的语言模型。特别注意机制匹配模型在本节基于知识地图和伯特可以统一编码输入和编码空间和学习丰富的知识库信息从先验知识和语言模型。这使我们能够提高模型的性能,也照亮未来的性能伯特域表示可以在第一阶段调整。通过这种方式,两级person-post匹配任务的性能改善。

伯特比较实验结合结构化数据。

模型 精度 精度 回忆 F1
逻辑回归 0.6023 0.4956 0.5177 0.5063
决策树 0.6274 0.5138 0.4967 0.5050
PJFNN-RNN 0.6528 0.6274 0.5953 0.6109
KG-DPJF 0.6522 0.6483 0.6125 0.6298

本文详细person-post匹配进行了应用实验。从上面的实验结果和分析,发现person-post匹配模型基于注意机制设计的在这一节中可以实现良好的匹配效果,实现简历和招聘需求之间的匹配程度。总结的文献和实验结果的分析,发现仍存在一些常见的缺陷存在的实验任务person-post匹配:

不可避免的文本截断:e-resume数据今天的实际招聘平台,经常有许多句子的非结构化数据。单词的数量显示在语料库统计信息地图在实验中不符合实验数据最近其他文学作品。这是因为其他作品通常使用截断或罚款的方法提取实验之前,限制单词的总数在一定范围内,甚至不到一半的单词的总数。通过这种方式,我们不适应的方法使用pretraining向量表示、特征提取以及希望完全学习句子的语义信息。本研究探讨了如何充分利用pretraining句子信息,pretraining模型和先验知识来解决这个问题。

匹配的缺陷造成的数据不平衡:在现实电子简历数据中,数据通常包含一种数据,而其他作品通常物品如性别和教育转化为离散数据。这是因为他们的价值观可能有能力改变整个招聘的角度等教育:大师和大学学位。这些命令数据集不能解决深度学习方法在实际招聘数据。此外,还有一个招聘歧视和样本数据之间的关系。这通常反映了招聘的不平等。例如,据统计,男性比女性有更多的程序员。模型应该理解和避免这些数据集。然而,在实验桌上 7,而不是按摩数据,数据被视为短句子,编码它们的语义信息,嵌入的实体信息,表达的主题学习转移到匹配的模型。在未来,我们将调查是否知识地图提供有效信息和内部关系的处理这些命令数据。

6。结论

基于知识地图的供给和需求,本研究和代表知识嵌入低维稠密的空间。person-post匹配模型的研究表明,基于知识和语言模型比现有的更好的性能和更可解释性person-post匹配方法,可为将来的工作提供一些线索person-post匹配。

数据可用性

期间产生的所有数据或分析本研究包含在本文中。

信息披露

王美术学和江Zhenhong co-first作者。

的利益冲突

作者宣称没有利益冲突。

确认

这项工作是支持的开放研究基金项目的数据恢复四川省重点实验室(批准号DRN19012)。

没有汽车的 美国一个。 Person-job适合与人与组织匹配的预测组织的吸引力和工作验收的意图:一个纵向研究 职业和组织心理学杂志》上 2005年 78年 3 411年 429年 10.1348 / 096317905 x25995 2 - s2.0 - 25444515964 Werbel j . D。 Gilliland s W。 Person-environment与选择的过程 在人力资源管理研究 1999年 17 209年 243年 C。 Y。 基于人的招聘模式匹配 研究金融和经济问题 2006年 3 94年 98年 Sekiguchi T。 休伯 诉L。 人与组织匹配的使用和person-job适合选择决策的信息 组织行为和人类决策过程 2011年 116年 2 203年 216年 10.1016 / j.obhdp.2011.04.001 2 - s2.0 - 80053287197 Ehrhart k . H。 工作特性的信念和个性主观person-job适合的先例 业务和心理学杂志》上 2006年 21 2 193年 226年 10.1007 / s10869 - 006 - 9025 - 6 2 - s2.0 - 33750802117 Z。 年代。 应用person-job适合评价BP神经网络在知识工作者 武汉科技大学学报 2010年 32 3 515年 518年 必应 Y。 J。 在person-job适合支持向量机评价中的应用 林业& Fechnology中南大学学报(社会科学) 2011年 5 6 92年 94年 C。 H。 T。 C。 l 加强person-job适合人才招聘:ability-aware神经网络方法 学报》第41届国际市立图书馆会议信息检索的研究与开发 2018年 安阿伯市,美国 25 34 C。 H。 H。 C。 F。 P。 P。 Person-job适合:调整合适的人才在合适的工作学习联合表示 ACM交易管理信息系统 2018年 9 3 12.1 12.17 10.1145 / 3234465 2 - s2.0 - 85054558049 Y。 英格拉姆 年代。 吉莱 D。 找工作和招聘网站的推荐系统 美国22日国际会议在万维网上 2013年 纽约,纽约,美国 963年 966年 Gionis 一个。 Gunopulos D。 Koudas N。 机器学习的工作建议 《第五ACM关于推荐系统的会议 2011年 美国芝加哥 325年 328年 D。 l H。 设计和实现的工作推荐系统基于随机游走的毕业生 广西师范大学学报 2011年 29日 1 179年 185年 Weitzel T。 匹配的人和工作:双边推荐方法 学报》第39届夏威夷国际会议系统科学(HICSS 06年) 2006年 考艾岛,嗨,美国 IEEE 10.1109 / HICSS.2006.266 2 - s2.0 - 33749587309 T。 J。 Koprinska 我。 Pizzato l 球员 T。 Yacefcullum K。 互惠推荐系统 学报》第八届智能Web个性化和推荐系统技术研讨会(2010年UMAP”) 2010年 大岛,嗨,美国 1 12 H。 C。 F。 互惠推荐算法提出的招聘 信息与计算科学杂志》上 2011年 8 16 4061年 4068年 Trewin 年代。 基于知识的推荐系统 图书馆和信息科学的百科全书 2000年 69年 69年 180年 维拉斯 j . D。 Palade V。 建立一个知识库实现基于互联网的电脑推荐系统 国际期刊的人工智能工具 2007年 16 5 793年 828年 10.1142 / s0218213007003552 2 - s2.0 - 35549005045 l H。 T。 C。 C。 H。 E。 大规模的人才流动和动态潜在因素模型预测吗? 学报2019年万维网会议 2019年 旧金山,加州,美国 2312年 2322年 T。 H。 C。 H。 测量工作技能在招聘市场的流行:一种多标准的方法 2018年 https://arxiv.org/abs/1712.03087 T。 B。 妞妞 D。 K。 Y。 多分辨率图像注意网络相关匹配 美国27日ACM国际会议信息和知识管理 2018年 意大利都灵 933年 942年 10.1145/3269206.3271806 2 - s2.0 - 85058016619 Z。 越南盾 Y。 C。 W。 深度匹配为个性化的点击率排名模型预测 人工智能学报三十四AAAI会议 2020年 纽约,纽约,美国 l H。 Y。 Y。 X。 P。 跨国的幸福与大数据技术的研究 ACM交易在亚洲和资源缺乏语言信息处理 2021年 20. 1 1 12 10.1145 / 3412497 Z。 c K。 H.-X。 死区补偿和自适应不确定的空间柔性立管系统的振动控制 IEEE 2020年 25 3 1398年 1408年 10.1109 / tmech.2020.2975567 Z。 Z。 限定时间收敛扰动抑制控制灵活的得票率最高机械手 IEEE / CAA自动化杂志》上 2021年 8 1 157年 168年 10.1109 / jas.2020.1003378 Z。 l l Person-Job适合模型基于字面意思表示和theme-word图 学报2021年IEEE第五先进的信息技术、电子和自动化控制会议(IAEAC) 2021年 法国贡比涅 1902年 1909年 Z。 W。 K。 双向LSTM-CRF模型序列标签 2015年 https://arxiv.org/abs/1508.01991 誉为 一个。 Usunier N。 Garcia-Duran 一个。 韦斯顿 J。 Yakhnenko O。 翻译为建模multi-relational数据嵌入 先进的神经信息处理系统 2013年 2 2787年 2795年 Devlin J。 M。 K。 Toutanova K。 伯特:训练的语言理解的深度双向变形金刚 2018年 https://arxiv.org/abs/1810.04805 C。 H。 T。 C。 C。 E。 H。 一个增强的神经网络方法person-job适应人才招聘 ACM交易信息系统 2020年 38 2 1 33 10.1145 / 3376927 C。 H。 H。 P。 招聘市场趋势分析顺序潜变量模型 22 ACM SIGKDD学报》国际会议 2017年 旧金山,加州,美国 383年 392年