在这项研究中,一个端到端的person-to-job post数据匹配的模型,和实验匹配实际的招聘数据的人。首先,构建知识的表示在低维空间。然后,它解释了在双向编码器陈述变压器(BERT) pretraining语言模型,这是介绍作为文本信息编码模型。person-post匹配的结构模型是解释的注意机制及其计算层。最后,基于person-post匹配模型实验与各种person-post匹配方法相比在实际的招聘数据,与实验结果进行了分析。
在person-job合适的早期研究中,研究人员通常专注于个人和组织之间的关系(P-O)和人与环境(次)
一些研究者还建议将大量的先验信息专家团队提供更准确定向推荐一些专业人士
基于这些先前的研究,我们的目标是减少句嵌入模型的缺点,充分表达的相关性。此外,我们的目标是充分表达求职者和招聘人员之间的相关性和文本的主题信息,将推荐系统的概念
因为这项研究是基于知识person-post匹配模型,传统的知识表示方法和单层神经网络模型不能恰当地描述语义实体之间的关系。基于距离测量的使用反式方法能更好地描述空间实体之间的结构信息,将更准确的先验知识嵌入到模型中。然后,我们定义知识地图,
当
得分函数越小,更可靠的三重关系(
使person-post匹配模型学习简历中包含的文本信息和招聘要求,有必要使用嵌入空间矩阵变换这个词的文本语料库的简历和招聘需求到一个低维密集空间向量。如果一个炎热的表示方法是用来表示句子中的每个单词矢量地,例如,在“深度学习”,这个词假设所有单词的词典由只有四个字,一个炎热的表示形式是(1,0,0,0)。当字典的数量非常大,每个单词变成了高维稀疏的张量;因此,它显然是不合适的输入person-post匹配模型。此外,每个单词可以通过word2vec嵌入低维空间有限。例如,深度学习可以映射通过将在单词层面嵌入到一个向量的维度(200 4)。即使字典包含超过1000个单词,每个单词可以被映射到一个低维的word2vec嵌入矩阵作为下游的输入模式。但是,统计数据显示,单词的长文本项的数量在每个原始简历非常大,这让压力模型操作,和需要更多的文本截断模型输入,导致person-post匹配任务的匹配精度的损失。基于上述考虑,伯特的pretraining编码器用于编码的句子的简历和招聘要求,和强大的学习能力信息伯特语言模型是用于编码的长文本简历和招聘需求的长文本句子伯特编码器pretrained基于中国大型数据。模型可以进一步减少需要输入的特征维度对下游任务和保留尽可能多的文本信息。 Based on the representation ability of the large-scale pretraining model, all representation information in downstream tasks is fine-tuned to achieve fast and better results.
句子的数量实际所需的简历和招聘不一定是相同的,因为内容记录在文本本身是不一致的,既可以减少输入功能维度之间的匹配模式,只有输出编码向量的句子。编码基于pretraining模型结合的知识提取的原始语料库可以提供更多的语义信息模型。通过这种方式,不仅是维护的信息量也推理模型可以在一定程度上加速。这个句子由伯特可以表示为编码过程
在实际招聘过程中,关键的信息记录在简历和招聘需求往往决定了关键的就业意向招聘过程。现有person-post匹配模型直接拼接恢复特性和招聘需求的特性和输入到预测层,导致较低的可解释性和缺乏信息流招聘和需求之间的关系。为了解决这些问题,我们需要完全模拟招聘流程和构建基于注意机制匹配模型。模型分为特征表示,关注交互层,和预测层,如图所示
KG-DPJF的结构模型。
特性表示层必须进入图嵌入矩阵,即信息表示矩阵图的构建知识地图后获得的供应和需求是由反式训练算法。特征表示层还包括文本信息的特征表示,代表了字面意思文本信息通过使用pretraining伯特模型。注意交互层使用注意机制的输出加权值的集合之间的候选人简历,历史最好的简历,招聘需求。预测层接受组权重值和特性输入加权的简历和历史简历通过分类器和输出预测结果。
模型的设计是基于深度学习模型的施工过程,包括预处理、特征表示,多层感知器,和分类器。这包括模型的预处理:从上面的部分,可以使用伯特编码器编码输入文本的分割句子的简历和招聘需求和输出字面意思向量。这些向量直接形成嵌入式文句上拼接后权重矩阵。此外,我们使用反式学习所有的知识地图的结构信息和输出一个低维稠密的实体嵌入权重矩阵。在随后的匹配的推理过程,所有的实体向量输入文本分割句子,和实体嵌入矩阵是拼接后形成的。
特征表示层,模型的输入特性包括三个模块。第一个是当前输入的候选人的简历,包括工作经验分割句子,项目经验分割句子和实体。第二个是历史最好的简历
在哪里
在哪里
功能交互层:它的基本结构是一个交互式计算层基于特征提取和注意力机制获得的简历和招聘需求之间的相关性的隐式方法。特殊的表示层后的句子特征向量矩阵与实体矢量拼接,实体矢量包含实体和实体的上下文信息。拼接的特征矩阵提取使用卷积神经网络(K-convolutional神经网络(KCNNs))和简历的输出表示向量和一个固定的维度
在哪里
在哪里
在这里,使用另一对一层一层的关注,
最后,计算后,所有相关权重拼接
毕竟在预测层特性表示已通过多层注意力机制层,它们的加权特征向量和相关值输出。这些向量通过完整的连接层连接。隐藏层使用多层神经网络完全连接层和修正线性单元功能来激活。最后,输出被激活使用s形的函数。乙状结肠叉损失函数是用来计算逻辑输出和标签之间的损失。最后,特征向量输入完全连接层关注的输出层,和分类标签是ReLU类别
用于person-post匹配实验的数据收集的数据是一样的知识地图时创建的。然而,由于不同的实验方法和数据处理方法,收集到的实验数据包含匹配标签匹配控制person-post匹配实验。
实验使用e-resume数据基于实际的招聘过程。格式和提取麻木的数据和干净的数据。指的是施工方法的深度学习模型,person-post匹配模型使用TensorFlow平台,构建和数据转化为模型的输入格式。数据集的形式存储在数据恢复相应的位置。同时,招聘的招聘机制平台和公司的企业就业机制也应考虑在实验之前。企业的招聘流程:企业必须大致选择许多候选人简历,并将它们放入到人才招聘平台存储的文件夹简历或提交的简历的求职者。然后,选择一些合适的人员邀请参加面试。最后,只有一些候选人顺利通过面试,将正式聘用。这也是分类的基础。0意味着候选人只停在舞台上人才简历进入文件夹,1只意味着完成邀请面试阶段,和2意味着他们通过邀请面试,得到一个报价。 Note that there are only 0 and 1 labels in the training data; that is, only the data that passed the interview will be given a score of 1, and the rest of the resumes in other stages will be given a score of 0. This is meant to be close to the actual recruitment process and make the model more predictive when combined with the data.
同时,三个一组的所有信息从语料库中提取是基于反式训练算法。映射数据集文件的实体、关系、构造和三元组,数据转换为一个序列。然后,数据划分和标示如下:80%的数据作为测试集,10%的数据被用作第二个测试集,和剩下的10%作为验证集。输出嵌入模型尺寸设置为50。培训完成后,增长大约4 h。
准备所需的数据模型之后,它开始训练阶段。整个模型包括训练和调整阶段。两个阶段可以进行循环迭代。丰富知识地图后连续新知识的基础上,它可以执行连续训练生成知识表示,然后火车person-post匹配模型形成一个完整的模型应用迭代模式由知识驱动的。
在训练和预测,新知识就是从文本中提取预测。新知识是映射到嵌入式空间通过简历的指数关系ID对应的实体。每个简历中描述的技能关键词包含句子的主要思想和匹配任务提供信息支持。
此外,匹配最优的历史数据集构造基于模型设计。没有区别的最佳历史匹配数据集和普通的培训或测试数据集,但最优历史匹配数据存储预设数据最好的职位的候选人。设置的目的是模拟推荐系统的实践,将历史最优匹配信息嵌入到模型,模型,让学习简历和预测之间的关系的历史最优匹配结果来提高模型的匹配性能。
能编码、语句实现pretraining伯特模型采用。所以,在线伯特服务可以使用基于并行处理。关于服务的信息设置伯特在表描述
伯特服务器的主要参数。
| 项目 | 标签描述 | 参数操作 |
|---|---|---|
| BERT_config | BERT_config.json | 伯特模型的参数固定设置文件 |
| 许多并行服务 | 4 | 调整由伯特服务器同时处理的任务数量 |
| 伯特pretraining模型参数文件 | chinese_l - 12 - _h - 768 - 12 | 中国768 -维pretraining模型 |
| Model_dir | 文件地址 | 伯特pretraining模型存储的地址 |
| Vocab_dir | 文件地址 | 解决词汇的同义词典的存储位置 |
| Input_length | 512年 | 最大允许句子长度 |
person-post匹配模型的主要参数。
| 项目 | 标签描述 | 参数操作 |
|---|---|---|
| Num-history | 4 | 模型加载历史上最优数量的恢复数据拷贝 |
| 学习速率 | 0.001 | 学习速率影响培训的时间和效果 |
| Batch_sizes | 8 | 为模型输入的批处理数据量训练 |
| 过滤器 | [1,2] | CNN卷积内核步长选择 |
| Entity_dim | 50 | 嵌入式向量的长度的实体 |
| 时代 | 500年 | 控制训练轮的总数 |
在解释设置信息所需的实验和数据分析,最后一个实验通常分为以下四个步骤:
数据预处理:正则表达式是用来消除重复和连续的标签,大面积的空行,压痕。
建立一个person-post匹配模型:匹配模型的框架下TensorFlow。然后,构造训练计划,文件地址保存培训被选中。
hyperparameters后根据实验条件,设置必要的函数库安装,培训项目启动,亚当的模型优化算法。电脑有4个gpu,准备实验和12 G内存。模型的图形卡是RTX2080s, CPU的内存是64 G。
参数的调整,以达到最佳的性能模型和记录实验数据。
这部分是指许多现有man-post匹配评价方法(
的理念构建基于CNN作为基线模型特征提取层的灵感来自于端到端的person-post匹配在现有文献工作。模型的特征向量表示的文本语料库,它接受的输入简历和招聘需求,然后使用一个CNN与共享特征提取功能,并输入到分类层平均后激活输出分类概率。以来的输入数据集模型是一致的输入数据集person-post匹配模型,伯特编码方法也可以使用在这个实验中编码的句子表示,和word2vec方法也可以用来获得平均句子向量。
后所代表的简历和所需的文本嵌入层,输入到CNN,和简历表示特性输出,分别
此外,它还提供了一种方法,句子之间的语义匹配长文本所需要的工作职位相比,文字如工作经验和项目经验。这个想法来自于短句子语义匹配方法。首先,这句话是分段,然后以前训练的字嵌入矩阵word2vec200和腾讯等嵌入用于计算文本的向量表示的分词。所有的向量形式表示句子语义矩阵
实验方法是计算相似性所有句子根据简历和招聘职位的句子,选择相似度值最高的招聘需求文本基于所有简历一个接一个句子,然后根据简历的数量正常的句子,最后计算匹配度。例如,句子1和所有recruitment-required句子之间的相似度计算,和最高的相似度值是选为句子的最佳匹配句子语义的简历,然后依次计算。注意,招聘需求匹配的句子后,他们又不能匹配。因此,从的角度来看这是匹配的简历。
当比较之间的分割句子简历和招聘要求,输入数据是简历文本信息,该公司招聘所需数据的文本信息。后嵌入空间转换和平均被执行时,这个信息将计算如上所述,直到所有距离计算,结果符合服务的数量对匹配的输出,即。,它代表了匹配程度。
最后,模型的性能比较与前沿person-post匹配模型PJFNN-RNN不同结构下的数据来验证模型的性能。PJFNN-RNN是一个端到端的模型基于RNN的特征提取器所需的简历和文本。与前面的数据分析相比,实验是基于行业数据收集的真实的企业,招聘的门槛和有固定要求规定。因此,在招聘过程的分析中,承认通过率是标签设置为1,和一个失败的结果是标签设置为0。的准确性,准确率召回率,
实验数据的分析。
| 统计数据 | 价值 |
|---|---|
| 求职者的简历提交比例同时为两个或两个以上的职位总数的简历 | 0.0372 |
| 平均每个恢复的技术文章的字数 | 1271年 |
| 实验数据分析 | 643年 |
| 招聘技术岗位的比例 | 0.3733 |
| 文职职位招聘比例 | 0.2642 |
最重要的和实验的难点是处理简历,招聘数据和模型训练集的建设。我们的实验是基于行业语料库在实际招聘过程中收集的数据。收集到的简历和post数据文件后的企业招聘平台严格脱敏措施转化为数据集预处理后的数据文件。通过分析实际应用需求和相关文献,任务分为两类进行详细的实验人类工作匹配任务。
首先,正如结果表
实验性能table-no结构化数据。
| 模型 | 精度 | 精度 | 回忆 |
|
|---|---|---|---|---|
| 逻辑回归 | 0.5091 | 0.4493 | 0.4473 | 0.4627 |
| 决策树 | 0.5369 | 0.4478 | 0.4615 | 0.4646 |
| CNN和word2vec200 | 0.5632 | 0.5001 | 0.5385 | 0.5185 |
| CNN和伯特 | 0.5736 | 0.5147 | 0.5465 | 0.5383 |
| DPJF-word2vec200 | 0.5939 | 0.5278 | 0.5846 | 0.5548 |
| DPJF | 0.5874 | 0.5421 | 0.5974 | 0.5684 |
| KG-DPJF | 0.6139 | 0.5810 | 0.6047 | 0.5926 |
性能比较word2vec和能嵌入语句之间。
然而,应该注意的是,只有非结构化数据用于测试的输入和输出匹配现有person-post匹配模型;即,多年的工作和性别等信息输入,只有工作经验和项目经验保留这些离散特征有不同的处理问题。
在表
比较experiment-no结构化数据。
| 模型 | 精度 | 精度 | 回忆 |
|
|---|---|---|---|---|
| 逻辑回归 | 0.5091 | 0.4493 | 0.4473 | 0.4627 |
| 决策树 | 0.5369 | 0.4478 | 0.4615 | 0.4646 |
| 余弦距离 | 0.5275 | 0.5281 | 0.5034 | 0.5169 |
| CNN和word2vec | 0.5632 | 0.5001 | 0.5385 | 0.5185 |
| CNN和伯特 | 0.5736 | 0.5147 | 0.5465 | 0.5383 |
| PJFNN-RNN | 0.6023 | 0.5716 | 0.5864 | 0.5789 |
| KG-DPJF | 0.6169 | 0.5810 | 0.6047 | 0.5926 |
表
在一个炎热的比较实验与结构化数据。
| 模型 | 精度 | 精度 | 回忆 |
|
|---|---|---|---|---|
| 逻辑回归 | 0.5955 | 0.4973 | 0.5034 | 0.5040 |
| 决策树 | 0.6247 | 0.5159 | 0.4800 | 0.4973 |
| PJFNN-RNN | 0.6333 | 0.6511 | 0.5689 | 0.6079 |
| KG-DPJF | 0.6562 | 0.6467 | 0.6018 | 0.6286 |
实验结果如表所示
伯特比较实验结合结构化数据。
| 模型 | 精度 | 精度 | 回忆 |
|
|---|---|---|---|---|
| 逻辑回归 | 0.6023 | 0.4956 | 0.5177 | 0.5063 |
| 决策树 | 0.6274 | 0.5138 | 0.4967 | 0.5050 |
| PJFNN-RNN | 0.6528 | 0.6274 | 0.5953 | 0.6109 |
| KG-DPJF | 0.6522 | 0.6483 | 0.6125 | 0.6298 |
本文详细person-post匹配进行了应用实验。从上面的实验结果和分析,发现person-post匹配模型基于注意机制设计的在这一节中可以实现良好的匹配效果,实现简历和招聘需求之间的匹配程度。总结的文献和实验结果的分析,发现仍存在一些常见的缺陷存在的实验任务person-post匹配:
不可避免的文本截断:e-resume数据今天的实际招聘平台,经常有许多句子的非结构化数据。单词的数量显示在语料库统计信息地图在实验中不符合实验数据最近其他文学作品。这是因为其他作品通常使用截断或罚款的方法提取实验之前,限制单词的总数在一定范围内,甚至不到一半的单词的总数。通过这种方式,我们不适应的方法使用pretraining向量表示、特征提取以及希望完全学习句子的语义信息。本研究探讨了如何充分利用pretraining句子信息,pretraining模型和先验知识来解决这个问题。
匹配的缺陷造成的数据不平衡:在现实电子简历数据中,数据通常包含一种数据,而其他作品通常物品如性别和教育转化为离散数据。这是因为他们的价值观可能有能力改变整个招聘的角度等教育:大师和大学学位。这些命令数据集不能解决深度学习方法在实际招聘数据。此外,还有一个招聘歧视和样本数据之间的关系。这通常反映了招聘的不平等。例如,据统计,男性比女性有更多的程序员。模型应该理解和避免这些数据集。然而,在实验桌上
基于知识地图的供给和需求,本研究和代表知识嵌入低维稠密的空间。person-post匹配模型的研究表明,基于知识和语言模型比现有的更好的性能和更可解释性person-post匹配方法,可为将来的工作提供一些线索person-post匹配。
期间产生的所有数据或分析本研究包含在本文中。
王美术学和江Zhenhong co-first作者。
作者宣称没有利益冲突。
这项工作是支持的开放研究基金项目的数据恢复四川省重点实验室(批准号DRN19012)。