文摘

智能集成方法基于深部开采的思想政治教育资源解决低精度的问题,提出了资源整合的效率和稳定在当前思想政治教育资源整合的方法。思想政治教育资源深度挖掘通过研究深部开采技术和应用决策树算法。思想政治教育材料的预处理文本在你深入挖掘了思想政治教育资源。基于用户词典分词删除罕见的词在思想政治教育资源。基于远程教育信息调度的原则,思想政治教育资源的特征向量提取,特征的方差贡献率计算思想政治教育资源,和可观测的随机向量的思想政治教育资源的特点。实现智能整合思想政治教育资源,利用LDA模型定义的关联程度的主题文本向量,和文本的思想政治教育资源分组使用自底向上的层次聚类方法。实验结果表明,该方法具有较高的精度和效率,而且可以有效地提高稳定性的智能整合思想政治教育资源。

1。介绍

大学生的思想政治教育一直是教育研究的重点。然而,由于每个学生的生理和心理环境是不同的,多数大学生面临一定程度的社会和心理问题。教育信息系统积累越来越多的信息资源随着教育信息化的发展和深化。(12]。目前,有许多种类的思想政治教育资源。有大量的数字资源除了传统资源的转变在教学技术,增加的工作负载管理的思想政治教育资源。确保思想政治教育资源的协调管理,智能集成方法,提出了思想政治教育资源。资源整合主要指的是动态过程的识别、选择、吸收、分配,从不同的来源和内容有机地整合资源,使其有序、系统和创建新的资源3]。思想政治教育资源的智能集成方法是整合所有思想政治教育资源按照一定的法律和不同类型的需求。

目前,学者在相关领域研究的整合教育资源,取得了一定的理论成果。圣言教育机构的组织文化与人力资源实践及其集成方法,提出了在文献[4]。确定三个值的程度,诚信,奉献,和企业社会责任整合。本研究的对象是员工的大学和学术机构位于不同地区的菲律宾。他们分发白手起家的在线问卷调查,并进行有效性和可靠性测试。该方法可以有效整合的三个值三个主要人力资源活动,比如诚信,承诺,和企业社会责任是集成到招聘、培训、开发、以及薪酬和福利。基于结构方程模型分析,文献[5)建议方法下的数字资源整合知识管理概念回顾发表引用数字资源整合的现状和与专家资源的组织。编译研究工具,从专业人士的角度,系统地处理数据得到KMM开发一个全面的资源。使用SPSS软件进行数据体积测量,并使用阿莫斯路径分析和建模。概念模型的开发后,许多相关的假设,数据集上运行的软件来验证提出的理论模型。这种方法有助于加强一体化进程。然而,上面的方法仍然有问题的准确性和效率低的资源整合和弱稳定。

因为上面的问题,思想政治教育资源的智能集成方法提出了基于深部开采。决策树算法是用来深入我的思想政治教育资源和预处理文本。基于远程教育信息调度的原则,思想政治教育的特征方差贡献率计算资源,和可观测的随机向量的思想政治教育资源的特点。基于主题的文本向量的LDA模型,通过自底向上的层次聚类方法,思想政治教育资源文本是集群实现智能整合思想政治教育资源。该方法具有较高的资源整合的准确性和效率,并能有效地提高资源整合的稳定性。

论文的其余部分被组织为一节2提供了深部开采技术,部分3提供了思想政治教育资源的智能集成方法,实验分析和结果部分中解释4。结论部分给出5

2。深部开采技术

2.1。数据挖掘

提取隐藏的过程和潜在的重要知识和信息从一个巨大的体积不完整,模棱两可,嘈杂的,随机数据称为数据挖掘。这是一个跨学科,受到人工智能、机器学习、信息科学、高性能计算、模式识别、可视化技术,统计,和其他学科6]。数据挖掘的步骤分析过程相互影响和不断调整,形成一个螺旋的过程。至于图数据挖掘分析步骤1

从图可以看出1,整个数据挖掘过程是由几个挖掘步骤。主要步骤如下:(1)数据准备:了解数据挖掘的应用领域相关的条件,包括熟悉相关背景知识和对用户需求的理解。(2)数据选择:选择相关数据和原始数据样本根据用户的需要。在选择过程中,需要处理的数据库。(3)数据挖掘数据预处理:过滤掉无关的数据(包括数据完整性检查、噪声消除、等等)。(4)数据转换:将数据转换成一种适用于挖掘。(5)确定数据挖掘的目标:确定知识的类型被发现通过数据挖掘基于消费者的需求。不同的采矿方法,如分类、关联规则、聚类,和其他人,将用来满足数据挖掘的各种要求。(6)选择算法:根据任务确定(5),选择合适的数据挖掘算法。有两种方法可以选择一种算法,一种是根据特征选择算法相关的数据,另一个是根据用户的需求选择算法。(7)数据挖掘:选择一个特定的算法,提取用户感兴趣的知识,和用某种形式表达这方面的知识。(8)模式解释:解释模式(知识)在数据挖掘中发现的步骤。如果模型不能满足用户的需求,新车型需要提取的反复,直到用户的需要得到满足。(9)知识评价:目前发现的知识给用户以最直观的方式,用户可以理解。

2.2。决策树算法

决策树是一个方法来解决数据挖掘技术中的分类问题。它使用获得的信息在信息理论作为测试属性的内部节点,构造决策树的分支机构根据属性的不同值字段,然后递归构造较低的节点和分支决策树的每个分支的子集(7]。决策树不需要漫长的施工过程,也可以可视化和数据规则。在实际应用中,决策树可能会非常大。即便如此,每个路径的含义从根节点到叶子节点是可以理解的,和分类精度高。决策树是一个流程图类似树状结构。决策树结构如图2

决策树的中间节点代表一个类别,内部节点代表一个属性的测试,和分支代表属性的结果测试的内部节点。在决策树,一条从根节点到叶子节点代表一个规则,结合整个决策树代表一组析取规则。常见的决策树算法包括ID3算法和C4.5算法,等等。

这些算法定义如下:

2.2.1。ID3算法

需要信息增益作为选择标准的各级节点属性的决策树,当测试非叶节点,最大的类别信息可以获得测试记录(8]。信息熵定义的信息增益度量用于选择测试属性的节点。熵特征样本集的纯度,在信息理论中,信息数量和熵定义如下:

假设 是一组 数据样本, 分为 不同的类 ,每个样本 包含 ,然后信息熵或预期的信息 分工如下:

在公式(2),样本的概率 属于一个类 表达的是 对数的底是2,因为信息是用二进制编码,和熵措施的长度编码的二进制位数量。假设 代表所有不同的属性值的集合 和样本子集的一个属性的值 作为 是由 样本集的熵 每个分支节点在选择分类属性 表达的是 ,和预期的熵在选择属性 被定义为每个子集的熵的加权和吗 重量是 ,也就是说,样本属于的比率 原样品 后的熵 部门表示如下:

引入一个信息增益,这意味着熵差异之前和之后的数据集 被表达如下:

ID3算法总是选择信息增益最大的属性 测试属性,以及递归构造决策树。

2.2.2。C4.5算法

该算法使用信息增益率来代替信息增益(9]。该算法引入了一个项目 称为分割信息,并使用它来削弱属性如日期。 定义如下:

在公式(5),属性 值, 值的属性 是由 对应的样本集。分割信息主要用于考虑属性分类数据的均匀度和广度。增益比率被定义如下:

C4.5算法是ID3算法的进化。除了ID3算法的功能外,它还具有有用的概念获得比例和合并属性和连续属性值的功能。通过使用不同的修剪技术来避免树失衡,训练样本与缺失属性值可以被处理。

2.3。LDA模型

LDA模型是一个多层生产贝叶斯概率模型,包括一个三层结构的话说,话题,和文本10]。它作为文本的隐含主题,每个主题是由相关词汇的概率分布和实现之间的共生关系的主题文本通过词文本内和文本的主题。LDA模型基于假设的袋(弓)模型,即相信文本和文本中的词在文本库可以交换而不影响模型的训练结果,从而将文本转换为数字信息的模型容易模型。LDA模型的图形化表示图3

在图3, 狄利克雷之前的参数, 是主题的数量, 文本的总数, 在文本中单词的总数吗 , 分别代表了 词及其在文本主题 , 代表这个词项的概率分布的话题 表示文本的主题概率分布

从LDA模型生成一个文本的过程描述如下:(1)抽样从狄利克雷分布参数 生成主题概率分布 文本的 ;(2)从主题概率分布采样 生成的话题 词在文本中 ;(3)抽样从狄利克雷分布参数 生成概率分布 的话题 ;(4)生成这个词 的抽样概率分布 的术语。

在LDA模型中,最重要的两套参数概率分布的主题 文本和主题的概率分布 参数估计可被看作是文本生成过程的逆过程:给定一个文本集, 是一种已知的变量,然后呢 先验参数根据经验。其余的变量 , , 都是不为人知的隐藏变量,需要估计基于观察到的变量。

根据LDA的文档生成模型(11),所有变量的联合概率分布如下:

在公式(7),字的概率分布 初始化为术语 如下:

整个文档集的似然函数如下:

从上面的公式可以看出,整个文档集的似然函数是相关的 通过最大化似然函数, 可以获得。用吉布斯参数估计方法(12),这个词的概率 在这个话题 表示如下:

公式(10), 单词的总数在文档集合,然后呢 是这个词出现的次数 在这个话题 主题的概率 在文档中 表示如下:

在公式(11), 是这个词出现的次数 在这个话题

3所示。思想政治教育资源的智能集成方法

介绍了一个智能集成方法基于思想政治教育资源的深度挖掘。首先,使用决策树算法深入我的思想政治教育资源。深基坑后思想政治教育资源,思想政治教育资源的文本预处理。基于用户词典分词删除罕见的词在思想政治教育资源。远程教育信息的调度原则融入到思想政治教育资源的特征向量提取,特征的方差贡献率计算思想政治教育资源,和可观测的随机向量的思想政治教育资源的特点。基于主题的文本向量的LDA模型,定义了关联度,和自底向上的层次聚类方法用于集群的文本思想政治教育资源,实现智能整合思想政治教育资源。智能的过程集成方法,思想政治教育资源基于深部开采如图4

3.1。深入挖掘和预处理思想政治教育资源

由于思想政治教育资源的多样性在内容和形式,本文使用决策树算法深入我的思想政治教育资源。当深入挖掘思想政治教育资源,以多样性为思想政治教育资源的序列数据库可以表示如下:

公式(12), 代表一组时间序列函数, 代表资源特征值, 代表参与的序列值的数量。根据不同时期,引用一个表示函数(13),并设置量化标准深入挖掘思想政治教育资源可以表示如下:

在公式(13), 代表了特征函数引用, 代表资源序列模块化的功能, 代表了最大化序列。在深部开采资源的数量是一个固定值,所产生的额外金额矿业使用小波分解处理(14)可以表示如下:

在公式(14), 代表一个数据集的思想政治教育资源,深入挖掘 代表一组额外的功能。通过深入挖掘思想政治教育材料聚集转换和加工深度挖掘过程中扩大监管和异构数据隐藏。转换函数可以表示如下:

在公式(15), 代表中间站功能, 代表掩蔽参数, 代表了转换时期。在上面的转换过程中,思想政治教育资源实际获得的深部开采。

思想政治教育资源进行深入分析后,文本预处理是进行思想政治教育资源。分词基于用户词典和删除罕见的词可以确保思想政治教育资源的有效性和准确性的集成思想政治教育资源。本文使用相关名词频率指标和体重 这个词的 在文本中 是:

在公式(16), 代表词频和 代表逆文本的频率。使用上述标准可以消除大多数的停止词和稀有词意义的建设资源整合,这可以大大减少的规模单词和提高施工效率的资源整合16]。

3.2。提取特征向量的思想政治教育资源

在整合思想政治教育资源,教育信息的远程调度原则融入到思想政治教育资源的特征向量提取,特征的方差贡献率计算思想政治教育资源,和可观测的随机向量的思想政治教育资源的特点是获得17]。具体过程如下:

假设 是思想政治教育资源的特征变量,然后呢 样本的特征变量思想政治教育资源,和的条件 需要满足。思想政治教育资源进行正交变换处理,和 是思想政治教育资源特征变量 合成变量和 相关系数矩阵的思想政治教育资源样本。使用远程调度教育信息理论,思想政治教育资源的特征方程,这是表示如下:

假设 是相关系数矩阵的非负特征值的思想政治教育资源的一个示例,它吗 很满意, 进行排序,然后 思想政治教育资源特点可以提取和表达如下:

在公式(18), 代表了噪声干扰的特点和思想政治教育资源 代表了不确定性的特征向量的思想政治教育资源。让 特征的方差贡献率 思想政治教育资源,其计算公式如下:

在公式(19), 代表特征样本的重量的思想政治教育资源, 代表不同的思想政治教育资源的信息熵特征, 代表的特征变量的最优阈值思想政治教育资源,和 代表学生的观察变量特征。定义 随机向量的思想政治教育资源的特点 代表的因子载荷思想政治教育资源的特征向量,并计算可观测的随机向量的思想政治教育资源的特点,即:

在公式(20.), 代表了思想政治教育资源的难以察觉的向量, 代表了特殊的因子载荷思想政治教育资源,和 代表的独特因素因子载荷的影响

3.3。层次聚类文本的思想政治教育资源

一般来说,相同的文本的相关性很大,而不同类型的文本的相关性很小。基于上述思想,本文采用自底向上的层次聚类方法(15)集群思想政治教育资源的文本。

文本相关性可以衡量的概念向量空间模型,和程度的相关性可以定义通过计算两个文本之间夹角的余弦值基于主题的文本向量的LDA模型。计算公式如下:

自底向上的层次聚类方法首先对每个对象本身作为一个类,然后这些类聚合成较大的类,直到所有的对象都在一个类或符合特定的终止条件。的基础类聚合类之间的距离,距离和常用的指标是平均距离。消除个别偏差的干扰样本聚合结果,本文改变了平均距离的计算方法。相反,采取中值的文本对象之间的距离,计算平均值。计算方法是:

自底向上的层次聚类算法描述如下:

输入:思想政治教育资源文本集合 ,终止类别的数量 ;

输出:文本 聚类思想政治教育资源。

步骤1。初始化:记录每个文本 在文本设置 作为一个类 与一个单一的成员,并初始化的聚类结果集 作为 ;

步骤2。每一对的 在集群 ,计算它的相关性 根据公式(22)和公式(23);

步骤3。选择类搭配最大的相关性 ,合并成一个新类 ,并形成一个新的集群 ;

步骤4。重复步骤23直到类的数量达到一定的阈值,并终止集群的过程。

3.4。智能整合思想政治教育资源

基于上述文本聚类思想政治教育资源的过程,观测变量构造的空间范围。以变量为处理对象的智能集成,观察变量的数值关系可以表示如下:

在公式(23), 代表了节点的思想政治教育资源的图书馆系统, 代表了自相关函数, 代表模型转换参数, 代表节点的睡眠比。整理计算观测变量后,产生错误思想政治教育资源的整合可以控制。数值关系可以表示如下:

在公式(24), 代表产生的误差函数。当控制上面生成的错误,一个搜索参数介绍了控制误差。搜索参数可以表示如下:

在公式(25), 代表介绍了搜索参数, 代表了集群节点功能, 代表了思想政治教育资源产生的自相关参数数据。在实际的思想政治教育资源的整合,整合思想政治教育资源中心被选中时,形成和选择功能可以表示如下:

在公式(26), 代表了选择功能, 代表了知觉随机参数生成。以above-selected思想政治教育资源中心集成的起点,最后聪明的思想政治教育资源的整合过程可以表示为:

在公式(27), 代表思想政治教育资源的数据点,可以集成 代表了种功能, 代表的数量选择集成的起点。设置迭代次数的上述智能一体化进程的思想政治教育资源,以一个固定的值,并经过反复迭代集成搜索参数为0.5,思想政治教育资源的智能集成终于完成。

4所示。实验分析

在实验分析中,我们将讨论实验环境和数据,稳定性分析的智能整合思想政治教育资源,精度分析的智能整合思想政治教育资源,比较效率的智能整合思想政治教育资源,在细节。

4.1。实验环境和数据

验证了智能集成方法的有效性基于思想政治教育资源的深度挖掘,实验使用MATLAB仿真软件作为实验环境。使用不同的数据收集设备收集思想政治教育资源数据。选择1000 gb资源数据包的数量作为实验测试样本。使用深部开采方法,思想政治教育资源的智能集成完成,和参考的方法4]和文献[的方法5)相比,提出的方法来验证提出方法的有效性。

4.2。稳定性分析的智能整合思想政治教育资源

来验证稳定性的智能整合思想政治教育资源,资源整合的丢包率作为评价指标。资源整合的数据包损失率是指资源包的数量的比率在资源整合资源数据组的数量。低丢包率的资源整合,资源整合的稳定性越强。计算公式如下:

在公式(28), 是失去了资源数据的数据包数量, 是传播资源数据组。使用方法,文献[4]和文献[的方法5),该方法,思想政治教育资源智能集成,以及资源整合的比较结果丢包率不同的方法图5

从图可以看出5,资源包的数量的增加,资源整合不同的方法的丢包率增加。当资源数据包的数量是1000 GB,资源整合数据包损失率的方法,文献[4)是20%,资源整合数据包损失率的方法,文献[5)是23.4%,而资源整合该方法的丢包率仅为8.2%。可以看出,与文献[方法相比4]和文献[的方法5),丢包率提出了资源整合的方法是低,表明智能整合思想政治教育资源的稳定的方法是强大的。

4.3。精度分析的智能整合思想政治教育资源

在此基础上,思想政治教育资源的智能集成精度的方法进一步验证,和资源整合的准确性作为评价指标。资源整合的准确性是指正确的数量的比例整合资源包发送资源数据组。资源整合的准确性越高,资源整合的准确性就越高。计算公式如下:

在公式(29日), 综合资源数据包的数量是正确的。使用方法,文献[4]和文献[的方法5),该方法分别智能整合思想政治教育资源,资源整合的准确性的比较结果图的不同方法6

从图可以看出6数据包在不同资源,资源整合的平均精度方法的文献[4)是87.9%,资源整合的平均精度方法的文献[5)是78.2%,该方法的平均资源整合的准确性高达97.3%。因此,与文献[方法相比4]和文献[的方法5),资源集成该方法精度较高,表明智能整合思想政治教育资源的准确性的方法更高。

4.4。比较效率的智能整合思想政治教育资源

有效验证的智能集成效率方法的思想政治教育资源,资源整合所花费的时间作为评价指标。资源整合所花费的时间越短,越高的资源整合效率的方法。使用方法,文献[4]和文献[的方法5)和提议的方法,思想政治教育资源智能集成,并比较结果的时间资源整合不同的方法如表1

根据表中的数据1资源包的数量增加,资源整合不同的方法所花费的时间增加。当资源数据包的数量是1000 gb,资源整合的时间参考的方法(4)是17.6年代,资源整合的方法文献[5是22.5秒,该方法的资源整合时间只有10.9秒。可以看出,与文献[方法相比4]和文献[的方法5),该方法的资源整合时间较短,说明思想政治教育资源的智能集成效率的方法更高。

5。结论和未来的工作

本文提出了智能集成方法基于深度挖掘思想政治教育资源,充分发挥了深部开采的技术优势,并实现智能整合思想政治教育资源利用决策树算法和LDA模型。其智能整合思想政治教育资源具有较高的准确性和效率,并具有较强的资源整合的稳定。然而,在资源智能集成的过程中,当多个样本并不认为,集成算法容易陷入局部最优解的问题。因此,在未来的研究中,因为不同资源的整合,我们需要进一步找到新的资源整合的方向使集成效果更理想。

数据可用性

可用性的数据和材料

使用的数据来支持本研究的发现可以从相应的作者。

的利益冲突

作者宣称没有利益冲突。

确认

本文是支持的

1。中国黑龙江省高等教育教学改革基金:“引入课程名为习近平思想对中国特色社会主义新时代培养实用机制”四个自信”(项目编号:SJGSZ2020013)

2。中国的学校教育教学改革基金水平省:“培养毕业的学生创新能力视角的新文科”(项目号:DGYYJ2020-09)