文摘

岩石的单轴抗压强度(UCS)是一种重要的数据在工程规划和设计。正确测试UCS的岩石以确保其准确性和真实性是保证设计的先决条件的岩石工程项目。UCS的岩石已经广泛的应用在采矿、岩土工程、石油、地质力学、工程等领域。梯度提高机器学习算法的应用已经很少使用,尤其是对UCS预测,表现良好,基于研究的相关文献。在这项研究中,四个梯度提高机器学习算法,即梯度提高回归(GBR) Catboost,光梯度提升机(LightGBM)和极端梯度增加(XGBoost),开发预测MPa的UCS软沉积岩的Block-IX塔尔煤田,巴基斯坦,使用四个输入变量,如湿密度(ρw在g / cm3;水分%;干密度(ρd在g / cm3;和巴西的抗拉强度(BTS) MPa。然后,106点数据集被分配相同的每个算法到70%的训练阶段和测试阶段的30%。结果显示,XGBoost算法优于GBR, Catboost, LightGBM相关系数(R2)= 0.99,平均绝对误差(MAE) = 0.00062,均方误差(MSE) = 0.0000006,均方根误差(RMSE) = 0.00079在训练阶段R2美= 0.00054 = 0.99,MSE = 0.0000005, RMSE = 0.00069测试阶段。敏感性分析表明,BTSρw呈正相关,水分和ρd与UCS负相关。因此,在这项研究中,XGBoost算法被证明是最准确的算法在所有调查四个算法UCS预测软沉积岩的Block-IX塔尔煤田,巴基斯坦。

1。介绍

岩石的单轴抗压强度(UCS)是一种重要的数据在工程规划和设计。正确测试UCS的岩石以确保其准确性和真实性是一个先决条件确保任何岩石工程的设计。UCS的岩石已经广泛应用在采矿、岩土工程、石油、地质力学、工程等领域。岩石力学性能的研究是创新与进步的基础能源供应。岩石力学的重要性被公认的进步自然资产,例如,保护能源(石油产品:石油、煤炭和天然气),以及围岩的保护环境。此外,保护废物清除和水电能源资产需要进一步检查的岩石和土壤,这依赖于岩石的力学性能1,2]。无侧限UCS的岩石在解决问题中起着重要作用与岩石力学和geostructures的设计(3- - - - - -6]。不同研究者提出实证方程来估计不同岩体的UCS数据库列在下表中1

一些研究人员采用间接测试方法,即。看不到,多元线性回归(MLR) [17,22,23),人工神经网络(ANN) [23,24),自适应neurofuzzy推理系统(简称ANFIS) [25),和其他机器学习算法来估算岩石数据的准确性和可靠性26- - - - - -28),而不是使用直接测试推荐的国际标准,被认为是费时,昂贵的,不可靠的(29日,30.]。虽然这些框架是适当的、快速、良好的技术来解决困难的问题,在大多数情况下,他们只是能够理解变量之间的复杂交互估计客观、不提供任何直觉预测因子之间的相互关系和返回值31日]。阿等人预测完整岩石的UCS 196数据点,即,年代和年代来ne, marl, limestone, and conglomerate, using the intelligent ANN method and MLR. According to the results of their study, the ANN model performed better than the MLR model in terms of correlation coefficient (R2),平均绝对误差(MAE)和均方根误差(RMSE) [23]。阿等人采用两安和简称ANFIS模型预测136年UCS砂岩岩石样本,因为实验室检测方法是费时和复杂。基于几个性能指标的结果,也就是说,R2、RMSE和方差占(VAF),简称ANFIS模型显示最佳的性能在安(32]。Ceryan等人采用软计算方法,即。,extreme learning machine (ELM) and minimax probability machine regression (MPMR), to predict the UCS of volcanic rocks. In addition, the least-square support vector machine (LS-SVM) model was incorporated to compare its performance with the proposed soft computing models. Thus, ELM and MPMR outperformed the LS-SVM [33]。Ceryan等人开发了模糊界面系统(FIS),安,LV-SVM预测UCS的岩石。根据他们的研究结果,LV-SVM表现好于其他发达模型(34]。Neurogenetic和多元回归(先生)方法是由Monjezi等人估计UCS的岩石。[先生neurogenetic方法相比是最好的应用35]。Aboutaleb等人预测碳酸盐岩的UCS使用无损测试,即简单回归分析(SRA),多元回归分析(MRA),安,和支持向量回归(SVR)。据SVR模型,最好的表现在所有的模型研究[36]。Ghasemi等人开发了一个软计算(模型树)的方法来预测碳酸盐岩的UCS,这被证明有最好的性能(37]。Barzegar合奏树型等人使用机器学习方法(如“随机森林(RF), M5模型树,和多元自适应回归样条函数(火星)”预测UCS石灰华的岩石。并行,一个委员会基于ANN模型开发关联提出了模型的收益来确定预测UCS的准确性。结果显示,火星超过所有研究模型(38]。晨歌等人射频用于变量选择和UCS预测,和拟议的UCS预测射频是令人满意的39]。钟山等人预测岩石力学性质,即。,UCS with an established XGBoost model of machine learning, which proved to have the best performance in results [40]。

根据上述文献,梯度提高机器学习算法的应用已经很少使用UCS预测。在这项工作中,我们提出了一个创新的适应性等四个梯度提高机器学习算法的梯度增加回归(GBR) Catboost,光梯度提升机(LightGBM)和极端梯度增加(XGBoost),提高了概念漂移的处理。收集数据库用于这项工作从软的沉积岩Block-IX塔尔煤田,巴基斯坦。以前,研究人员认为湿密度(ρw)[41];水分(41];干密度(ρd)[42];和巴西的抗拉强度(BTS) [43为评估UCS)作为输入变量。在文献的基础上,四个重要的输入参数ρw在g / cm3;水分%;干ρd在g / cm3;和BTS MPa用于每个发达算法。此外,106点数据集被分配相同的每个算法到70%的训练阶段和测试阶段的30%。图1说明了本研究的流程图。

2。研究区和数据集的概述

塔尔煤田是第七届世界最大的煤矿在巴基斯坦的信德省44]。塔尔煤炭是划定1755亿吨的褐煤或褐煤为燃料和可以利用发电的目的。如图2,塔尔煤田分为12个不同的街区。露天和地下采矿方法可以用来提取煤地区。具体来说,block ii 12块是充分发展的露天采矿方法,信德省水准煤炭矿业公司(SECMC),虽然有些地区的第一座和Block-IX准备地下采矿方法。Block-IX在塔尔煤田的煤层厚度是12 m的倾向0°到7°,自上而下板是siltstone-claystone粘土岩。然而,对于巴基斯坦历史上的第一次,Shahani等人推荐使用机械化长壁放顶煤开采过程高瓦斯)方法在塔尔煤田,巴基斯坦(44,45]。同时,准确测定塔尔煤田的机械性能,特别是UCS,扮演着一个重要的角色在提供很好的理解行为的屋顶和地面采矿作业之前。在这项研究中,106个样本的软沉积岩石最初收集随机从Block-IX塔尔,如图2黄色的区域。收集岩石样本被安排和细分根据国际岩石力学学会的推荐标准(ISRM) [46)和美国的测试方法(ASTM) [47)为了保持相同的核心大小和地质和几何特征。研究岩石样本的实验工作在实验室进行了采矿工程系,麦哈工程技术大学(MUET),确定的物理和机械性能ρw(克/厘米3);水分(%);ρd(克/厘米3);BTS (MPa);和UCS (MPa)。在图3(一)、万能试验机(UTM)被用来执行UCS如图3(b)和BTS如图3(c)表2说明了整个数据集用于这项研究。表3表示UCS数据集的统计分布。

4代表的成对分布不同的特性和UCS)。可以看出,水分和BTS UCS而中度相关ρwρdUCS是负相关。重要的是提到每个特性并不相关UCS独立;从此,所有的评估预测UCS特性在一起。

3所示。方法

3.1。梯度增加解释变量(GBR)

梯度提高回归(GBR)树包含了弱的学习者;即。,the learner algorithms moderately perform well as compared to random algorithms, into a strong learner in a repetitive technique [48]。与包装技术,推动机制框架连续生产基地。预测模型的鲁棒性增强通过生成几个框架优先关注这一系列学习复杂的评估信息。在促进机制,前面的基础框架,不恰当的估计经常在训练数据集开发相比模型精确评估。每个补充基本框架指导纠正错误前由其基本框架。的存在促进反应的机制是Schapire基兰的调查(49,50](卡恩斯):结合弱学习者一种区分强的学习者?弱学习者被定义为工作的算法比随机近似;强碱的框架是一个更真实的分类或回归算法是有效地对应不一致的问题。应对这样的调查是非常重要的。弱框架的评价往往是有挑战性而强大的框架。Schapire证明卡恩斯的调查的回应是“是的”展现,许多弱框架组合成一个高和单一的健壮框架。

提高和装袋机制之间的主要区别是,在提高系统方法的训练数据集重新取样,以预测每个成功的最方便的指导框架。修改后的传播在每一个阶段的训练是取决于前面的框架所产生的误差。相比之下,在装袋机制中,每个小道一直指定生成一个训练数据集,并指定一个单一的不确定性是发散的促进机制。错误地评估的痕迹或设置是不是有更多的概率更高的权重。因此,每个新开发框架强调了小道被错误地评估框架或更进一步的成功。

刺激安排二级框架减少一定的平均损失函数学习的数据集,即。平均绝对误差、平均误差平方。损失函数计算的总从测量值变化的预测价值。提出了级间建模技术是一种估计解决这个问题。这种建模技术连续相邻新基地的框架没有取代系数和参数模型曾被附呈。参照回归模型,促进机制是“功能梯度下降的配置。“功能梯度下降法是一种优化机制,可以减少一定的损失函数在每个阶段通过附加一个基础框架,最小化损失函数。图5显示了GBR在这项研究中所采用的描述51,52]。

弗里德曼建议改进梯度提高回归模型通过使用一个预先确定的数量的回归树的基本框架。修改框架提高了弗里德曼的性能模型(53]。为了预测沉积岩的UCS,梯度增加的修改版本回归已经使用。表4说明了python中的GBR框架的执行。认为每棵树的叶子数量l,每棵树把输入空间l单独的区域 , ……… 和预测一个恒定的值 的领土 是由梯度提高回归树 在哪里 =

采用回归树恢复 在通用梯度增强机制,框架大小和梯度下降阶段更新方程给出了方程(2)和(3),分别。

因此,方程(2)和(3)符合方程(4)和(5):

采用离散理想 对于每个领域 应该是分离的。更新的框架方程(6)和(7)是由

过度拟合的框架可以通过管理约束梯度增加重复号码,或更有能力,评价每棵树的选矿J (0,1)。因此,更新后的模型

3.2。Catboost

Catboost是一种梯度增强算法近年来成功的Dorogush et al。54]。Catboost解决回归和分类问题和一直在宣传一个新的免费开源多平台梯度提高图书馆(54,55]。决策树受聘为基础薄弱的学习者Catboost算法和梯度增加的顺序符合决策树。为了提高Catboost算法的执行,避免过度拟合,梯度的学习信息的不一致的排列是使用[54]。

Catboost算法旨在最小化预测转移发生在学习阶段。传播搬迁的去除F (y) | ( ) 作为一个学习样本,与关系F (y) | ( )一个测试样本y。在学习阶段,梯度推动使用相同的样本的计算梯度和梯度的框架,减少。Catboost的概念是建立j…n,个人的基本框架P增加重复。第i个框架初始i m重复是学习的排列,适用于计算样本的梯度j为p + 1样本+ 1重复。成功,开始无节制的任意排列,这种技术使用年代回报任意排列。区分每重复管理框架是构建所有的排列和框架。对称的树作为一个基础框架。树木是延长种植所有叶节点level-wise通过使用相同的分割标准。

机制中引入Catboost算法是计算相同的当代人物的模仿建立网络。因此,对于一个指定的任意排列的样本,数据样本<用于计算每个样本的特征值。后来,各种排列执行和每个样本的获得性状值取平均值。Catboost是一个大规模的和全面的图书馆,是由各种元素组成的标准提高,GPU学习,由十倍hyperparameters优化修改几个可行的调查情况。标准梯度增加也是一个Catboost算法的一部分。图6描述了Catboost从事这项研究的描述。

应该注意的是,培训能力的多余音节Catboost算法是由其监管框架,即迭代的数量,学习速度,最大深度,等确定最佳hyperparameters模型是困难的,耗时的,具有挑战性的、单调的任务取决于用户的技能和专业知识。表5说明了执行Catboost框架在python中用于这项研究。

3.3。光梯度提升机(LightGBM)

光梯度提升机,缩写为LightGBM,微软是一个开源的梯度提高机器学习框架的使用决策树作为一个基础训练算法(56]。连续LightGBM插入元素值桶到离散的垃圾箱和更高的效率和更快的训练速度。它使用基于直方图算法(57,58)为了提高学习阶段,减少内存消耗,并包含一个更新的通信网络来改进培训统一,称为平行投票决策树机器学习算法。学习信息分为多个树,当地选举技术实现选择top-k元素,和全球技术是获得每个重复投票。LightGBM操纵leaf-wise战略感知与最大叶分配器获得如图7。它可以用于分类、回归、排序和许多机器学习项目。LightGBM构建一个复杂的树比level-wise分布leaf-wise技术的技术,即主成分为执行该算法具有较高的效率。即便如此,它产生过度拟合;然而,它可以通过使用禁止在LightGBM max-depth元素。

LightGBM [56)是一个全面的图书馆梯度提高和计划执行的一些修改。执行梯度的增加主要集中在建立一个计算系统的算法。图书馆由十倍训练hyperparameters验证这个框架来实现在不同的场景中。LightGBM执行也表明高级特性在CPU和GPU;它可以作为梯度提高和运营有多种的组合包括引导二次抽样和列随机化。LightGBM是基于广泛的梯度单面采样和独家功能捆绑。Gradient-based单面抽样是一种二次抽样样品机制用来构建学习信息作为基础树合奏。在机器学习演算法,这种机制的目的是提高样本的重要性更高的概率,这是与样本有较高梯度有关。基于当梯度单面采样,实现基础的学习者的学习信息是制定样品的最高分数更高的分数梯度(a) +任意实例(b)重新从样本较小的梯度。酬劳的变化测量传播,低梯度的样品类别排列在一起,体重由(1 - x) / y在计算获得的数据。 On the other hand, the Exclusive Feature Bundling mechanism accumulates the sparse element into a single element. This can be accomplished without preventing any knowledge when those elements do not consist of a nonzero number coincidently. The mechanism anticipates supplementary learning rate gain. Table6说明了执行LightGBM框架在python中用于这项研究。

3.4。极端的梯度增加(XGBoost)

极端梯度增加(XGBoost)是一种重要的机器学习方法的类型的集成学习算法(59]。它由普通的回归和分类树通过整合分析提高技术。增加提高了精度估计的框架通过建立各种树木作为替代建立目标树,后来他们决定增加一个连贯的预测模型(60]。XGBoost启动顺序的树保留过去的树木的残差影响结果树。因此,结果树建立综合预测通过生成错误过去的树木。阶段减少损失函数时,连续的框架结构的关系可以划分为一种梯度下降,改善了预测通过添加一个额外的树在每一步降低减少(61年]。树木生长结束时预先制定的最不寻常的树,或者当训练阶段的误差不能增强预测序列树数量。梯度性能迅速和评价准确性的提高可以显著增加了附加任意调查。特别是对每棵树的对称,任意训练数据子样品被认为从整个训练数据集,不包括更换。而不是整个样本,这个描述任意子样品然后利用适合树,确定更新框架。XGBoost是一种先进的重新分配梯度增强算法,可以管理和实现最新的预测演示(62年]。损失函数的二阶评价是受雇于XGBoost算法迅速,快速而修女梯度增强算法。它已广泛采用了我的基因耦合特性。图8描述了XGBoost从事这项研究的描述。

考虑 预测的结果吗 th数量的数据的特征向量 ;E显示每个估计量的估计数字 (与k从1到E)对应于个人树解剖学、和 描述了初步假设平均测量特征的学习信息。以下方程实现了各种扩展功能预测结果: 参数是附加的学习速率提高模型实现增强模型、执行有节奏地同时连接最近的树和面对过度拟合。

关于情商。9在k状态,一个角色k与预测模型和k值 实现的预测价值在前面的国家吗 和增强 附加的角色在影片中主人公k 显示了叶子的重量由减少目标函数的k树为代表 而N指定k树的叶子 代表叶子从1到N的重量,和 是用来实现一致性特征的一致性解剖学逃避的过度拟合模型。的参数 是全部信息的聚合附有数据一个叶前和随后的损失函数的梯度,分别。

序列构建k树,一片叶子分为不同的读法树叶。情商。12表明利用获得的解剖学参数。考虑 描绘了相互依存的叶子, 是相互依存的左叶达到散度。当时,由零增益参数接近,不同基准是传统上认为。的γλ均匀性特征是periphrastically易感增益特性;即。,higher the regularization parameter will decrease the gain parameter which in result will avoid the convolution of the excruciating of the leaf. But it will decrease the ability of the framework in order to apt to the training dataset.

XGBoost算法是一种广泛使用的机器组装的铰接和逻辑成就梯度提高机器学习算法。一个数值的结果回归预测模型问题。XGBoost可以练习及时概率回归框架。乐团建立的决策树模型。乐团先后链接树和调整预测不精确模型。这些类型的集合被称为推动机器学习技术。建立的框架实现任意梯度下降优化技术和不同的损失函数。当模型,实现梯度损失函数却降低了,因此这种机制被认为是“梯度增加。”表7说明了一个XGBoost框架的执行在python中使用。XGBoost框架表现良好在UCS数据集GBR相比,Catboost,和LightGBM参数n_splits = 10, n_repeats = 3, random_state = 1(所有其他参数被用作默认在python中)。然而,为了进一步加强XGBoost框架的性能,gbm_param_grid进一步实施这项研究。

3.5。性能指标

为了精确和近似评估机器学习算法的性能,不同的研究者采用不同的评价标准,即。相关系数(R2)[63年),平均绝对误差(MAE)、均方误差(MSE) [64年],均方根误差(RMSE) [65年]。的更高的价值R2和较低的美、MSE和RMSE表明预测目标值在每个模型有更好的表现。在这项研究中,四个评估标准是用来叙述UCS测量值与预测值之间的关联,也就是说,R2,梅、MSE和RMSE如表所示8

4所示。结果与讨论

UCS geostructures稳定性中起着重要作用。在这项研究中,使用新颖的机器学习方法来估计的准确性UCS是必要的。这是因为研究的准确性UCS可以帮助在设计任何类型的岩石工程项目。因此,本研究旨在将这些梯度提高机器学习算法,即GBR, Catboost, LightGBM,和XGBoost预测软沉积岩的UCS Block-IX塔尔煤田,巴基斯坦,通过使用四个输入变量,也就是说,ρw(克/厘米3);水分(%);ρd(克/厘米3);和BTS (MPa)。然后,每个模型相同的106点数据集分配70%的培训阶段训练模型和测试阶段测试模型为30%。最后,最终的输出预测UCS如下。

数据9(一个)9 (d)10 ()10 (d)的散点图预测UCS而不是衡量UCS的培训和测试阶段,分别采用不同的算法。在数据9(一个)9 (d)相关系数(R2)的GBR值、Catboost LightGBM,和XGBoost是0.97,0.95,0.40,和0.99在训练阶段,分别。与此同时,数字10 ()10 (d)证明了R2值的GBR Catboost、LightGBM XGBoost是0.94,0.91,0.39,和0.99的测试阶段,分别。数据1112显示性能的预测UCS与测量UCS在训练阶段。图12揭示了性能的预测UCS与测量UCS在测试阶段。

13显示了提出算法的各种性能指标等R2、美、MSE和RMSE。性能指标可以告诉我们发达的评估模型,我们可以区分最合适的模型。在这项研究中,提出的算法的性能指标列在下表中9

泰勒图描述了一个简洁的统计描述框架符合他们的标准偏差和相关性。下列方程(66年代表了泰勒公式的图: 在哪里R代表一个相关性,P是离散点的数字, 两个向量, 显示的标准差rf, 描述向量的平均值 ,分别。

14显示标准差之间的关联、RMSE和相关性预测UCS和测量UCS GBR Catboost, LightGBM,和XGBoost算法,分别从图13。根据结果,UCS XGBoost预测算法是高度相关的测量UCS相比其他算法进行了研究。此外,XGBoost的标准差是最近的原始值的标准偏差。结果,XGBoost演示了高精度相比现有的公开文献[7,21,40),并证明是UCS预测的高精度算法在所有。GBR还有一个标准差接近原来的标准偏差,但显示了最小R2价值。同时,Catboost LightGBM最小的相关性,远离原来的标准偏差值。

本研究的结果类似于先前的研究在文献中et al。40)也发展了XGBoost预测岩石力学性能的算法,即。UCS,在他们的研究中,证明结果与最大最好的性能R2和最小的美和RMSE。

5。敏感性分析

敏感性分析是一种统计工具,评估目标特性是如何影响基于变化的输入特性(67年]。在这个工作中,灵敏度分析进行了通过实现“功能重要性”模块在python编程语言上的优越表现XGBoost测试数据。下列方程(68年描述了功能重要性的公式: 在哪里 =功能的重要性估计从所有树木XGBoost测试数据集, =这个功能的重要性n,T表明整个数量的树木。

从图15,很明显,BTSρw呈正相关,水分和ρd与UCS负相关。每个输入特性的功能重要性给出:

BTS = 5.050,ρw= -0.078,水分= -6.457ρd= 3.475。

6。结论

UCS是其中一个重要的岩石强度参数和各种应用程序在采矿、地质、岩土工程等先进的数据可视化模型建立了以描绘各种间接测试UCS的研究成果。本研究开发了四个梯度增加GBR等机器学习算法,Catboost, LightGBM, XGBoost预测UCS软沉积岩Block-IX塔尔煤田。这些算法开发的应用程序很少用于对岩石力学参数的预测,尤其是UCS。为了执行梯度提高机器学习算法,这四个重要输入参数ρ在g / cm w3;水分%;干ρd g / cm3;和BTS MPa作为输入参数和相应的UCS采用作为输出参数。此外,106点数据集是为每个算法相同分割成70%的训练阶段和测试阶段的30%。开发模型中执行python编程语言。在这项研究中,每个开发算法的性能计算结果,XGBoost优于GBR, Catboost, LightGBMR2美= 0.00062 = 0.99,MSE = 0.0000006,在训练阶段和RMSE = 0.00079R2美= 0.00054 = 0.99,MSE = 0.0000005, RMSE = 0.00069测试阶段。此外,根据泰勒图,XGBoost的标准差是最近的原始值的标准偏差。因此,XGBoost展品高精度的培训和测试阶段,分别。在这项研究中,发达XGBoost算法被证明是最优算法的预测软沉积岩的UCS Block-IX塔尔煤田,巴基斯坦。未来的工作可以扩大使用不同的数据集来验证提出的算法的准确性。

数据可用性

生成的数据、模型和代码和/或工作期间研究可从相应的作者。

的利益冲突

作者声明没有潜在的利益冲突。

确认

这项研究受到了贵州省科技创新项目(Qiankehe平台人才XZ[2019] 5620号)。