金融破产预测是至关重要的金融机构在评估公司和个人的财务状况。这样的工作是金融机构必须建立有效的预测模型做出适当的贷款决策。近几十年来,各种破产预测模型已经开发了学者和实践者来预测贷款的客户将会破产的可能性。其中,人工神经网络(ann)广泛和有效的应用于破产的预测。灵感来自生物神经元的机制,我们建议修剪一个进化神经网络金融破产(EPNN)模型进行分析。EPNN拥有一个动态的树突结构培训由全局优化学习算法:自适应差分进化算法与可选的外部存档(玉)。EPNN可以减少计算复杂度通过去除多余的和无效的突触和树突结构,同时能够实现竞争分类精度。简化结构后,可以完全取代EPNN包含比较器和逻辑的逻辑电路,和盖茨。这种机制使其可行的应用EPNN破产分析硬件的实现。核实EPNN的有效性,我们采用两个基准数据集实验。 The experimental results reveal that the EPNN outperforms the Multilayer Perceptron (MLP) model and our previously developed preliminary pruning neural network (PNN) model in terms of accuracy, convergence speed, and Area Under the Receiver Operating Characteristics (ROC) curve (AUC). In addition, the EPNN also provides competitive and satisfactory classification performances in contrast with other commonly used classification methods.
压倒性的2007/2008年亚洲金融危机导致许多大型金融机构的破产和做了一些收购他们的政府。因此,破产风险管理已成为一个重要的研究领域。公司代表一个破产的情况下,公司的营运现金流量及其负的净资产不能平衡。这经常导致实际削弱公司的盈利能力。破产预测的目的是评估一个公司的现在和未来的财务状况从长期的角度操作市场。 采取了各种定量统计方法来提高破产预测模型。采用判别分析分类观察之间的好的和坏的纳税人( 人工神经网络是灵活的和非参数建模工具能够执行任何复杂的函数映射任意所需的精度( 在生物神经元模型,树突计算机制可以提供一个具体的解释关于定位的突触输入适当的连接。这意味着剩下多余的突触和树突神经网络的最初,迅速而无用的删除,剩下的被加强。最终,这一过程创造了一个增强的神经网络函数形式。受这些组织学理论的启发,科赫等人指出,兴奋和抑制性输入之间的相互作用有明显的非线性。一旦抑制性输入和兴奋性输入soma位于同一路径,抑制性输入能具体地消除兴奋性输入。然而,问题,如兴奋性或抑制性突触是否应该保留,它应该定位,和树突分支应加强,如果在这个模型( 在我们先前的研究,并通过模型,在特定的位置和类型的突触树突分支通过学习制定,提出无用和多余的突触树突连接消除。因此,模型的效率提高( 在这项研究中,我们提出一个EPNN模型与树突结构被称为玉算法的全局优化算法 除了避免误导和矛盾的结论,四个关键组件是仔细定义为允许一个从实验结果得出的结论。首先,研究采用了基准和面向应用的数据库,即定性破产数据集从UCI机器学习数据库存储库和一个痛苦Kaggle数据集的数据集。第二,在模拟中,这两个数据集分为训练集和测试集的比例为50%。第三,平均精度、灵敏度、特异性、收敛速度、和AUC是用作评价指标框架;这些指标可以用来有效地分析破产的可能性。第四,一个非参数检验叫Wilcoxon rank-sum测试采用允许我们声称观测结果性能的差异具有统计学意义,而不是简单地随机分裂造成的影响。 最后,我们的主要贡献是澄清如下:首先,小说EPNN模型本文提出了一种可以采用神经元突触和树突修剪简化其培训过程中形态。第二,EPNN简化模型可以完全取代了逻辑电路,易于硬件实现。逻辑电路可以维持高分类精度,获得极高的计算速度,同时进行。最后,实现了综合对比实验证明EPNN优于中长期规划,并通过和其他常用的分类器在破产预测问题。 本文的其余部分构造如下。部分
我们建立EPNN树突结构和训练有素的玉,达到破产分类精度高。的形态架构EPNN图所示 神经元的突触层代表了特定区域的神经冲动传输中神经元,从而通过一个神经元的轴突终末,神经递质释放在回应一个脉冲(
常数,连接有两种状态:<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M30">
有两个州在常数1连接:<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M36">
的值<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M44">
一层树突突触信号的表示一个典型的非线性相互作用在每个分支的树突。乘法操作起着至关重要的作用在运输和神经信息处理的过程中( 膜层积累的线性求和树突上树突的信号层。它类似于二进制的逻辑或操作情况。这个逻辑或操作生成一个1当至少一个变量是1。它的方程如下所示: 膜层的输出传送到soma层。神经元膜电位超过阈值后,火灾。乙状结肠操作用于描述soma的功能层: EPNN拥有的能力来执行一个神经修剪函数简化它的拓扑形态。神经修剪技术代表了额外的节点和省略权重通过学习和训练的神经网络 突触修剪:当轴突的突触层接收输入的常数1连接情况下,突触的输出总是1。由于乘法操作,任意值的结果乘以1等于本身在树突层。很明显,突触输入常数1连接的最小影响树突的输出层。因此,这种类型的突触输入完全可以被忽略。 树突修剪:当接收输入信号的突触层是常数,连接情况下,输出总是0。因此,相邻的树突的输出层变成了0因为任何值的结果乘以0 = 0。这意味着整个树突层应该省略了因为它对soma层的结果影响很小。 的一个例子突触和树突修剪过程呈现在图
实际上,并患有维度的诅咒。当维数增加很大程度上,任何小变化的重量在一个树突分支的最终结果将会产生巨大的差异,因为乘法操作。这是EPNN的主要限制。因此,需要我们提出更强大的优化算法来找出答案。传统的分类器使用BP调整权重和阈值。然而,BP存在一个固有的局部最小值捕获问题和困难在实现全球最佳值的权值和阈值。英国石油公司的这个缺点在很大程度上限制了我们的神经模式计算功能。改善EPNN的性能,我们采用玉训练模型。 一些“玉一直被视为一个重要的变量微分进化(DE)”在2011年出版的主要DE审查( 在初始种群初始化:每个代理<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M57">
变异:在每一代<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M61">
交叉:二项交叉操作采用生成最终的后代矢量<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M72">
选择:选择操作比较父向量<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M81">
此外,如果试验向量<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M85">
参数适应:更好的控制参数值会导致个人有更大可能性为了生存,因此,这些值应该保留在下一代。在每一代<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M89">
同样,突变的因素<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M103">
此外,一组<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M107">
EPNN的性能评估,基准和面向应用的数据库都是采用我们的实验。每个选择都有其优点和缺点。基准数据库允许未来实验充分比较在不同的预测模型,但它不能代表当前的社会经济状态。因此,实验可能会过时,导致无意义的结论。相比之下,面向应用的数据库能够解决现实问题,但是很难雇佣为进一步比较。因此,它通常是最好采用基准和面向应用的数据库的混合物( 定性破产从UCI数据集存储库,已成功申请破产在几个以前的文学作品分类。250实例的数据集是由基于6属性,与每个相应的定性参数有关破产,即工业风险、管理风险、财务灵活性,信誉,竞争力和操作风险。名义的输出有两类类型,实例描述为“破产”(107例)或“Non-bankruptcy”(143例)。痛苦Kaggle数据集的数据集,可以发现
一般来说,数据预处理是一个初始和数据分析的基本步骤。因为人工神经网络需要每个数据样本被表示为一个实数向量,我们需要改变名义数据样本的属性数值输入到分类器(前 没有缺失值定性破产数据集,但是所有的属性都是名义上的。这个数据集包含250个样本,每个样本具有6特性。6功能都由三个标签:“P”,“A”和“N”。我们定性特征转换为值1,2和3,分别。 原来痛苦数据集是一个广泛的数据集;它包括422家公司,每个公司在不同的时间序列的行为不同。此外,这个数据集是不平衡和倾斜;有136对286名健康的财务陷入困境的公司,136 firm-year观察经济陷入困境,而3546年firm-year观测是健康的。让痛苦的结构数据集下的观察是类似于定性破产数据集,我们进行一些预处理。首先,所有的不良公司选择从时间序列周期1,周期14日和陷入困境的公司的总人数是126。在每一个时间序列,15个随机选择健康的公司,和健康的公司的数量是210。因此,仍有336个样本在新生成的数据集。因为每个公司提出了83年的特性,这个数据集仍然相对较大。我们采用minimal-redundancy-maximal-relevance (mRMR)标准生成特征选择。 The mRMR criterion offers an excellent way to maximize the dependence of the results on the input features by combining the max-relevance criterion with the min-redundancy criterion. Moreover, mRMR can not only enhance the appropriate feature selection but also achieve high classification accuracy and high computation speeds [ 通过运营商mRMR结合了两个约束条件<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M119">
实现一个特定的准确率,实现快速收敛的训练数据集,必须选择一组最优的参数。田口方法是用来减少实验运行使用正交数组( 定性的参数水平EPNN破产数据集。
参数水平EPNN遇险的信贷数据集。
从表 此外,因为延时和并采用的竞争对手在我们的实验中,其他几个参数这些算法被认为是谨慎的。表 初始参数算法的比较。 接下来,做一个公平的比较,EPNN表演,中长期规划,并应与一个大约相同数量的阈值和权重。此外,对所测试的学习速率和延时使用back-error传播算法训练设置为0.01。树突的数量应该定义在这个仿真,并通过应该隐藏层的数量和神经元电路的延时。延时参数的数量主要取决于隐层神经元的数目。因此,我们表示延时<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M194">
同时,并通过和EPNN突触输入数字<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M202">
中长期规划的结构描述和EPNN表所示 结构定性EPNN和MLP的破产和痛苦数据集。 评价分类方法的性能,每个数据集随机分离为两个子集:训练集和测试集。训练子集用于建立分类模型,并采用测试数据集测试模型的准确性。分割策略显著相关实现可靠的模型评价,因为数据通常是非常稀缺的。根据之前的实验中,一个更大的训练集的结果在一个更好的分类器(
8、10、12、14 3、5、7、10 0.1,0.3,0.5,0.7
费用。不/参数
测试精度
1 8 3 0.1 99.52<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M145">
2 8 5 0.3 99.01<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M146">
3 8 7 0.5 99.15<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M147">
4 8 10 0.7 99.01<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M148">
6 10 5 0.1 99.23<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M150">
7 10 7 0.9 99.12<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M151">
8 10 10 0.7 99.12<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M152">
9 12 3 0.5 99.15<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M153">
10 12 5 0.7 99.23<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M154">
11 12 7 0.1 98.88<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M155">
12 12 10 0.3 99.12<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M156">
13 14 3 0.7 98.64<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M157">
14 14 5 0.5 99.15<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M158">
15 14 7 0.3 99.07<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M159">
16 14 10 0.1 98.93<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M160">
12日,15日,18日,21岁 3、5、7、10 0.3,0.5,0.7,0.9
费用。不/参数
测试精度
1 12 3 0.3 76.25<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M168">
2 12 5 0.5 75.73<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M169">
3 12 7 0.7 75.69<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M170">
4 12 10 0.9 74.78<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M171">
5 15 3 0.5 76.15<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M172">
6 15 5 0.3 76.31<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M173">
7 15 7 0.9 76.11<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M174">
8 15 10 0.7 75.83<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M175">
9 18 3 0.7 75.06<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M176">
10 18 5 0.9 75.10<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M177">
11 18 7 0.3 75.48<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M178">
13 21 3 0.9 75.20<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M180">
14 21 5 0.7 75.08<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M181">
15 21 7 0.5 75.42<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M182">
16 21 10 0.3 76.27<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M183">
方法 相关的参数 参数的值
EPNN popSize 50
Max-gen 1000年
10(破产),18(痛苦)
3(破产),10(痛苦)
0.3(破产),0.5(痛苦)
并通过 Max-gen 1000年
lr 0.01
10(破产),18(痛苦)
3(破产),10(痛苦)
0.3(破产),0.5(痛苦)
中长期规划 时代 1000年
lr 0.01
数据集 模型 不。的输入 不。隐藏的分支节点 不。的输出 不。调整参数
定性的破产 EPNN 6 10 1 120年
中长期规划 6 15 1 121年
痛苦 EPNN 10 18 1 360年
中长期规划 10 30. 1 361年
一般来说,大多数绩效评估指标试图估计模型预测正确的课堂上学到的新的输入样本;然而,不同的指标收益率不同排列的模型表现( 表 预测结果的应变矩阵。 除了不同的分类算法相比,这两个模型的收敛性能,EPNN和中长期规划,进行了比较。时,均方误差(MSE)达到预定的最小值,学习往往是完成。训练误差计算中所示(
假设类 真正的类
积极的 负
积极的 真阳性 假阳性
(TP) (FP)
负 假阴性 真正的负
(FN) (TN)
对于一个公平的比较,EPNN和并配有相同的参数,并对所测试的学习速率和延时都是相同的。这三种算法运行独立的30倍。表 实验结果定性破产数据集。 其他分类方法的初始化参数。 为定性破产数据集,如表所示 分类的性能EPNN相比与其他分类方法定性破产数据集。 破产的收敛曲线定性数据集。 中华民国的定性破产数据集。 因为有很多提议的方法,采用分类定性破产数据集相关文献,我们总结了分类性能和比较EPNN。具体来说,表 分类精度定性破产数据集获得的其他单一分类方法相关文献。 分类精度定性破产数据集获得的其他混合分类方法相关文献。 实验结果为压力数据集。 关于压力数据集,如表所示 分类性能EPNN遇险数据集与其他分类方法相比。 痛苦的收敛曲线数据集。 中华民国的痛苦数据集。
方法 平均精度 Wilcoxon rank-sum测试 灵敏度
特异性
AUC Wilcoxon rank-sum测试
(AVE<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M215">
(<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M216">
(AVE<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M217">
(<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M218">
EPNN
N /一个
N /一个
并通过 98.11<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M221">
2.82<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M222">
0.9852 0.9185 0.9871<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M223">
1.20<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M224">
中长期规划 94.59<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M225">
8.76<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M226">
0.9393 0.9552 0.9868<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M227">
1.50<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M228">
方法 参数 价值
然而, k 5
RBF 径向基函数的传播 1。0
射频 数量的树 50
DT 孩子们 1
支持向量机 类型的核函数 径向基函数
学位 3
达 先验概率 统一的
方法 平均精度
的意思是<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M229">
然而, 99.12<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M230">
RBF 96.75<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M231">
射频 98.99<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M232">
DT 97.92<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M233">
支持向量机 99.39<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M234">
达 99.52<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M235">
EPNN
作者(年) 方法(train-to-test比率) 平均精度(%)
Kalyan Nagaraj, Amulyashree bloom (2015) ( 逻辑回归(2/3-1/3) 97.2
Kalyan Nagaraj, Amulyashree bloom (2015) ( 旋转森林(2/3-1/3) 97.4
Kalyan Nagaraj, Amulyashree bloom (2015) ( 朴素贝叶斯(2/3-1/3) 98.3
Kalyan Nagaraj, Amulyashree bloom (2015) ( RBF-based SVM (2/3-1/3) 99.6
e . k . Kornoushenko (2017) ( 最近的邻居(50% - -50%) 97.6
J。Uth一个y一个ku米一个ret。一个l。 (2017) [ Ant-Miner(10折交叉验证) One hundred.
J。Uth一个y一个ku米一个ret。一个l。 (2017) [ 逻辑回归(10折交叉验证) 99.2
J。Uth一个y一个ku米一个ret。一个l。 (2017) [ 延时(10折交叉验证) 99.2
J。Uth一个y一个ku米一个ret。一个l。 (2017) [ 随机森林(10折交叉验证) One hundred.
J。Uth一个y一个ku米一个ret。一个l。 (2017) [ 激进的基函数(10折交叉验证) 99.2
J。Uth一个y一个ku米一个ret。一个l。 (2018) [ 遗传算法(未提及) 71.48
J。Uth一个y一个ku米一个ret。一个l。 (2018) [ 蚁群算法(未提及) 83.05
我们的方法(2019) EPNN (50% - -50%) 99.57
我们的方法(2019) EPNN(10折交叉验证) 99.68
作者(年) 方法(train-to-test比率) 平均精度(%)
易晒黑等人。(2016) 混合物流regression-naive贝叶斯(90% - -10%)) 99.64
Nanxi王(2017)( 与强大的逻辑回归神经网络模型(50% - -50%) 69.44
Nanxi王(2017)( 神经网络模型与归纳学习算法(50% - -50%) 89.7
Nanxi王(2017)( 神经网络模型与遗传算法(50% - -50%) 94年
Nanxi王(2017)( 神经网络模型与神经网络没有辍学(50% - -50%) 90.3
Nanxi王(2017)( 神经网络模型与支持向量机(50% - -50%) 98.67
Nanxi王(2017)( 神经网络模型与决策树(50% - -50%) 99.33
J。Uth一个y一个ku米一个ret。一个l。 (2018) [ 遗传蚁群算法(未提及) 91.32
J。Uth一个y一个ku米一个ret。一个l。 (2018) [ Fitness-scaling混沌遗传蚁群算法(未提及) 92.14
J。Uth一个y一个ku米一个ret。一个l。 (2018) [ 改进的k - means聚类和fitness-scaling 97.93
混沌遗传蚁群算法(未提及)
我们的方法(2019) EPNN (50% - -50%) 99.57
我们的方法(2019) EPNN(10折交叉验证) 99.68
方法 平均精度 Wilcoxon rank-sum测试 灵敏度
特异性
AUC Wilcoxon rank-sum测试
(AVE<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M237">
(<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M238">
(AVE<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M239">
(<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M240">
EPNN
N /一个 0.8108 0.6546
N /一个
并通过 54.03<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M243">
2.43<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M244">
0.3166
0.6338<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M245">
6.67<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M246">
中长期规划 66.15<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M247">
9.09<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M248">
0.3575 0.6814<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M249">
2.13<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M250">
方法 平均精度
的意思是<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M252">
然而, 76.35<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M253">
RBF 49.15<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M254">
射频
DT 76.11<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M256">
支持向量机 62.42<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M257">
达 74.74<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M258">
EPNN 76.41<我nl我ne- - - - - -for米ul一个><米ml:math xmlns:mml="http://www.w3.org/1998/Math/MathML" id="M259">
如前所述,EPNN可以实现培训过程中突触修剪修剪和树突。因此,可以删除多余的突触和树突,然后,一个简化的和不同的拓扑形态形成为每个问题。图 模型结构比较定性的破产和窘迫的数据集。 破产的树突形态定性数据集后学习。 定性的树突形态破产树突修剪后的数据集。 定性的树突形态破产突触修剪后的数据集。 最后定性破产数据集的结构。 痛苦的树突形态学习后的数据集。 痛苦的树突形态树突修剪后的数据集。 痛苦的树突形态突触修剪后的数据集。 最后痛苦的结构数据集。
数据集 功能的输入 树枝状层 调整后的重量
最初的 选择 最初的 选择 最初的 选择
定性的破产 6 4 10 7 120年 56
痛苦 10 9 18 4 360年 72年
除了神经修剪功能,其他功能值得强调的是,EPNN可以形成一个近似的简化结构逻辑电路适用于硬件实现。数据 逻辑电路的验证。 定性破产数据集的逻辑电路。 痛苦的逻辑电路数据集。
数据集 EPNN的准确性 逻辑电路的准确性
定性的破产 99.57 One hundred.
痛苦 76.41 79.17
人工智能算法,如神经网络方法,被广泛应用于破产分析。在本文中,我们引入一个更现实的神经模型称为EPNN促进破产分析。这种技术采用JADE算法训练该模型获得令人满意的分类性能。并通过和MLP相比,该EPNN执行最佳的平均精度和AUC基准和面向应用的数据集,即定性破产数据集,数据集的痛苦。此外,与其他资讯等分类方法相比,RBF,射频,DT,支持向量机,DA, EPNN还提供了竞争和令人满意的分类性能。注意,神经元修剪EPNN的机制是一个重要方面。突触修剪和树突修剪后,输入特征在两种数据集的数量减少,并简化神经网络的结构。此外,简化结构形态可以形成一个逻辑电路,也可以作为一个强大的工具来解决破产预测问题。因此,本文的贡献可以从三个方面总结:首先,我们提供一个全面研究通过比较不同的分类模型的破产预测问题。尽管许多新颖的算法不断出现,大部分方法仍然只关注破产预测模型的能力,提高分类精度。 Compared with some other models, the EPNN possesses a certain advantage with respect to average accuracy and AUC. Second, the EPNN can implement synaptic and dendritic pruning to realize pattern extraction and reconstruct a more compact neuronal morphology. The EPNN has a large initial neuronal topology, which makes it not very sensitive to its initial conditions, but it can utilize neuronal pruning after learning, which increases the efficiency of the neural network, speeds up the convergence, avoids becoming trapped in local minima, and reduces the operation time and computational cost. Third, the simplified models can be replaced by logic circuits, which can increase the classification accuracy and be easily implemented on the hardware. Therefore, these findings provide details and offer insight into technical development for understanding and tracing the operating mechanisms and construction of single neurons. In addition, the results also imply that the proposed EPNN classifier possesses an excellent potential to be applied in other binary classification problems. The EPNN makes it possible to draw standard profiles of the failing companies and provide a theoretical contribution to the phenomenon of bankruptcy. It is believed that the EPNN will be suitable for not only bankruptcy prediction but also other fields of application within the scope of financial analysis such as performance analysis.
没有数据被用来支持本研究。
作者宣称没有利益冲突。