评论文章

通过人工定向能量沉积Intelligence-Enabled方法

表10

对比各种网络模型使用。

算法 层深度、大小、训练时间和测试时间 数据集 精度 从实验值变化 Ref。

1隐层神经元7 3-7-1,前馈反向传播神经网络模型 没有提到。 98.7% 67.9%的日军 (94年]
美国有线电视新闻网 (我)Avg池层
(2)卷积层(3×3;32过滤器)
(3)Avg池层
(四)卷积层(3×3;16过滤器)
(v)平层
(vi)完全连接层
(七)Softwax函数(信心值概率)
时序热图像采集的帮助下相机和其他多个d流程设置。 80% 没有提到过 (57]
RNN (我)1 - 5层
(2)100 - 500格勒乌单位
(3)1 - 3完全连接层
使用伽马白手起家的。 MSE: 2.97e−5后100时代 没有提到过 (58]
LSTM (1)输入层
(2)LSTM层
(3)完全连接层
(iv)辍学层
(v)完全连接层
(vi)回归层
有限元模拟数据和人工裂缝的实验的数据。 预测的平均绝对误差:2.0μ (我)Abs误差有限元数据:6.88μ
(2)Avg错误对人工裂缝数据:7.41μm。
(59]
安:前馈反向传播 输入参数:L0正交数组
输入变量:3
Self-prepared、预处理和标记数据 97.08%R平方 没有提到过 (60]
美国有线电视新闻网 2层:卷积
(我)层1:10过滤器的内核大小6×6;
(2)层2:20过滤器的内核大小4×4 max-pooled池大小的2×2(20×7×7)图像卷积⟶max-pooling⟶完全连接层(200节点)⟶激活函数RELU⟶50%辍学
100000张照片两类。训练图像:60000 96.02%:案例一
93.69%:两个
24%:案例一
9.6%:两个
(63年]
堆叠RNN (我)1 - 5隐藏层
(2)100 - 500格勒乌单位
(3)1 - 3完全连接层
培训时间:40 h Nvidia方形住宅区P5000
使用伽马。 MSE: 3.17e−5 N /一个 (58]
单隐层(3-16-4) 使用安反向传播训练数据集。 90% 5% (64年]
梯度神经网络(我),提高了决策树(II),支持向量机(III)和高斯过程(IV) (我)回归:线性神经元= 283,非线性= 210,学习速度:0.000871
分类:线性神经元= 358,非线性= 744,LR = 0.000465;1隐藏层。(四)LR = 0.01;最大深度= 20
以前未发表的作者的实验结果。输入集(粉材料、衬底材料、光斑大小、电力,质量流率、旅行速度) 第二第三第四> > >我整体回归精度70.5%和72.3%的总体分类精度 没有提到过 (66年]
安和遗传算法的混合方法 没有提到过 实验测量的过程变量。 84% 5% (65年]
神经网络与隐层节点包含以下订单测试:3-1-3,3-3-3,3-6-3,3-7-3,3-1-1-3,3-3-3-3,3-6-6-3,3-7-7-3 60后准备进行实验。限制可用性的材料,被认为是需要成本和时间的实验 82% 2% (69年]
1-5-10-1 50组数据收集的实验。 没有提到过 4% (70年]