评论文章
通过人工定向能量沉积Intelligence-Enabled方法
|
| 算法 |
层深度、大小、训练时间和测试时间 |
数据集 |
精度 |
从实验值变化 |
Ref。 |
|
| 安 |
1隐层神经元7 3-7-1,前馈反向传播神经网络模型 |
没有提到。 |
98.7% |
67.9%的日军 |
(94年] |
| 美国有线电视新闻网 |
(我)Avg池层 (2)卷积层(3×3;32过滤器) (3)Avg池层 (四)卷积层(3×3;16过滤器) (v)平层 (vi)完全连接层 (七)Softwax函数(信心值概率) |
时序热图像采集的帮助下相机和其他多个d流程设置。 |
80% |
没有提到过 |
(57] |
| RNN |
(我)1 - 5层 (2)100 - 500格勒乌单位 (3)1 - 3完全连接层 |
使用伽马白手起家的。 |
MSE: 2.97e−5后100时代 |
没有提到过 |
(58] |
| LSTM |
(1)输入层 (2)LSTM层 (3)完全连接层 (iv)辍学层 (v)完全连接层 (vi)回归层 |
有限元模拟数据和人工裂缝的实验的数据。 |
预测的平均绝对误差:2.0μ米 |
(我)Abs误差有限元数据:6.88μ米 (2)Avg错误对人工裂缝数据:7.41μm。 |
(59] |
| 安:前馈反向传播 |
输入参数:L0正交数组 输入变量:3 |
Self-prepared、预处理和标记数据 |
97.08%R平方 |
没有提到过 |
(60] |
| 美国有线电视新闻网 |
2层:卷积 (我)层1:10过滤器的内核大小6×6; (2)层2:20过滤器的内核大小4×4 max-pooled池大小的2×2(20×7×7)图像卷积⟶max-pooling⟶完全连接层(200节点)⟶激活函数RELU⟶50%辍学 |
100000张照片两类。训练图像:60000 |
96.02%:案例一 93.69%:两个 |
24%:案例一 9.6%:两个 |
(63年] |
| 堆叠RNN |
(我)1 - 5隐藏层 (2)100 - 500格勒乌单位 (3)1 - 3完全连接层 培训时间:40 h Nvidia方形住宅区P5000 |
使用伽马。 |
MSE: 3.17e−5 |
N /一个 |
(58] |
| 安 |
单隐层(3-16-4) |
使用安反向传播训练数据集。 |
90% |
5% |
(64年] |
| 梯度神经网络(我),提高了决策树(II),支持向量机(III)和高斯过程(IV) |
(我)回归:线性神经元= 283,非线性= 210,学习速度:0.000871 分类:线性神经元= 358,非线性= 744,LR = 0.000465;1隐藏层。(四)LR = 0.01;最大深度= 20 |
以前未发表的作者的实验结果。输入集(粉材料、衬底材料、光斑大小、电力,质量流率、旅行速度) |
第二第三第四> > >我整体回归精度70.5%和72.3%的总体分类精度 |
没有提到过 |
(66年] |
| 安和遗传算法的混合方法 |
没有提到过 |
实验测量的过程变量。 |
84% |
5% |
(65年] |
| 安 |
神经网络与隐层节点包含以下订单测试:3-1-3,3-3-3,3-6-3,3-7-3,3-1-1-3,3-3-3-3,3-6-6-3,3-7-7-3 |
60后准备进行实验。限制可用性的材料,被认为是需要成本和时间的实验 |
82% |
2% |
(69年] |
| 安 |
1-5-10-1 |
50组数据收集的实验。 |
没有提到过 |
4% |
(70年] |
|
|