评论文章

深度学习在Computational-Resource-Limited平台:一项调查

表1

代表性研究工作基本原则的角度。

代表性研究工作 技术

引起的内存开销过大的网络 (39] 通过聚类权重矩阵压缩pretrained网络:在假设空间合并类似的功能
(56] 重修剪pretrained网络:删除贡献小的权重在假设空间拟合函数
(39,58] 稀疏的培训:套索正则化、结构化稀疏正则化
(68年] 在数字计算机计算优化:细粒度的利用内存

时间和精力开销引起的反向传播,内存操作,hyperparameter调优 (37,39,49] 算法设计,避免计算冗余:深度分离卷积,避免im2col重新排序,映像矩阵向量乘法基于奇异值分解和Tucker-2
(37] 数字计算机的高速缓存:重用卷积,以避免冗余计算的中间结果
(39,40] 数字处理器上的并行化:FPGA, GPGPU
(37,40,53] 充分利用数字处理器:分析和微调的CPU或GPGPU代码
(59] 避免频繁通过布尔逻辑最小化内存操作
(41] Hyperparameter使用高斯过程调优

诅咒的维度 (53] 计算权重矩阵的分解
(60] 数据嵌入