医学影像技术在医学领域变得越来越重要。它不仅提供了重要的信息关于身体的内部器官进行临床分析和医疗也帮助医生诊断和治疗各种疾病。然而,在医学图像特征提取的过程中,存在一些问题,比如不显眼的特征提取和低功能准备率。结合卷积神经网络的学习理念,形象multifeature矢量量化在更深的层面上,这使得图像特性进一步抽象,不仅弥补了单一特征描述的片面性,但也提高了鲁棒性的特征描述符。本文提出一种基于multifeature融合医学图像处理方法,具有较高的医学图像特征提取影响的胸部,肺、脑和肝脏,可以更好地表达医学图像的特性关系。实验结果表明,该方法的准确性超过5%高于其他方法,这表明该方法更好的性能。
小波神经网络的医学图像分割算法的基础上,结合最大熵准则来优化网络参数,得到的参数,避免相对极值和最大熵达到精确分割的最佳效果。该算法不仅缩短了训练时间样本,也大大提高了精度。与传统的BP神经网络相比,效果更准确和有效
在医学上,一个组的图像记录相同的症状,和所有图片共享相同的重量地图。加上这个内容,一个新的全球空间注意机制可以用于医学图像分类(
医学图像融合可以提供全面的和有用的信息以支持临床诊断和治疗。它使用nonsubsampling变换将图像分成两个部分波段,低频和高频(
卷积神经网络(CNN)定位和检索医学图像。它使用深度学习技术提取图像标签的强大的功能描述,然后通过适当的参数直接执行标签匹配和识别它们的查询(
作为一个成熟的图像识别方法,基于深度学习的网络学习模式包括卷积神经网络,递归神经网络和重要算法,如网络生成对策。卷积神经网络近年来取得了快速发展和广泛应用,发挥了巨大的积极作用领域的图像识别和目标检测。当使用卷积神经网络模型对图像识别,它不再是必要的设计和选择手动功能,识别过程中所需的信息和功能是由CNN自学习过程中不断修改和优化培训。在过去的几十年里,深度学习已被证明是一个非常强大的工具,因为它处理大量数据的能力。在某些方面,使用深层神经网络的性能已超越传统的技术,特别是在模式识别。卷积神经网络是最流行的深层神经网络之一。
随着图像的出现净数据集和数以百万计的标记图像数据和计算能力的不断提高,研究人员re-realized,是时候CNN重用。图
医学图像的卷积神经网络结构。
由于图像的多样性和复杂性用于训练模型,参数将变得无序,当更新权重。如果图像样本直接输入到模型,可能会消耗大量的训练时间,模型不容易收敛。为了避免这些问题,卷积神经网络的输入数据层主要是读取图像样本和简单的预处理,它提供了方便后续网络学习图像特征。
在CNN卷积计算一层一层是最重要的结构。卷积层包含不同数量的卷积过滤器(也称为卷积核),它可以提取输入图像数据的不同特征。操作之间的卷积过程形象和卷积内核可以表示如下:
卷积转换图。
卷积核在图
在图像处理的过程中,边缘特征提取,边缘通常是补充了0。应保持输入和输出图像不变的尺寸不改变原始图像的像素。图
卷积的计算过程。
卷积内核越大,平滑的图像会变得和不太明显的图像中的噪声。卷积核越大,图像的不那么明显的对比。一般来说,相同的维度数据卷积检查结果没有影响;如果卷积核的尺寸是不同的,会有一定的影响但还需要其他操作资源。
非线性映射的过程从一个高维图像特征映射到另一个地方,和映射向量可以表达高分辨率特性和这些功能合并到新特性的图像。在第二层,<我talic>
N1维映射到<我talic>
N2维,也可以通过卷积<我talic>
f2×<我talic>
f2。它的公式定义如下:
神经网络非线性变换的结构图。
最终的图像特征可以通过平均和正常化超级从上层获得特征值,如以下公式所示:
损失函数是用来评估模型的预报值的程度不同于真正的价值。通常,更好的使用损失函数,模型的性能越强。因此,不同的模型使用的损失函数通常是不同的。损失函数是用来评估处理后两个医学图像之间的拟合程度。
损失函数绝对值衡量算法的预测价值之间的差异和目标价值,如以下公式所示:
损失函数是用来描述对象在图像特征值的概率分布,特别是在高频率分类。信心的分流类别是必需的。公式如下:
平方损失函数如下:
如果<我talic>
X分布在同一概率分布<我talic>
P(<我talic>
x),<我talic>
问(<我talic>
x相同的变量),吉隆坡是用来描述两个分布之间的差异如下公式所示:
激发函数的卷积神经网络组成。本文采用非线性激活函数来描述复杂的特点,下列公式所示:
类似于多层神经网络,卷积神经网络使用s形的函数,和常见的激活函数如下:
激活函数卷积操作之后,使用和一些使用preactivate函数算法在卷积。
传统的医学图像处理过程和神经网络检测算法显示异常数据匹配。然而,传统的医学图像分割算法使得提取特征值不合理的特点。因此,医学图像检测算法的主要关键部件可以被描述为四部分:医学图像分割,特征区域提取、功能区域分析和提取,医学图像特征分类和识别。
医学图像的图像感兴趣的领域,和图像的区域有明显的特色医学图像。实现图像处理的阈值分割方法;然后,特性进行分割和特征提取感兴趣的地区;最后提取特征值标准化,神经网络是用于检测和识别图像。检测过程如图
医学图像特征提取和识别过程。
神经网络,由于层数越多,网络的规模越来越大,数据值不断地转移,这将导致数据的优化值,产生巨大的错误。因此,卷积的数据在不同的层网络进行了优化,和输入数据的偏差引起的不同层减少了。本文使用批处理梯度下降优化卷积神经网络和分组用于更新数据。在每一层的神经网络,输入被定义为<我talic>
X= (<我talic>
x1,<我talic>
x2…<我talic>
x
阈值法是一种分割方法基于属性,如灰色特性和图像像素。其表达式如下:
公式(
重复步骤1到步骤4直到<我talic> T值小于指定值。
医学图像是显而易见的标致的灰色特性特性,包括灰色的意思是,灰色的方差,和灰色直方图熵。他们所示公式(
纹理特征是图像的统计和基于图像的多个像素的特性,在医学图像中,病变特征更明显的一部分,和一些功能也有干扰。可以用灰度共生矩阵纹理特性,不仅可以表达有趣的特性在医学图像。灰度共生矩阵可以由以下公式描述:
本地二进制模型用于计算图像的纹理特征,可以更好地表达相邻区域的灰度值,和每个区域的中心值是通过权重来解决。公式如下:
图像形状特征对图像近似形状和外观特征;multifeature用于提高融合图像的特征区域来提高图像特征提取的准确性。Multifeature融合的融合不同的特征提取结果描述图像内容,准确地表达图像的信息。流程如图
特征融合的过程。
然而,这三个特征融合方法有一些需求特征维度,如参与融合的特性应该有相同的特征维度。这里提到的规范化标准化过程前面所提到的,这提高了数据融合的准确性。
在卷积神经网络用于本文激活函数是乙状结肠函数和损失函数是交叉熵损失函数。实验需要一个更好的实验硬件环境,本文中采用的实验环境如表所示
实验环境设置。
| 环境配置 | 模型 |
|
|
|
| GPU | 英伟达RTX3090 24 g |
| CPU | 英特尔银4210 r 10核20线程<我nl在e-formula>
|
| 内存 | 64克 |
| 操作系统 | Ubuntu 16.04 |
| 语言 | Python 3.7 |
Keras深学习模型是用于建立网络模型和卷积神经网络融合特性图
比较算法在不同特性的图片:(一)原始图像;(b)冲浪;(c)灰色纹理特征;(d)融合功能的方法。
从上面的结果可以看出,基于融合图像的图像处理方法的特性有明显的分割效果。处理后的图像不是关键特性,显示明显的部分功能。
不同数量的返回结果<我talic>
K(8、16、24、32)设置对于人体的不同部位的图像,并计算图像的精度。从表可以看出
比较精密的几种特征提取方法。
|
|
冲浪 | 灰色纹理特征 | 融合功能 |
|
|
|||
| 8 | 76.83 | 64.34 | 84.35 |
| 16 | 65.24 | 68.63 | 75.12 |
| 24 | 55.95 | 67.25 | 74.36 |
| 32 | 54.21 | 64.35 | 75.52 |
有医学图像不同部分的数据集。根据上述方法,图像的胸部,肺,脑,肝脏是融合功能。20医学图像数据集的每个部分是随机选为功能测试,平均精度计算通过返回<我talic>
K特征提取的结果,在那里<我talic>
K值是24。表
特性的比较精密的医学图像在不同的部分。
| 图像类型 | 冲浪 | 灰色纹理特征 | 融合功能 |
|
|
|||
| 胸部 | 73.41 | 68.25 | 81.47 |
| 肺 | 70.21 | 72.65 | 79.35 |
| 大脑 | 68.54 | 70.25 | 75.24 |
| 肝 | 65.24 | 65.21 | 71.65 |
表
本文验证融合角点的线性编码方法和纹理特性来提高检索精度。在本章的算法与冲浪相比,灰色纹理特征提取,伽柏纹理特征提取。实验结果的比较数据所示
比较胸部医学图像的特点。
比较肺医学图像的特性。
比较脑医学图像的特性。
比较肝脏医学图像的特点。
数据
摘要提出了一种基于融合多种特征的医学图像处理方法,具有较高的医学图像特征提取影响的胸部、肺、脑、肝脏、可以更好地表达医学图像的特性关系。特征提取在医学图像处理非常重要。可有效提取特征融合的multifeatures,显示了该方法的正确性和适用性提出了。本文比较了四种医学图像,仍有许多医学图像未被研究和比较。在以后的阶段,卷积神经网络将保险丝multifeature图像特征提取。
使用的实验数据来支持本研究的发现可以从相应的作者。
作者声明,关于这项工作他们没有利益冲突。
这项工作的部分支持由黑龙江省博士后资助(LBH-Z19071)。