一种基于深度学习的多特征融合图像分类方法与流程

    专利2022-07-08  146


    本发明属于人工智能领域,具体涉及一种基于深度学习的图像分类方法。



    背景技术:

    随着深度学习的发展,利用神经网络对图片做分类任务的技术已经趋于成熟,传统的神经网络利用卷积神经网络对图片进行特征提取。由于图片中可能存在多种重要的特征,传统的特征提取可能无法精准的提取所有特征,对分类的准确性造成一定的影响。利用注意力机制提取出某些值得注意的特征,并对其中一个特征进行随机遮盖,并将处理后的特征与原图特征进行相加,进行特征相加能够忽视某些特征而重点强调其他更重要的特征,使神经网络的训练能够尽可能的捕捉到更多的特征,而不是可能单一的侧重某些明显的特征。



    技术实现要素:

    针对现有技术的不足,本发明提出了一种基于深度学习的多特征融合图像分类方法,设计深度学习模型,提取特征后定位图像中的重点特征区域,然后对重点特征区域再次进行特征提取,对两次提取的特征相加后再分类,提高分类准确度。

    一种基于深度学习的多特征融合图像分类方法,包括如下步骤:

    步骤1、数据集划分;

    将采集到的划分为训练集,测试集以及验证集。

    步骤2、数据增强;

    对训练集、测试集和验证集中的图片进行归一化处理后将图片剪裁至(224,224);

    对训练集中的图片随机进行水平翻转、垂直翻转、修改亮度和依据概率p1对图片进行水平翻转中的一个或几个组合的操作。

    作为优选,概率p1=0.5。

    步骤3、构建分类网络模型;

    将步骤2处理后的测试集图片输入改进的resnet18网络中,生成特征图a;所述改进的resnet18网络删除了resnet18网络平均池化层之后的部分。再将特征图a输入arpy网络中,输出重点特征的位置信息x、y和z,其中x和y为重要特征区域的左上角坐标,z为重要特征区域的边长。所述arpy网络为两个卷积核为3*3的卷积层相连后再连接两个全连接层。将重点特征对应的区域进行剪裁后重设尺寸为224*224,随机遮挡后输入改进的resnet18网络中,得到特征图b。将特征图a和特征图b进行相加操作后再依次经过全连接层fc1、概率为p2的dropout层、全连接层fc2、bn层、全连接层fc3、relu激活函数层、全连接层fc4和softmax函数,输出特征区域的类别概率值。

    作为优选,概率p2=0.5。

    步骤4、初始化分类网络模型;

    采用迁移学习方法,使用超大规模视觉图像挑战赛imagenet中的图片所训练的权重初始化步骤3构建的分类网络模型。

    步骤5、优化分类网络模型;

    向步骤4初始化后的分类网络模型输入验证集,将输出的分类结果与真实标签进行比较,通过反向传播算法,使用损失函数crossentropyloss()计算损失值,然后使用adam优化方法循环训练多次直至预定目标,保存此时分类网络模型的参数权重。

    作为优选,所述预定目标为验证集的分类准确率达到0.94。

    步骤6、获得分类结果

    将测试集输入步骤5训练优化后的分类网络模型,得到特征区域的概率值,完成图片分类。

    本发明具有以下有益效果:

    (1)使用基于深度学习的分类网络模型,可以定位病理图像中的特征区域,并给出类别概率值,辅助医生快速找到病变区域。

    (2)考虑多个重要特征,对重要特征区域剪裁后进行随机遮盖,再次训练新生成的特征,使特征多样化,然后再融合两次提取的特征,使特征更精准,提高分类准确度。

    附图说明

    图1是基于深度学习的图像分类方法的分类流程图;

    图2是实施例中分类网络模型的详细结构图。

    具体实施方式

    以下结合附图对本发明作进一步的解释说明;

    本实施例的硬件环境为8vcpu/64g内存,gpu为v100,软件运行环境是cuda:9.2.148、python3.7、pytorch1.0.1.post2。

    如图1所示,一种基于深度学习的多特征融合图像分类方法的分类步骤如下:

    步骤1、将采集到的眼部肿瘤数字病理图像分为训练集、验证集和测试集,每一个集合中都包含初期,中期,晚期三种样本。

    步骤2、将训练集、验证集和测试集中的图片统一进行归一化处理后再剪裁至224*224,并对训练集中的图片随机进行水平翻转、垂直翻转、修改亮度和依据概率p1=0.5对图像进行水平翻转。

    步骤3、建立如图2所示的分类网络模型,包括改进的resnet18网络,arpy网络模块、4个全连接层、1个dropout层、1个bn层、1个relu激活函数层和1个softmax函数层。所述改进的resnet18网络删除了resnet18网络平均池化层之后的部分;所述arpy为2个3*3的卷积层和2个全连接层依次连接。

    将步骤2处理后的训练集图片输入改进的resnet18网络中,从最后一层卷积层的输出得到特征图a,再将特征图a输入arpy网络模块中,得到特征图a中重要特征区域的位置信息x、y和z,其中x和y为重要特征区域的左上角坐标,z为重要特征区域的边长。对重要特征区域剪裁后重设尺寸为224*224,再输入改进的resnet18网络中,得到特征图b,将特征图a和特征图b相加操作后,依次经过全连接层fc1、概率为0.5的dropout层、全连接层fc2、bn层、全连接层fc3、relu激活函数层、全连接层fc4和softmax函数,即可得到分类结果。

    步骤4、采用迁移学习方法,使用超大规模视觉图像挑战赛imagenet中的图片所训练的权重初始化步骤3构建的分类网络模型。将验证集输入初始化后的分类网络模型,比较网络输出的结果与实际标签,通过crossentropyloss交叉熵损失函数计算损失值。使用adam优化方法根据损失值对分类网络模型进行权重参数的优化以降低损失值,提高分类网络模型的分类精确度,循环训练50次,在验证集的分类准确率达到0.94时停止优化训练,保存模型参数。

    步骤5、将测试集的图片输入步骤4优化后的分类模型中,得到特征区域的类别概率值,完成图片分类。


    技术特征:

    1.一种基于深度学习的多特征融合图像分类方法,其特征在于:具体包括以下步骤:

    步骤1、数据集划分;

    将采集的划分为训练集,测试集以及验证集;

    步骤2、数据增强;

    对训练集、测试集和验证集中的图片进行归一化处理后将图片剪裁至(224,224);

    对训练集中的图片随机进行水平翻转、垂直翻转、修改亮度和依据概率p1对图片进行水平翻转中的一个或几个组合的操作;

    步骤3、构建分类网络模型;

    将步骤2处理后的测试集图片输入改进的resnet18网络中,生成特征图a;所述改进的resnet18网络删除了resnet18网络平均池化层之后的部分;再将特征图a输入arpy网络中,输出重点特征的位置信息x、y和z,其中x和y为重要特征区域的左上角坐标,z为重要特征区域的边长;所述arpy网络为两个卷积核为3*3的卷积层相连后再连接两个全连接层;将重点特征对应的区域进行剪裁后重设尺寸为224*224,随机遮挡后输入改进的resnet18网络中,得到特征图b;将特征图a和特征图b进行相加操作后再依次经过全连接层fc1、概率为p2的dropout层、全连接层fc2、bn层、全连接层fc3、relu激活函数层、全连接层fc4和softmax函数,输出特征区域的类别概率值;

    步骤4、初始化分类网络模型;

    采用迁移学习方法,使用超大规模视觉图像挑战赛imagenet中的图片所训练的权重初始化步骤3构建的分类网络模型;

    步骤5、优化分类网络模型;

    向步骤4初始化后的分类网络模型输入验证集,将输出的分类结果与真实标签进行比较,通过反向传播算法,使用损失函数crossentropyloss()计算损失值,然后使用adam优化方法循环训练多次直至预定目标,保存此时分类网络模型的参数权重;

    步骤6、获得分类结果

    将测试集输入步骤5训练优化后的分类网络模型,得到特征区域的概率值,完成图片分类。

    2.如权利要求1所述一种基于深度学习的多特征融合图像分类方法,其特征在于:步骤2中对图片进行水平翻转的概率p1=0.5。

    3.如权利要求1所述一种基于深度学习的多特征融合图像分类方法,其特征在于:步骤3中,分类模型网络的dropout层的概率p2=0.5。

    4.如权利要求1所述一种基于深度学习的多特征融合图像分类方法,其特征在于:步骤5中使用adam优化方法多次循环训练的预定目标为验证集的分类准确率达到0.94。

    技术总结
    本发明公开了一种基于深度学习的多特征融合图像分类方法。具体包括数据集划分、数据增强、分类网络模型构建、模型初始化与模型训练优化。数据增强部分通过对图片随机进行水平翻转、垂直翻转、修改亮度和依概率水平翻转等操作,增强数据特征。在分类网络模型构建的过程中对第一次提取的特征进行随机遮盖后再次提取,而后对两次提取的特征进行融合,使特征多样化,提高了分类精确度。本系统可以用于对眼部恶性肿瘤图像进行分类,定位图像中的病变区域作为特征区域,给出病变类型的概率值,辅助阅片医生判断。

    技术研发人员:岳雪颖;田泽坤;孙玲玲
    受保护的技术使用者:杭州电子科技大学
    技术研发日:2020.11.24
    技术公布日:2021.03.12

    转载请注明原文地址:https://wp.8miu.com/read-19055.html

    最新回复(0)