本发明属于软件技术、计算机视觉和机器学习领域,具体涉及一种用于解释基于卷积神经网络(cnn)的分类模型的方法及系统。
背景技术:
1、近年来,神经网络,尤其是深度神经网络(dnn),已成为解决复杂视觉识别问题的先进技术。它们在图像分类、物体检测、语义分割等领域展示了卓越的性能。dnn通过模拟人类神经系统的层次结构,能够从简单的边缘检测到复杂的对象识别自动学习图像特征。这种从数据中自动学习特征的能力让dnn在许多工业和研究领域,如自动驾驶汽车、医疗图像分析和自然语言处理中得到广泛应用。
2、尽管dnn的性能令人瞩目,但它们的决策过程通常缺乏直观的解释,这在某些应用中可能构成严重的障碍。例如,在医疗诊断或司法决策支持系统中,用户不仅需要可靠的结果,还需要理解模型的推理过程。这种缺乏透明度导致了对神经网络的可解释性的需求,即能够解释模型输出背后的原因。然而,现有的方法往往依赖于模型训练后的后处理步骤来提供解释,这可能会导致解释质量不稳定且与模型决策不完全同步;并且,现有方法的内在机理缺乏对其本身可解释性的保证,即他们不能保证解释结果正确反应了模型的决策过程。
技术实现思路
1、本发明的目的是提供一种创新的可解释性方法,通过重构卷积神经网络架构,并利用特别构建的测试数据集来训练可解释模型。本方法能够对每个输入特征提供详细的归因解释,用户可以获得对分类决策起关键作用的特征信息,从而得到清晰的视觉解释。
2、为实现上述目的,本发明采用以下技术方案:
3、一种针对卷积神经网络的可解释性方法,包括以下步骤:
4、基于原任务数据集,提取每一个类别的非该类别数据,构建无关特征测试数据集;
5、基于图像分类的卷积神经网络模型,通过修改架构,构建由特征提取器与可解释分类器构成的可解释模型;
6、使用原任务数据集和无关特征测试数据集,对可解释模型进行训练;
7、可解释模型训练完成后,对每一个测试样本进行处理,输出预测结果和对应的决策解释结果。
8、进一步地,构建无关特征测试数据集时,对提取的数据进行随机裁剪操作。
9、进一步地,构建可解释模型的步骤包括:
10、将图像分类的卷积神经网络模型分解为特征提取器和分类器,特征提取器的最后一层为卷积层;
11、对分类器进行可解释化改造,如果该分类器是一层线性层,则保持不变,否则替换为一个新的线性层,其输入维度与特征提取器的输出维度相匹配,输出维度为类别数,得到可解释分类器;
12、将特征提取器和可解释分类器进行组合,得到可解释模型。
13、进一步地,对可解释模型进行训练的步骤包括:
14、从无关特征数据集中随机选择一个无关特征,叠加到训练样本x的随机位置,生成可解释性评估样本xexp;
15、将训练样本x和可解释性评估样本xexp输入到可解释模型进行训练,计算可解释性损失lexp;
16、计算交叉熵损失cel,根据交叉熵损失cel和可解释性损失lexp通过反向传播进行优化,更新模型参数,并计算优化损失loss。
17、进一步地,xexp=(1-m)⊙x+m⊙x′,其中x′是生成该无关特征时的对应样本,m是用于覆盖无关特征的掩码,无关特征所在位置值为1,其余为0。
18、进一步地,计算可解释性损失lexp的式子如下:
19、lexp=softmax(fexp(x))c·ipos+α·softmax(fexp(xexp))c·ineg
20、
21、
22、
23、其中,softmax(fexp(x))c表示可解释模型fexp对输入x的预测结果中属于类别c的概率,ipos表示模型在有关特征上的解释损失,ineg表示模型在无关特征上的解释损失,m(i,j)和e(i,j)分别表示掩码和解释结果在评估输入xexp的位置i,j的值,n是输入的总像素数;upsample用于将输入上采样至与x相同大小,norm表示将输入归一化到0到1之间;h(x)表示分类器;表示线性分类器h对于第k个卷积核的类别c的权重;α为加权系数。
24、进一步地,优化损失loss的式子如下:
25、loss=cel(fexp(x),c)+cel(fexp(xexp),c)+λ·lexp
26、其中,cel代表交叉熵损失,λ为超参数,fexp为可解释模型,c表示类别。
27、进一步地,可解释模型对测试样本x进行处理,输出预测结果softmax(fexp(x)),其中类别c的预测概率为softmax(fexp(x))c;并根据输出决策解释结果e(x),其中norm表示归一化操作,upsample表示上采样操作,h(x)表示特征提取器,表示线性分类器g对于第k个卷积核的类别c的权重。
28、进一步地,决策解释结果以与输入样本相同大小的矩阵形式呈现,矩阵中的元素值介于0到1之间。
29、一种针对卷积神经网络的可解释性系统,包括存储器和处理器,在该存储器上存储有计算机程序,该处理器执行该程序时实现上述方法的步骤。
30、与现有技术相比,本发明具有以下积极效果:
31、1.本发明首先重构用于图像分类的卷积神经网络(cnn)模型,将其分解为特征提取器和可解释的线性分类器两部分,这种架构允许线性分类器为任意输入图像提供基于特征归因的明确解释结果。
32、2.本发明通过构建与任务相关的无关特征测试数据集,并结合原始数据集训练模型,以提升模型的可解释性,这一策略不仅提高了决策过程的透明度,还确保了解释的生成与模型训练过程的紧密结合,从而提高了解释的准确性和相关性。
33、3.本发明采用了基于可解释性的设计损失函数,确保解释模型输出能够准确反映对决策至关重要的输入特征部分,为解释模型的可靠性和实用性打下坚实基础。
34、4.本发明提出的解释方法能够保证解释与模型决策的实时性和一致性,能够增强模型透明度,提供准确、可靠的解释结果。通过本发明提出的方法,用户能够更加信赖模型的决策,特别是在需要模型解释的关键应用场景中,如医疗诊断和法律审查,本方法能发挥重要作用。
1.一种针对卷积神经网络的可解释性方法,其特征在于,包括以下步骤:
2.如权利要求1所述的方法,其特征在于,构建无关特征测试数据集时,对提取的数据进行随机裁剪操作。
3.如权利要求1所述的方法,其特征在于,构建可解释模型的步骤包括:
4.如权利要求1所述的方法,其特征在于,对可解释模型进行训练的步骤包括:
5.如权利要求4所述的方法,其特征在于,xexp=(1-m)⊙x+m⊙x′,其中x′是生成该无关特征时的对应样本,m是用于覆盖无关特征的掩码,无关特征所在位置值为1,其余为0。
6.如权利要求4所述的方法,其特征在于,计算可解释性损失lexp的式子如下:
7.如权利要求6所述的方法,其特征在于,优化损失loss的式子如下:
8.如权利要求6所述的方法,其特征在于,可解释模型对测试样本x进行处理,输出预测结果softmax(fexp(x)),其中类别c的预测概率为softmax(fexp(x))c;并根据输出决策解释结果e(x),其中norm表示归一化操作,upsample表示上采样操作,h(x)表示特征提取器,表示线性分类器对于第k个卷积核的类别c的权重。
9.如权利要求1或8所述的方法,其特征在于,决策解释结果以与输入样本相同大小的矩阵形式呈现,矩阵中的元素值介于0到1之间。
10.一种针对卷积神经网络的可解释性系统,其特征在于,包括存储器和处理器,在该存储器上存储有计算机程序,该处理器执行该程序时实现权利要求1-9任一顶所述方法的步骤。