一种基于微表情检测人体健康的方法与流程

    专利2022-07-08  114

    本发明涉及人体检测技术领域,尤其涉及一种基于微表情检测人体健康的方法。



    背景技术:

    人们通过做一些表情把内心感受表达给对方看,在人们做的不同表情之间,或是某个表情里,脸部会“泄露”出其它的信息。面部“微表情”最短可持续1/25秒,虽然一个下意识的表情可能只持续一瞬间,但有时表达相反的情绪。

    包含在语音信号中的情感信息是一种很重要的信息资源,它是人们感知事物的必不可少的部分信息。例如,同样一句话,由于说话人表现的情感不同,在听着的感知上就可能会有较大的差别。然而传统的语音信号处理技术把这部。

    目前,现有技术有很多种对被测试者的人体健康进行检测的方法,通常采用验血、仪器检验或者口头了解的方式对被测试者的人体健康进行检测,其中验血和仪器检验需要产生一定的检测费用,而采用口头了解的方式对被测试者的人体健康进行检测,检测的结果误差性很大,而本文通过面部以及语音这两个人所具备的特征进行微表情的获取,进而通过标签来进行健康状况的检测,通过非接触的方式,更加方便精准。



    技术实现要素:

    本发明的目的是为了解决现有技术中存在的问题,而提出的一种基于微表情检测人体健康的方法。

    为了实现上述目的,本发明采用了如下技术方案:

    一种基于微表情检测人体健康的方法,包括以下步骤;

    1)对被测试者的面部微表情进行识别,并进行面部微表情模型训练;

    2)对被测试者的语音情感进行识别,并进行语音情感模型训练;

    3)通过对决策层求和的方法对面部微表情模型和语音情感模型进行模型融合;

    4)面部微表情模型和语音情感模型融合之后共同输出微表情特征,根据该微表情特征对应相应的标签来进行健康状况的判断,能够使被观测人若有突发疾病等状况迅速察觉。

    进一步的,所述步骤1)中面部微表情识别及面部微表情模型训练包括以下步骤:

    1.1)图像预处理;

    1.2)面部微表情模型训练;

    1.3)对面部微表情进行分类。

    进一步的,所述步骤1.1)中图像预处理包括以下步骤:

    1.1.1)人脸检测和人脸对齐,基于tensorflow实现mtcnn网络,检测出人脸定位点landmark;mtcnn总体可分为p-net、r-net、o-net三层网络结构,采用候选框加分类器的思想,最终输出五个人脸面部特征点;

    1.1.2)人脸归一化,包括亮度归一化和姿态归一化;亮度归一化中包括了直方图归一化以及利用直方图归一化联合全局对比度归一化;姿态归一化是将人脸定位点landmark进行对齐,使用仿射矩阵计算并裁减,从而达到效果;

    1.1.3)将卷积神经网络用于图像序列插帧,将视频序列中相邻两帧作为输入,输出中间帧,将原帧数为n的面部微表情序列处理为2n-1的帧数,再用时间内插模型tim进行帧数归一化。

    进一步的,所述步骤1.2)中面部微表情模型训练具体为:面部微表情模型基于7层卷积层,3层池化层和2层全连接层,进行150次的迭代训练。

    进一步的,所述步骤1.3)中面部微表情分类采用的是softmax激活函数进行分类,运用softmax分类器,基于神经网络能够直接输出高兴、厌恶、惊讶、抑郁、伤心、其他这六种情绪中的一种。

    进一步的,所述步骤2)中语音情感识别以及语音情感模型训练包括以下步骤:

    2.1)语音语料库的采集;

    2.2)语言信号预处理;

    2.3)语音情感模型训练;

    2.4)对语音情感进行分类。

    进一步的,所述步骤2.1)中语音语料库的采集采用casia汉语情感语料库进行处理和训练,该语音库是由中国科学院自动化所采集,由4位专业发音人(包括2位男士和2位女士)在纯净录音环境下,分别对这六种情绪(生气、高兴、害怕、悲伤、惊讶和中性)进行表达,将通过实验选定合适的训练集和测试集数目,以达到最优的情绪识别率。

    进一步的,所述步骤2.2)中语言信号预处理包括以下步骤:

    2.2.1)声谱图的生成:声谱图的生成过程包括读入语音信号、对语言分帧加窗、通过短时傅里叶变换计算能量谱密度和生成声谱图;声谱图具有一定的情感区分能力,是一种对语音信号进行连续频谱分析可以得到一种表达三维信息的二维图谱,它的横坐标为时间,纵坐标为频率,每个像素的灰度值大小则表示对应时刻和对应频率的能量密度。

    2.2.2)声谱图生成后通过剪切、删除无效信息,并对输入数据声谱图进行尺寸变换,得到大小为128*128像素的统一图片,便于训练。

    进一步的,所述步骤2.3)中语音情感模型通过4层卷积层,3层池化层和1层全连接层,进行150次的迭代训练。

    进一步的,所述步骤2.4)中对语音情感进行分类是通过cnn中的全连接层将其归分为生气、恐惧、高兴、悲伤、惊讶和中性这六类。

    有益效果:

    与现有技术相比,本发明中,通过面部以及语音这两个人所具备的特征进行微表情的获取,进而通过标签来进行健康状况的检测,通过非接触的方式,检测花费时间少,检测效率高,同时不会被测试者的语言描述所误导,检测准确度高。

    具体实施方式

    下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。

    一种基于微表情检测人体健康的方法,包括以下步骤;

    1)对被测试者的面部微表情进行识别,并进行面部微表情模型训练:包括以下步骤:

    1.1)图像预处理:包括以下步骤:

    1.1.1)人脸检测和人脸对齐,基于tensorflow实现mtcnn网络,检测出人脸定位点landmark;mtcnn总体可分为p-net、r-net、o-net三层网络结构,采用候选框加分类器的思想,最终输出五个人脸面部特征点;

    1.1.2)人脸归一化,包括亮度归一化和姿态归一化;亮度归一化中包括了直方图归一化以及利用直方图归一化联合全局对比度归一化;姿态归一化是将人脸定位点landmark进行对齐,使用仿射矩阵计算并裁减,从而达到效果;

    1.1.3)将卷积神经网络用于图像序列插帧,将视频序列中相邻两帧作为输入,输出中间帧,将原帧数为n的面部微表情序列处理为2n-1的帧数,再用时间内插模型tim进行帧数归一化。

    1.2)面部微表情模型训练:面部微表情模型基于7层卷积层,3层池化层和2层全连接层,进行150次的迭代训练。

    1.3)对面部微表情进行分类:面部微表情分类采用的是softmax激活函数进行分类,运用softmax分类器,基于神经网络能够直接输出高兴、厌恶、惊讶、抑郁、伤心、其他这六种情绪中的一种。

    2)对被测试者的语音情感进行识别,并进行语音情感模型训练:包括以下步骤:

    2.1)语音语料库的采集;所述语音语料库的采集采用casia汉语情感语料库进行处理和训练,该语音库是由中国科学院自动化所采集,由4位专业发音人(包括2位男士和2位女士)在纯净录音环境下,分别对生气、高兴、害怕、悲伤、惊讶和中性这六种情绪进行表达,将通过实验选定合适的训练集和测试集数目,以达到最优的情绪识别率。

    2.2)语言信号预处理:包括以下步骤:

    2.2.1)声谱图的生成:声谱图的生成过程包括读入语音信号、对语言分帧加窗、通过短时傅里叶变换计算能量谱密度和生成声谱图;声谱图具有一定的情感区分能力,是一种对语音信号进行连续频谱分析可以得到一种表达三维信息的二维图谱,它的横坐标为时间,纵坐标为频率,每个像素的灰度值大小则表示对应时刻和对应频率的能量密度。

    2.2.2)声谱图生成后通过剪切、删除无效信息,并对输入数据声谱图进行尺寸变换,得到大小为128*128像素的统一图片,便于训练。

    2.3)语音情感模型训练:语音情感模型通过4层卷积层,3层池化层和1层全连接层,进行150次的迭代训练。

    2.4)对语音情感进行分类:通过cnn中的全连接层将语音情感归分为生气、恐惧、高兴、悲伤、惊讶和中性这六类。

    3)通过对决策层求和的方法对微表情模型和语音情感模型进行模型融合;采用决策层融合的方式,针对多模态中的单个模态构造一个情感分类器,从而利用各自的分类器得到情感分类结果,然后基于求和规则对决策层执行融合,即对不同模态特征在相应分类器中所产生的后验概率的求和,然后进行对比,把比较结果中后验概率最大的类别当作该类的最终识别结果。

    以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。


    技术特征:

    1.一种基于微表情检测人体健康的方法,其特征在于,包括以下步骤;

    1)对被测试者的面部微表情进行识别,并进行面部微表情模型训练;

    2)对被测试者的语音情感进行识别,并进行语音情感模型训练;

    3)通过对决策层求和的方法对面部微表情模型和语音情感模型进行模型融合;

    4)面部微表情模型和语音情感模型融合之后共同输出微表情特征,根据该微表情特征对应相应的标签进行健康状况的判断。

    2.根据权利要求1所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤1)中面部微表情识别及面部微表情模型训练包括以下步骤:

    1.1)图像预处理;

    1.2)面部微表情模型训练;

    1.3)对面部微表情进行分类。

    3.根据权利要求2所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤1.1)中图像预处理包括以下步骤:

    1.1.1)人脸检测和人脸对齐,基于tensorflow实现mtcnn网络,检测出人脸定位点landmark;mtcnn总体分为p-net、r-net、o-net三层网络结构,采用候选框加分类器的思想,最终输出五个人脸面部特征点;

    1.1.2)人脸归一化,包括亮度归一化和姿态归一化;亮度归一化中包括了直方图归一化以及利用直方图归一化联合全局对比度归一化;姿态归一化是将人脸定位点landmark进行对齐,使用仿射矩阵计算并裁减,从而达到效果;

    1.1.3)将卷积神经网络用于图像序列插帧,将视频序列中相邻两帧作为输入,输出中间帧,将原帧数为n的面部微表情序列处理为2n-1的帧数,再用时间内插模型tim进行帧数归一化。

    4.根据权利要求2所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤1.2)中面部微表情模型训练具体为:面部微表情模型基于7层卷积层,3层池化层和2层全连接层,进行150次的迭代训练。

    5.根据权利要求2所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤1.3)中面部微表情分类采用的是softmax激活函数进行分类,运用softmax分类器,基于神经网络能够直接输出高兴、厌恶、惊讶、抑郁、伤心、其他这六种情绪中的一种。

    6.根据权利要求1所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤2)中语音情感识别以及语音情感模型训练包括以下步骤:

    2.1)语音语料库的采集;

    2.2)语言信号预处理;

    2.3)语音情感模型训练;

    2.4)对语音情感进行分类。

    7.根据权利要求6所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤2.1)中语音语料库的采集采用casia汉语情感语料库进行处理和训练。

    8.根据权利要求6所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤2.2)中语言信号预处理包括以下步骤:

    2.2.1)声谱图的生成:声谱图的生成过程包括读入语音信号、对语言分帧加窗、通过短时傅里叶变换计算能量谱密度和生成声谱图;

    2.2.2)声谱图生成后通过剪切、删除无效信息,并对输入数据声谱图进行尺寸变换,得到大小为128*128像素的统一图片,便于训练。

    9.根据权利要求6所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤2.3)中语音情感模型通过4层卷积层,3层池化层和1层全连接层,进行150次的迭代训练。

    10.根据权利要求6所述的一种基于微表情检测人体健康的方法,其特征在于,所述步骤2.4)中对语音情感进行分类是通过cnn中的全连接层将其归分为生气、恐惧、高兴、悲伤、惊讶和中性这六类。

    技术总结
    本发明公开了一种基于微表情检测人体健康的方法,涉及人体检测技术领域,包括以下步骤:对被测试者的面部微表情进行识别,并进行面部微表情模型训练;对被测试者的语音情感进行识别,并进行语音情感模型训练;通过对决策层求和的方法对微表情模型和语音情感模型进行模型融合;面部微表情模型和语音情感模型融合之后共同输出微表情特征,根据该微表情特征对应相应的标签进行健康状况的判断。本发明通过面部以及语音这两个人所具备的特征进行微表情的获取,进而通过标签来进行健康状况的检测,通过非接触的方式,检测花费时间少,检测效率高,同时不会被测试者的语言描述所误导,检测准确度高。

    技术研发人员:杜懿轩;胡译仁;陈曼珂;张德平
    受保护的技术使用者:南京航空航天大学
    技术研发日:2020.11.20
    技术公布日:2021.03.12

    转载请注明原文地址:https://wp.8miu.com/read-14151.html

    最新回复(0)