一种基于元学习的个性化对话改写方法与流程

    专利2022-07-08  92


    本发明涉及自然语言处理领域,特别是指一种基于元学习的个性化对话改写方法。



    背景技术:

    随着对话生成技术的发展,人类不满足于让机器根据用户的输入简单生成对话,而是希望机器能拥有个性化的特征,比如性别,爱好,情感等等。现有方法通过将机器生成的回复与用户画像信息相结合,从而使机器生成的对话带有个性化特征。这需要针对用户画像信息人工构建原对话数据的改写数据,从而实现对机器生成对话的个性化改写。但是受限于人工成本,每个用户画像的改写数据量不足以充分训练深度模型,因此使用深度模型都会出现一定程度的过拟合问题。

    与深度模型相比,人类可以明智地利用以往经验并采取行动以适应各种新的情况。对于一个新的任务,人类能够利用以往经验来解决,而不是通过海量数据从头学起。比如一个会骑自行车的人,学习骑摩托车会使用到骑自行车时的经验。元学习是朝这个方向发展的关键一步,它们可以在其生命周期内不断学习各种相关任务,当面向新任务时,可以通过少量监督样本快速拟合。

    因此,本专利提出一种基于元学习的个性化对话改写方法。首先将多个带有用户画像信息的个性化对话改写任务视为多个相关任务,使用元学习算法对模型进行训练,获得对新任务敏感的模型初始化参数,当面向新任务时,模型可以在少量训练数据的情况下快速拟合,从而在一定程度上缓解过拟合问题。



    技术实现要素:

    本专利提出一种基于元学习的个性化对话改写方法。模型在训练阶段学习多个相关任务,从而获得一个对新任务数据敏感的初始化参数,当面向新任务时,模型参数可以在少量监督信息的情况下快速拟合,从而用于基于新用户画像的对话改写任务。

    一种基于元学习的个性化对话改写方法,包括以下步骤:

    步骤s1:针对每个用户画像,构建对话改写数据,再划分为支撑集和查询集用于模型训练;

    步骤s2:初始化编码器-解码器模型参数,模型输入为用户画像信息和原始对话,输出为改写的对话;

    步骤s3:针对每个用户画像构建的改写数据,使用支撑集训练模型,更新模型参数,再使用查询集获得参数更新的梯度信息;

    步骤s4:使用在每个任务的查询集上获得的梯度信息更新步骤2中初始化编码器-解码器模型的参数,获得用于下游任务的模型参数;

    步骤s5:针对新的对话改写任务,使用步骤s4得到的初始化参数初始化模型,在新的改写数据上训练后即可用于基于新的用户画像信息的对话改写。

    本发明的有益效果在于:通过构建多个相关任务,使用元学习算法进行多任务训练可以使模型学习到如何快速学习此类任务的能力,当模型用在新的任务数据上时,不需要从头学习,而是基于现有的快速学习此类任务的能力在新任务的训练数据上快速拟合。

    附图说明

    为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

    图1为本发明一种基于元学习的个性化对话改写方法的流程图。

    图2为本发明一种基于元学习的个性化对话改写方法所用编码器-解码器模型的结构图。

    具体实施方式

    下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

    如图1所示,本发明公开了一种基于元学习的个性化对话改写方法,该方法包括以下步骤:

    步骤s1:针对每个用户画像,构建对话改写数据,再划分为支撑集和查询集用于模型训练;

    (1.1)对n个用户画像信息,构造n个相关的任务数据d={d1,d2,…,dn},其中di={pi,xi,yi},,i=1,2,…,n。p为用户画像文本信息,x为原始对话数据,y为改写后的对话数据;

    (1.2)将每个任务的数据di进行划分为支撑集si和查询集qi,根据经验可按照8:2或者7:3进行数据划分。

    步骤s2:初始化编码器-解码器模型参数φ,模型输入为用户画像信息p和原始对话x,输出为改写的对话y。编码器-解码器模型结构见图2,模型前向传播步骤如下:

    (2.1)使用编码器分别对用户画像信息p和原始对话x进行语义编码,获得用户画像表示向量vp和原始对话表示向量vx:

    vp=encoder(p)

    vx=encoder(x)

    其中,encoder为编码器模块,编码器可以使用bert,(bidirectionalencoderrepresentationsfromtransformers),模型或其他bert衍生模型,也可以使用长短期记忆网络(lstm)或者门控循环单元(gru等序列模型。

    (2.2)用户画像表示向量vp和原始对话表示向量vx进行向量拼接,作为编码器输出的语义编码向量ve=[vp;vx],其中;表示向量的拼接操作。

    (2.3)将语义编码向量ve作为解码器模块的输入,解码器每次循环输出词表中的一个单词yi,i=1,2,…,l,直至输出结束符或者达到限定长度。最终获得解码器输出的改写对话y={y1,y2,…,yl}。在解码过程中,也可以引入基于用户画像表示向量vp的注意力机制。

    通过以上步骤,编码器-解码器模型可以通过训练,实现输入用户画像信息和原始对话,输出改写对话的功能

    步骤s3:针对每个用户画像构建的改写数据集di,使用支撑集si训练模型,更新模型参数θi,再使用查询集qi获得参数更新的梯度信息gi;

    (3.1)针对每个用户画像构建的改写数据di,使用支撑集si训练参数为步骤2中初始化参数φ的编码器-解码器模型,训练后模型参数变为当前任务相关参数θi;

    (3.2)使用查询集qi训练参数为当前任务相关参数θi的编码器-解码器模型,保留梯度信息gi,此梯度信息gi用于在步骤s4中更新参数φ。

    步骤s4:使用在每个任务得查询集上获得的梯度信息gi更新步骤2中初始化编码器-解码器模型的参数φ,获得用于下游任务的模型参数φ:

    其中α为学习率,i表示第i个任务,i=1,2,…,n。

    步骤s5:针对新的对话改写任务,使用步骤s4得到的初始化参数φ初始化模型,在新的改写数据上训练后即可用于基于新的用户画像信息的对话改写。

    以上结合附图对所提出的基于元学习的个性化对话改写方法及各模块的具体实施方式进行了阐述。本发明的有益效果在于,通过构建多个相关任务,使用元学习算法进行多任务训练可以使模型学习到如何快速学习此类任务的能力,当模型用在新的任务数据上时,不需要从头学习,而是基于现有的快速学习此类任务的能力在新任务的训练数据上快速拟合。对于个性化对话改写这种少样本任务,本方法可以有效缓解复杂模型使用少量数据训练产生的过拟合问题,从而提升个性化对话改写的效果。

    上述技术方案公开了本发明的改进点,未详细公开的技术内容,可由本领域技术人员通过现有技术实现。

    以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围。


    技术特征:

    1.一种基于元学习的个性化对话改写方法,其特征在于,包括以下步骤:

    步骤1:针对每个用户画像,构建对话改写数据,再划分为支撑集和查询集用于模型训练;

    步骤2:初始化编码器-解码器模型参数,模型输入为用户画像信息和原始对话,输出为改写的对话;

    步骤3:针对每个用户画像构建的改写数据,使用支撑集训练模型,更新模型参数,再使用查询集获得参数更新的梯度信息;

    步骤4:使用在每个任务的查询集上获得的梯度信息更新步骤2中初始化编码器-解码器模型的参数,获得用于下游任务的模型参数;

    步骤5:针对新的对话改写任务,使用步骤4得到的参数初始化模型,在新任务的训练数据上训练后即可用于基于新用户画像信息的对话改写。

    2.如权利要求1所述的一种基于元学习的个性化对话改写方法,其特征在于,所述步骤3具体包括:

    (3.1)针对每个用户画像构建的改写数据,使用支撑集训练参数为步骤2中初始化参数的编码器-解码器模型,训练后模型参数变为当前任务相关参数;

    (3.2)使用查询集训练参数为当前任务相关参数的编码器-解码器模型,保留梯度信息,此梯度信息用于在步骤4中更新初始化参数。

    技术总结
    本发明公开了一种基于元学习的个性化对话改写方法,属于自然语言处理领域。该方法的基本思想是通过元学习减轻个性化对话改写中的过拟合问题。该方法的步骤包括:基于不同用户画像数据构建多个相关的个性化对话改写任务,通过元学习在相关任务上进行联合训练,获得对新任务敏感的模型参数。当面向新任务时,使用此参数初始化的模型进行训练从而获得面向新任务的个性化对话改写模型。利用本发明实施例,可以使模型具有快速学习此类相关任务的能力。当模型用在新的任务数据上时,不需要从头学习,而是基于现有的快速学习此类任务的能力在新任务上快速拟合,减弱过拟合问题,从而提升个性化对话改写的效果,具有很大的实用价值。

    技术研发人员:孙忆南;李思
    受保护的技术使用者:北京邮电大学
    技术研发日:2020.12.11
    技术公布日:2021.03.12

    转载请注明原文地址:https://wp.8miu.com/read-21678.html

    最新回复(0)