问题回答方法及电子设备、存储装置与流程

    专利2022-07-08  95


    本申请涉及自然语言理解技术领域,特别是涉及一种问题回答方法及电子设备、存储装置。



    背景技术:

    随着信息技术的发展,自然语言理解技术逐渐应用于电商客服、政务服务、问题百科等诸多现实场景,以满足问题回答、服务引导等业务需求。在此其中,问题回答作为一项主要业务需求,由于其回答质量直接影响用户满意度,故格外受到关注。有鉴于此,如何提高问题回答质量成为极具研究价值的课题。



    技术实现要素:

    本申请主要解决的技术问题文本是提供一种问题回答方法及电子设备、存储装置,能够提高问题回答质量。

    为了解决上述问题文本,本申请第一方面提供了一种问题回答方法,包括:识别问题文本中的关键实体;基于关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体;其中,预设知识图包含若干节点实体;提取问题文本的第一语义表示,并提取候选实体的第二语义表示;其中,第二语义表示包含:候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息;利用第一语义表示和第二语义表示,从候选实体中预测得到用于回答问题文本的目标实体。

    为了解决上述问题文本,本申请第二方面提供了一种电子设备,包括相互耦接的存储器和处理器,存储器中存储有程序指令,处理器用于执行程序指令以实现上述第一方面中的问题回答方法。

    为了解决上述问题文本,本申请第三方面提供了一种存储装置,存储有能够被处理器运行的程序指令,程序指令用于实现上述第一方面中的问题回答方法。

    上述方案,通过识别问题文本中的关键实体,并基于关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体,且预设知识图包含若干节点实体,从而提取问题文本的第一语义表示,并提取候选实体的第二语义表示,且第二语义表示包含候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,进而利用第一语义表示和第二语义表示,从候选实体中预测得到用于回答问题文本的目标实体。故此,能够在语义层面从候选实体中预测目标实体,有利于尽可能地在问题回答过程中减少信息流失,且由于第二语义表示包含候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,能够有利于提高各个候选实体的第二语义表示的准确性,进而能够提高目标实体的准确性,因此能够提高问题回答的质量。

    附图说明

    图1是本申请问题回答方法一实施例的流程示意图;

    图2是预设知识图一实施例的框架示意图;

    图3是提取第二语义表示一实施例的状态示意图;

    图4是预测目标实体一实施例的状态示意图;

    图5是图1中步骤s12一实施例的流程示意图;

    图6是获取第一相关度一实施例的状态示意图;

    图7是选择候选实体一实施例的状态示意图;

    图8是提取候选实体的第二语义表示一实施例的流程示意图;

    图9是本申请电子设备一实施例的框架示意图;

    图10是本申请存储装置一实施例的框架示意图。

    具体实施方式

    下面结合说明书附图,对本申请实施例的方案进行详细说明。

    以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。

    本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。

    请参阅图1,图1是本申请问题回答方法一实施例的流程示意图。具体而言,可以包括如下步骤:

    步骤s11:识别问题文本中的关键实体。

    本公开实施例中,关键实体为触发问题文本的核心实体。为了便于理解,以电商客服为例,问题文本可以是“这个电饭锅的保修时间有多长?”,由于触发该问题文本的核心实体为“电饭锅”,故可以将“电饭锅”作为该问题文本的关键实体;或者,以政务服务为例,问题文本可以是“公积金基数最低是多少?”,由于触发该问题文本的核心实体为“公积金”,故可以将“公积金”作为该问题文本的关键实体;或者,以问题百科为例,问题文本可以是“莫扎特是哪个国家的作曲家?”由于触发该问题文本的核心实体为“莫扎特”,故可以将“莫扎特”作为该问题文本的关键实体。其他场景,可以以此类推,在此不再一一举例。

    在一个实施场景中,可以利用ltp、结巴等ner(namedentityrecognition,命名实体识别)工具对问题文本进行实体识别,以得到问题文本中的若干实体以及若干实体的词性,并将问题文本中的人名或地名或机构名或普通名词,作为问题文本的关键实体。

    在另一个实施场景中,为了提高关键实体的准确性和效率,可以预先训练一个实体识别模型,并获取问题文本中若干词语的词向量,从而可以将问题文本中若干词语的词向量输入该实体识别模型,识别得到该问题文本中的关键实体。

    在一个具体的实施场景中,上述实体识别模型具体可以包括但不限于:bi-lstm(bi-directionallongshort-termmemory,双向长短期记忆网络)等等,在此不做限定。

    在一个具体的实施场景中,具体可以分别对问题文本进行分词和分字,得到问题文本中若干词语和若干文字,并获取若干词语的初始词向量以及若干文字的初始字向量。例如,上述初始词向量和初始字向量可以是通过预训练模型(如,bert(bidirectionalencoderrepresentationfromtransformers,即双向transformer的encoder))得到的,在此不做限定。在此基础上,再利用卷积核对每一词语中文字的初始字向量进行卷积处理,从而得到该词语中每一文字与其他文字之间组合的向量,为了便于描述,可以称之为更新字向量,并基于自注意力机制(self-attention),得到该词语中各个文字的注意力权重,再利用注意力权重对对应文字的更新字向量进行加权求和,得到该词语的更新词向量,最后可以将该词语的初始词向量和更新词向量进行融合(如,相加),得到该文字的词向量。以初始词向量和初始字向量均为100维向量为例,初始子向量经过上述卷积、自注意力机制等处理,可以得到100维的更新词向量,该100维的更新词向量与100维的初始词向量进行融合之后,可以得到100维的词向量,至此对于整体问题文本而言,可以得到大小为n*100的二维向量矩阵,其中n表示问题文本中若干词语数量。其他情况可以以此类推,在此不再一一举例。

    在另一个具体的实施场景中,在得到问题文本中若干词语的词向量之后,可以进一步利用实体识别模型中的语义提取网络对若干词语的词向量进行语义提取,得到问题文本的问题语义表示。以实体识别模型包含上述bi-lstm为例,将若干词语的词向量输入bi-lstm之后,可以得到每个词语的前向语义表示和后向语义表示,为了便于描述,可以将第i个词语的前向语义表示记为hf(i),并将第i个词语的后向语义表示记为hb(i),从而可以将前向语义表示hf(i)和后向语义表示hb(i)进行拼接,得到第i个词语的拼接语义表示。在此基础上,可以利用自注意力机制,获取每个词语对于问题文本的注意力权重,再利用注意力权重对对应词语的拼接语义表示进行加权处理,得到问题文本的问题语义表示。以bi-lstm步长是30且隐层神经元节点个数是100个为例,前述前向语义表示hf(i)和后向语义表示hb(i)均可以表示为1*100维的向量,故拼接语义表示可以表示为30*200维的向量。

    在又一个具体的实施场景中,在经实体识别模型中的语义提取网络提取得到问题文本的问题语义表示之后,可以利用实体识别模型中的实体预测网络进行预测,最终得到关键实体在问题文本中开始位置和结束位置,从而可以将开始位置的文字、结束位置的文字以及开始位置和结束位置之间的文字的组合,作为关键实体。仍以前述问题文本“莫扎特是哪个国家的作曲家?”,最终可以预测得到开始位置“莫”和结束位置“特”,则可以将“莫扎特”作为该问题文本的关键实体。

    在又一个具体的实施场景中,上述实体识别模型可以是利用标注有实际关键实体的样本问题文本训练得到的。具体可以获取样本问题文本中若干样本词语的样本词向量,从而可以将样本问题文本中若干样本词语的样本词向量输入该实体识别模型,识别得到样本开始位置和样本结束位置,最终可以基于样本问题文本所标注的实际关键实体以及预测得到的样本开始位置和样本结束位置,计算得到实体识别模型的损失值,从而可以利用该损失值,调整实体识别模型的网络参数。故此,通过调整网络参数,能够在语义层面加强样本问题文本中与实际关键实体相关的样本词语。

    步骤s12:基于关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体。

    本公开实施例中,预设知识图包含若干节点实体,若干节点实体的具体数量可以根据实际应用情况进行设置。例如,为了提高问题回答的准确性和鲁棒性,若干节点实体可以尽可能地多。具体地,可以从百度百科、维基百科等百科知识,或者从专业书籍、报纸期刊等文献材料提取得到若干节点实体,并构建节点实体之间的实体关系。请结合参阅图2,图2是预设知识图一实施例的框架示意图,该预设知识图表示的是与“莫扎特”相关的知识图,如图2所示,圆形所示为各个节点实体,连接节点实体的边表示节点实体之间的实体关系。预设知识图的具体构建过程,在此不再赘述。

    在一个实施场景中,可以预先构建多个预设知识图,并在识别到关键实体之后,选择与该关键实体相关的预设知识图,从而在选择的预设知识图中提取至少部分个节点实体,作为候选实体。例如,预先可以构建如图2所示的预设知识图,还可以构建与“建筑”、“美术”等相关的预设知识图,则在问题文本为上述“莫扎特是哪个国家的作曲家?”的情况下,由于识别到的关键实体为“莫扎特”,故可以选择如图2所示的预设知识图。其他情况可以以此类推,在此不再一一举例。

    在一个实施场景中,至少部分个节点实体可以是预设知识图中全部节点实体。仍以图2所示的预设知识图为例,在问题文本为上述“莫扎特是哪个国家的作曲家?”的情况下,可以将图2中所有节点实体,作为候选实体。其他情况可以以此类推,在此不再一一举例。

    在另一个实施场景中,为了提高问题回答的效率,可以提取与关键实体相关的至少部分个节点实体,作为候选实体。仍以图2所示的预设知识图为例,在问题文本为上述“莫扎特是哪个国家的作曲家?”的情况下,可以选择与关键实体“莫扎特”相关的如下节点实体:“莫扎特”、“1756年1月27日”、“奥地利”、“1791年12月5日”、“作曲家”、“萨尔茨堡”、“魔笛”、“古典乐派”,作为候选实体。其他情况可以以此类推,在此不再一一举例。

    步骤s13:提取问题文本的第一语义表示,并提取候选实体的第二语义表示。

    本公开实施例中,第二语义表示包含:候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息。

    在一个实施场景中,与候选实体相关的其他候选实体可以包括:在预设知识图中,与该候选实体直接相连的候选实体。仍以图2所示的预设知识图为例,如图2中候选实体“莫扎特”,与其相关的其他候选实体可以包括:“1756年1月27日”、“奥地利”、“1791年12月5日”、“作曲家”、“萨尔茨堡”、“魔笛”、“古典乐派”。其他情况可以以此类推,在此不再一一举例。

    在另一个实施场景中,与候选实体相关的其他候选实体也可以包括:在预设知识图中,与该候选实体直接相连的候选实体,以及与该候选实体间接相连,且中间所间隔的候选实体数量不超过预设数量的候选实体。仍以图2所示的预设知识图为例,如图2所示的候选实体“莫扎特”,如前所述,与其相关的其他候选实体可以包括:“1756年1月27日”、“奥地利”、“1791年12月5日”、“作曲家”、“萨尔茨堡”、“魔笛”、“古典乐派”,而与其间接相连的候选实体可以包括“贝多芬”,两者相隔1个候选实体“古典乐派”,在预设数量设置为2个的情况下,也可以将候选实体“贝多芬”视为与候选实体“莫扎特”相隔的候选实体。其他情况可以以此类推,在此不再一一举例。

    在又一个实施场景中,为了进一步提高目标实体的准确性,第二语义表示还可以包括问题文本的语义信息。上述方式,通过在第二语义表示中融入问题文本的语义信息,能够有利于在第二语义表示同时融合问题文本的语义信息以及候选实体的语义信息,从而能够有利于进一步加强第二语义表示,有利于提高后续目标实体的准确性。

    在一个实施场景中,可以分别提取候选实体的语义信息,并对于每一候选实体,可以将该候选实体的语义信息以及与其相关的其他候选实体的语义信息进行融合,得到该候选实体的第二语义表示。

    在另一个实施场景中,为了提高语义提取效率,可以利用直接图神经网络提取各个候选实体的第二语义表示。图神经网络可以包括但不限于:图卷积网络(graphconvolutionnetwork,gcn)等等,在此不做限定。请结合参阅图3,图3是提取第二语义表示一实施例的状态示意图。如图3所示,输入框中,圆形表示候选实体,相连的两个候选实体表示两者相关,具体可以参阅图2以及前述相关描述,在此不再赘述。经过多次gcn卷积之后,可以得到输出,即每个候选实体的第二语义表示。在此其中,每次gcn卷积可以分别以各个候选实体为信息聚合中心,聚合与其相关的候选实体的语义信息,如图3所示,以斜线填充的圆形即为信息聚合中心。此外,每次gcn卷积之后,可以采用激活函数进行激活,激活函数具体可以包括但不限于:relu(rectifiedlinearunit,线性整流函数)。经过多次gcn卷积可以更加充分地聚合候选实体本身的语义信息,以及与候选实体相关的其他候选实体的语义信息,有利于提高第二语义表示的准确性。

    本公开实施例中,区别于前述问题文本的问题语义表示,问题文本的第一语义表示侧重于表示问题文本与各个候选实体在语义上的关联。为了便于描述,仍以前述问题文本“莫扎特是哪个国家的作曲家?”为例,前述问题语义表示侧重于表示问题文本中各个字符(即,“莫”、“扎”、“特”、“是”、“哪”、“个”、“国”、“家”、“的”、“作”、“曲”、“家”)与触发该问题文本的关键实体之间的语义相关性,从而能够利用问题文本表示预测关键实体的开始位置和结束位置;而第一语义表示侧重于表示问题文本与各个候选实体(即,“莫扎特”、“1756年1月27日”、“奥地利”、“1791年12月5日”、“作曲家”、“萨尔茨堡”、“魔笛”、“古典乐派”)在语义上的关联,以利于后续利用第一语义表示和候选实体的第二语义表示从候选实体中预测得到目标实体。其他情况可以以此类推,在此不再一一举例。

    在一个实施场景中,为了提高语义提取效率,可以预先训练一个问题语义提取模型,该问题语义提取模型可以包括但不限于:bi-lstm等等,在此不做限定。提取问题文本的第一语义表示的过程具体可以参阅前述关于提取问题文本的问题语义表示的相关描述,在此不再赘述。需要说明的是,尽管都可以采用bi-lstm等网络提取第一语义表示和前述问题语义表示,然而如前所述,由于第一语义表示和前述问题语义表示两者的含义完全不同,且第一语义表示具体用于后续从候选实体中预测用于回答问题文本的目标实体,而问题语义表示具体用于预测问题文本中的关键实体,故该语义提取模型和前述实体识别模型可以采用相同的网络结构,但需通过不同训练样本进行训练,即两者的网络参数并不相同。

    在一个具体的实施场景中,实体识别模型的训练过程可以参阅前述相关描述。与之不同的是,问题语义提取模型可以是利用样本问题文本训练得到的,且该样本问题文本标注有用于回答其自身的样本目标实体。具体可以利用该问题语义提取模型提取样本问题文本的第一样本语义表示,并提取若干样本候选实体的第二样本语义表示,进而利用第一样本语义表示和第二样本语义表示,从若干样本候选实体中预测得到用于回答样本问题文本的预测目标实体。在此基础上,可以基于样本目标实体和预测目标实体之间的差异,调整问题语义提取模型的网络参数。故此,通过调整网络,能够在语义层面不断调整问题文本的语义信息,以加强其在语义层面与样本目标实体之间的关联。

    步骤s14:利用第一语义表示和第二语义表示,从候选实体中预测得到用于回答问题文本的目标实体。

    在一个实施场景中,可以计算第一语义表示分别与各个候选实体的第二语义表示之间的语义相似度,从而可以选择语义相似度最高的候选实体,作为用于回答问题文本的目标实体。

    在另一个实施场景中,为了进一步提高问题回答的准确性,可以利用第一语义表示和第二语义表示,获取问题文本与各个候选实体之间的相关度,从而可以利用该相关度对对应候选实体的第二语义表示进行加权处理,得到问题文本的最终语义表示,在此基础上,可以利用最终语义表示,从候选实体中预测得到目标实体。上述方式,通过利用第一语义表示和第二语义表示,获取问题文本与各个候选实体之间的相关度,能够有利于获取各个候选实体对于回答问题文本的重要程度,从而利用该相关度对对应候选实体的第二语义表示进行加权处理,得到问题文本的最终语义表示,并利用该最终语义表示预测得到目标实体,能够有利于进一步提高目标实体的准确性,进而能够提高问题回答的质量。

    在一个具体的实施场景中,请结合参阅图4,图4是预测目标实体一实施例的状态示意图。如图4所示,具体可以基于交叉注意力机制(cross-attention)获取问题文本与各个候选实体之间的相关度。具体计算过程在此不再赘述。

    在另一个具体的实施场景中,请继续结合参阅图4,为了进一步提高目标实体的准确性,在得到最终语义表示之后,还可以将最终语义表示输入深层语义提取模型,以进一步提高语义信息的准确性。上述深层语义提取模型可以包括但不限于:bi-lstm等等,利用bi-lstm提取语义信息的具体过程,可以参阅前述相关描述,在此不再赘述。

    在又一个具体的实施场景中,请继续结合参阅图4,在经深层语义提取模型之后,可以进一步将提取到的语义表示输入目标实体预测模型,以在候选实体中预测得到用于回答问题文本的目标实体。具体地,该目标实体预测模型可以包括但不限于:lstm(longshort-termmemory,长短期记忆网络)等等,在此不做限定。

    在又一个实施场景中,在预测得到目标实体之后,即可将目标实体以文本形式进行输出,以提示问题文本的答案。仍以前述问题文本“莫扎特是哪个国家的作曲家?”为例,经上述处理,最终可以在候选实体中确定“奥利地”为用于回答该问题文本的目标实体,从而可以将目标实体“奥地利”以文本形式输出,以提示该问题文本的答案为奥地利。其他情况可以以此类推,在此不再一一举例。

    上述方案,通过识别问题文本中的关键实体,并基于关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体,且预设知识图包含若干节点实体,从而提取问题文本的第一语义表示,并提取候选实体的第二语义表示,且第二语义表示包含候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,进而利用第一语义表示和第二语义表示,从候选实体中预测得到用于回答问题文本的目标实体。故此,能够在语义层面从候选实体中预测目标实体,有利于尽可能地在问题回答过程中减少信息流失,且由于第二语义表示包含候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,能够有利于提高各个候选实体的第二语义表示的准确性,进而能够提高目标实体的准确性,因此能够提高问题回答的质量。

    请参阅图5,图5是图1中步骤s12一实施例的流程示意图。具体可以包括如下步骤:

    步骤s51:获取若干节点实体分别与关键实体之间的第一相关度。

    具体地,可以利用问题文本更新关键实体,并提取更新后的关键实体的第一向量表示,以及将若干节点实体分别进行向量映射,得到各个节点实体的第二向量表示,从而可以利用第一向量表示和第二向量表示,获取若干节点实体分别与关键实体之间的第一相关度。上述方式,通过利用问题文本更新关键实体,并提取更新后的关键实体的第一向量表示,以及将若干节点实体分别进行向量映射,得到各个节点实体的第二向量表示,在此基础上,利用第一向量表示和第二向量表示,获取若干节点实体分别与关键实体之间的第一相关度,由于利用问题文本更新关键实体能够增强关键实体,从而能够有利于进一步减弱单一关键实体可能存在的歧义,进而能够有利于提高若干节点实体与关键实体之间第一相关度的准确性。

    在一个实施场景中,请结合参阅图6,图6是获取第一相关度一实施例的状态示意图。如图6所示,具体可以通过将关键实体与问题文本你进行拼接来更新关键实体,从而能够降低更新关键实体的复杂度。

    在另一个实施场景中,为了提高第一向量表示的提取效率,可以将更新后的关键实体输入向量表示提取模型,得到更新后的关键实体的第一向量表示。具体地,向量表示提取模型可以包括但不限于:bi-lstm等等,在此不做限定。利用bi-lstm提取语义的步骤可以参阅前述公开实施例中相关描述,在此不再赘述。

    在又一个实施场景中,请结合参阅图6,为了提高向量映射效率,可以采用graphembedding(即图嵌入)将若干节点实体分别进行向量映射,得到各个节点实体的第二向量表示。在此基础上,可以将包含若干节点实体的预设知识图进行映射,得到节点实体的第二向量表示。需要说明的是,graphembedding(即图嵌入)是一种将图数据映射为低维向量的过程,其具体映射过程在此不再赘述。

    在又一个实施场景中,请继续结合参阅图6,第一相关度具体可以为第一向量表示和第二向量表示之间的余弦相似度,即可以通过计算第一向量表示和第二向量表示之间的余弦距离,来获取第一向量表示和第二向量表示之间的第一相关度。余弦距离的具体计算过程在此不再赘述。上述方式,通过将第一相关度设置为第一向量表示和第二向量表示之间的余弦相似度,能够有利于降低计算第一相关度的复杂度。

    步骤s52:将第一相关度满足第一预设条件的节点实体,作为起点实体。

    需要说明的是,第一相关度越大,表示关键实体与节点实体之间越相似,反之,第一相关度越小,表示关键实体与节点实体之间越不相似。在一个实施场景中,第一预设条件具体可以包括:第一相关度最大。也就是说,可以在预设知识图中的若干节点实体中选择第一相关度最大的节点实体,作为起点实体。请继续结合参阅图2,仍以问题文本“莫扎特是哪个国家的作曲家?”为例,其关键实体为“莫扎特”,经上述第一相关度计算之后,可以确定第一相关度最大的节点实体为图2预设知识图中的节点实体“莫扎特”,故可以将节点实体“莫扎特”,作为起点实体。其他情况可以以此类推,在此不再一一举例。

    步骤s53:以起点实体作为扩展起点,在预设知识图中进行若干次扩展处理,得到候选实体。

    如前所述公开实施例所述,相关的两个节点实体之间存在实体关系,故在每次扩展过程中,可以获取起点实体以及与起点实体相关的节点实体之间的实体关系,并获取实体关系与问题文本之间的第二相关度,在此基础上,选择与起点实体相关且第二相关度满足第二预设条件的节点实体,作为候选实体。实体关系的具体含义可以参阅前述公开实施例中的相关描述,在此不再赘述。上述方式,通过在每次扩展过程中,获取起点实体以及与起点实体相关的节点实体之间的实体关系,并获取实体关系与问题文本之间的第二相关度,从而选择与起点实体相关且第二相关度满足第二预设条件的节点实体,作为候选实体,能够有利于提高每次扩展所选择的候选实体的准确性。

    在一个实施场景中,请结合参阅图2,如图2所示,以节点实体“莫扎特”是首次扩展处理的起点实体为例,可以获取起点实体“莫扎特”分别与节点实体“1756年1月27日”、“奥地利”、“1791年12月5日”、“作曲家”、“萨尔茨堡”、“魔笛”、“古典乐派”之间的实体关系,例如,可以获取起点实体“莫扎特”与节点实体“1756年1月27日”之间的实体关系“出生日期”,获取起点实体“莫扎特”与节点实体“萨尔茨堡”之间的实体关系“出生地”,以此类推,在此不再赘述。其他情况也可以以此类推,在此不再一一举例。

    在另一个实施场景中,请结合参阅图7,图7是选择候选实体一实施例的状态示意图。如图7所示,为了提高获取第二相似度的效率,可以预先训练一个关系语义提取模型,从而可以将问题文本、实体关系输入上述关系语义提取模型,最终经过池化层处理,得到实体关系与问题文本之间的第二相关度。具体地,上述关系语义提取模型可以包括但不限于:bi-lstm等等,在此不做限定。采用bi-lstm提取语义的具体过程可以参阅前述公开实施例中相关描述,在此不再赘述。

    在又一个实施场景中,第二相关度越大,表示实体关系与问题文本之间越相关,反之,第二相关度越小,表示实体关系与问题文本之间越不相关,在此情况下,第二预设条件具体可以包括:第二相关度大于预设阈值,从而可以根据第二相关度是否满足上述第二预设条件,确定是否将对应的节点实体作为候选实体。请继续结合参阅图2,仍以问题文本“莫扎特是哪个国家的作曲家?”为例,在实体关系“国籍”与问题文本之间的第二相关度满足第二预设条件的情况下,可以将实体关系“国籍”所对应的节点实体“奥地利”作为候选实体,其他节点实体可以以此类推,在此不再一一举例。

    在又一个实施场景中,为了提升候选实体容量,提高确定目标实体的鲁棒性,还可以在执行扩展处理的次数满足第三预设条件的情况下,将最新得到的候选实体,分别作为新的起点实体,并重新执行上述选择与起点实体相关且第二相关度满足第二预设条件的节点实体的步骤。上述方式,在执行扩展处理的次数满足第三预设条件的情况下,将最新得到的候选实体,分别作为新的起点实体,并重新执行上述选择与起点实体相关且第二相关度满足第二预设条件的节点实体的步骤,能够有利于通过多次扩展处理提升候选实体容量,从而提高确定目标实体的鲁棒性,此外,通过检测扩展处理的次数能够有利于进一步降低扩展爆炸的概率。

    在一个具体的实施场景中,上述第三预设条件可以包括:执行扩展处理的次数小于预设阈值。预设阈值具体可以根据实际应用需要进行设置,例如,可以设置为2、3、4等等,在此不做限定。

    在另一个具体的实施场景中,请继续结合参阅图2,仍以问题文本“莫扎特是哪个国家的作曲家?”为例,在首次扩展处理得到候选实体“古典乐派”的情况下,可以进一步将候选实体“古典乐派”作为起点实体,并获取与该起点实体相关的节点实体“贝多芬”之间的实体关系“代表人物”,并获取实体关系“代表人物”与问题文本“莫扎特是哪个国家的作曲家?”之间的第二相关度,由于第二相关度不满足第二预设条件,则可以不将其作为候选实体。其他情况可以以此类推,在此不再一一举例。

    区别于前述实施例,通过获取若干节点实体分别与关键实体之间的第一相关度,从而将第一相关度满足第一预设条件的节点实体,作为起点实体,进而以起点实体作为扩展起点,在预设知识图中进行若干次扩展处理,得到候选实体,能够基于若干节点实体分别与关键实体之间的相关度来选择首次扩展处理的起点实体,从而能够有利于提高筛选得到的候选实体的准确性,进而能够有利于提高目标实体的准确性。此外,通过筛选预设知识图中候选实体,能够缩小后续确定目标实体的实体范围,从而能够有利于提高确定目标实体的速度,进而能够有利于提高问题回答的效率。

    请参阅图8,图8是提取候选实体的第二语义表示一实施例的流程示意图。本公开实施例中,第二语义表示还包括问题文本的语义信息,具体可以包括如下步骤:

    步骤s81:利用图神经网络对候选实体进行编码,得到候选实体的第三语义表示。

    本公开实施例中,第三语义表示包含:候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息。请结合参阅图3,如前述公开实施例所述,图神经网络可以包括但不限于gcn等,通过多次gcn卷积等处理可以更加充分地聚合候选实体本身的语义信息,以及与候选实体相关的其他候选实体的语义信息,从而得到第三语义表示。具体可以参阅前述公开实施例中相关描述,在此不再赘述。

    步骤s82:分别将各个候选实体的第三语义表示和第一语义表示进行融合,得到对应候选实体的第二语义表示。

    在一个实施场景中,可以直接将各个候选实体的第三语义表示与第一语义表示进行拼接,得到对应候选实体的第二语义表示。

    在另一个实施场景中,为了深度融合第三语义表示和第一语义表示,也可以先将各个候选实体的第三语义表示和第一语义表示进行拼接,得到对应候选实体的拼接语义表示,再将候选实体的拼接语义表示输入图神经网络,得到候选实体的第二语义表示。上述方式,通过先将各个候选实体的第三语义表示和第一语义表示进行拼接,得到对应候选实体的拼接语义表示,再将候选实体的拼接语义表示输入图神经网络,得到候选实体的第二语义表示,能够有利于通过图神经网络再次聚合语义信息,从而能够有利于提高语义信息的聚合深度,提高第二语义表示的准确性。

    区别于前述实施例,通过利用图神经网络对候选实体进行编码,得到候选实体的第三语义表示,且第三语义表示包含:候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,从而分别将各个候选实体的第三语义表示和第一语义表示进行融合,得到对应候选实体的第二语义表示,能够在图神经网络提取到候选实体的第三语义表示的基础上,直接将第一语义表示与第三语义表示进行融合,得到第二语义表示,进而能够有利于降低获取第二语义表示的复杂度。

    请参阅图9,图9是本申请电子设备90一实施例的框架示意图。电子设备90包括相互耦接的存储器91和处理器92,存储器91中存储有程序指令,处理器92用于执行程序指令以实现上述任一问题回答方法实施例中的步骤。具体地,电子设备90可以包括但不限于:台式计算机、笔记本电脑、平板电脑、手机、服务器等等,在此不做限定。

    具体而言,处理器92用于控制其自身以及存储器91以实现上述任一问题回答方法实施例中的步骤,或实现上述任一音频处理方法实施例中的步骤。处理器92还可以称为cpu(centralprocessingunit,中央处理单元)。处理器92可能是一种集成电路芯片,具有信号的处理能力。处理器92还可以是通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现场可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器92可以由集成电路芯片共同实现。

    上述方案,通过识别问题文本中的关键实体,并基于关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体,且预设知识图包含若干节点实体,从而提取问题文本的第一语义表示,并提取候选实体的第二语义表示,且第二语义表示包含候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,进而利用第一语义表示和第二语义表示,从候选实体中预测得到用于回答问题文本的目标实体。故此,能够在语义层面从候选实体中预测目标实体,有利于尽可能地在问题回答过程中减少信息流失,且由于第二语义表示包含候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,能够有利于提高各个候选实体的第二语义表示的准确性,进而能够提高目标实体的准确性,因此能够提高问题回答的质量。

    在一些公开实施例中,第二语义表示还包括问题文本的语义信息。

    区别于前述实施例,通过在第二语义表示中融入问题文本的语义信息,能够有利于在第二语义表示同时融合问题文本的语义信息以及候选实体的语义信息,从而能够有利于进一步加强第二语义表示,有利于提高后续目标实体的准确性。

    在一些公开实施例中,处理器92用于利用图神经网络对候选实体进行编码,得到候选实体的第三语义表示;其中,第三语义表示包含:候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息;处理器92用于分别将各个候选实体的第三语义表示和第一语义表示进行融合,得到对应候选实体的第二语义表示。

    区别于前述实施例,通过利用图神经网络对候选实体进行编码,得到候选实体的第三语义表示,且第三语义表示包含:候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,从而分别将各个候选实体的第三语义表示和第一语义表示进行融合,得到对应候选实体的第二语义表示,能够在图神经网络提取到候选实体的第三语义表示的基础上,直接将第一语义表示与第三语义表示进行融合,得到第二语义表示,进而能够有利于降低获取第二语义表示的复杂度。

    在一些公开实施例中,处理器92用于分别将各个候选实体的第三语义表示和第一语义表示进行拼接,得到对应候选实体的拼接语义表示;处理器92用于将候选实体的拼接语义表示输入图神经网络,得到候选实体的第二语义表示。

    区别于前述实施例,通过先将各个候选实体的第三语义表示和第一语义表示进行拼接,得到对应候选实体的拼接语义表示,再将候选实体的拼接语义表示输入图神经网络,得到候选实体的第二语义表示,能够有利于通过图神经网络再次聚合语义信息,从而能够有利于提高语义信息的聚合深度,提高第二语义表示的准确性。

    在一些公开实施例中,处理器92用于获取若干节点实体分别与关键实体之间的第一相关度;处理器92用于将第一相关度满足第一预设条件的节点实体,作为起点实体;处理器92用于以起点实体作为扩展起点,在预设知识图中进行若干次扩展处理,得到候选实体。

    区别于前述实施例,通过利用问题文本更新关键实体,并提取更新后的关键实体的第一向量表示,以及将若干节点实体分别进行向量映射,得到各个节点实体的第二向量表示,在此基础上,利用第一向量表示和第二向量表示,获取若干节点实体分别与关键实体之间的第一相关度,由于利用问题文本更新关键实体能够增强关键实体,从而能够有利于进一步减弱单一关键实体可能存在的歧义,进而能够有利于提高若干节点实体与关键实体之间第一相关度的准确性。

    在一些公开实施例中,处理器92用于利用问题文本更新关键实体,并提取更新后的关键实体的第一向量表示;以及,处理器92用于将若干节点实体进行向量映射,得到各个节点实体的第二向量表示;处理器92用于利用第一向量表示和第二向量表示,获取若干节点实体分别与关键实体之间的第一相关度。

    区别于前述实施例,通过利用问题文本更新关键实体,并提取更新后的关键实体的第一向量表示,以及将若干节点实体分别进行向量映射,得到各个节点实体的第二向量表示,在此基础上,利用第一向量表示和第二向量表示,获取若干节点实体分别与关键实体之间的第一相关度,由于利用问题文本更新关键实体能够增强关键实体,从而能够有利于进一步减弱单一关键实体可能存在的歧义,进而能够有利于提高若干节点实体与关键实体之间第一相关度的准确性。

    在一些公开实施例中,处理器92用于将关键实体与问题文本进行拼接,以更新关键实体。

    区别于前述实施例,而通过将关键实体与问题文本进行拼接来更新关键实体,能够有利于降低更新关键实体的复杂度。

    在一些公开实施例中,相关的两个节点实体之间存在实体关系,处理器92用于获取起点实体及与起点实体相关的节点实体之间的实体关系,并获取实体关系与问题文本之间的第二相关度;处理器92用于选择与起点实体相关且第二相关度满足第二预设条件的节点实体,得到候选实体。

    区别于前述实施例,通过在每次扩展过程中,获取起点实体以及与起点实体相关的节点实体之间的实体关系,并获取实体关系与问题文本之间的第二相关度,从而选择与起点实体相关且第二相关度满足第二预设条件的节点实体,作为候选实体,能够有利于提高每次扩展所选择的候选实体的准确性。

    在一些公开实施例中,处理器92用于在执行扩展处理的次数满足第三预设条件的情况下,将最新得到的候选实体,分别作为新的起点实体;处理器92用于重新执行选择与起点实体相关且第二相关度满足第二预设条件的节点实体的步骤。

    区别于前述实施例,在执行扩展处理的次数满足第三预设条件的情况下,将最新得到的候选实体,分别作为新的起点实体,并重新执行上述选择与起点实体相关且第二相关度满足第二预设条件的节点实体的步骤,能够有利于通过多次扩展处理提升候选实体容量,从而提高确定目标实体的鲁棒性,此外,通过检测扩展处理的次数能够有利于进一步降低扩展爆炸的概率。

    在一些公开实施例中,处理器92用于利用第一语义表示和第二语义表示,获取问题文本与各个候选实体之间的第三相关度;处理器92用于利用第三相关度对对应候选实体的第二语义表示进行加权处理,得到问题文本的最终语义表示;处理器92用于利用最终语义表示,从候选实体中预测得到目标实体。

    区别于前述实施例,通过利用第一语义表示和第二语义表示,获取问题文本与各个候选实体之间的相关度,能够有利于获取各个候选实体对于回答问题文本的重要程度,从而利用该相关度对对应候选实体的第二语义表示进行加权处理,得到问题文本的最终语义表示,并利用该最终语义表示预测得到目标实体,能够有利于进一步提高目标实体的准确性,进而能够提高问题回答的质量。

    请参阅图10,图10是本申请存储装置100一实施例的框架示意图。存储装置100存储有能够被处理器运行的程序指令101,程序指令101用于实现上述任一问题回答方法实施例中的步骤。

    上述方案,能够在语义层面从候选实体中预测目标实体,有利于尽可能地在问题回答过程中减少信息流失,且由于第二语义表示包含候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息,能够有利于提高各个候选实体的第二语义表示的准确性,进而能够提高目标实体的准确性,因此能够提高问题回答的质量。

    在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。

    上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。

    在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。

    作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。

    另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

    集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、磁碟或者光盘等各种可以存储程序代码的介质。


    技术特征:

    1.一种问题回答方法,其特征在于,包括:

    识别问题文本中的关键实体;

    基于所述关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体;其中,所述预设知识图包含若干节点实体;

    提取所述问题文本的第一语义表示,并提取所述候选实体的第二语义表示;其中,所述第二语义表示包含:所述候选实体本身的语义信息以及与所述候选实体相关的其他所述候选实体的语义信息;

    利用所述第一语义表示和所述第二语义表示,从所述候选实体中预测得到用于回答所述问题文本的目标实体。

    2.根据权利要求1所述的方法,其特征在于,所述第二语义表示还包括所述问题文本的语义信息。

    3.根据权利要求2所述的方法,其特征在于,所述提取所述候选实体的第二语义表示,包括:

    利用图神经网络对所述候选实体进行编码,得到所述候选实体的第三语义表示;其中,所述第三语义表示包含:所述候选实体本身的语义信息以及与所述候选实体相关的其他所述候选实体的语义信息;

    分别将各个所述候选实体的第三语义表示和所述第一语义表示进行融合,得到对应所述候选实体的第二语义表示。

    4.根据权利要求3所述的方法,其特征在于,所述分别将各个所述候选实体的第三语义表示和所述第一语义表示进行融合,得到对应所述候选实体的第二语义表示,包括:

    分别将各个所述候选实体的第三语义表示和所述第一语义表示进行拼接,得到对应所述候选实体的拼接语义表示;

    将所述候选实体的拼接语义表示输入所述图神经网络,得到所述候选实体的第二语义表示。

    5.根据权利要求1所述的方法,其特征在于,所述基于所述关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体,包括:

    获取所述若干节点实体分别与所述关键实体之间的第一相关度;

    将所述第一相关度满足第一预设条件的节点实体,作为起点实体;

    以所述起点实体作为扩展起点,在所述预设知识图中进行若干次扩展处理,得到所述候选实体。

    6.根据权利要求5所述的方法,其特征在于,所述获取所述若干节点实体分别与所述关键实体之间的第一相关度,包括:

    利用所述问题文本更新所述关键实体,并提取更新后的关键实体的第一向量表示;以及,

    将所述若干节点实体进行向量映射,得到各个所述节点实体的第二向量表示;

    利用所述第一向量表示和所述第二向量表示,获取所述若干节点实体分别与所述关键实体之间的第一相关度。

    7.根据权利要求6所述的方法,其特征在于,所述利用所述问题文本更新所述关键实体,包括:

    将所述关键实体与所述问题文本进行拼接,以更新所述关键实体。

    8.根据权利要求5所述的方法,其特征在于,相关的两个所述节点实体之间存在实体关系;每次所述扩展处理的步骤包括:

    获取所述起点实体及与所述起点实体相关的节点实体之间的实体关系,并获取所述实体关系与所述问题文本之间的第二相关度;

    选择与所述起点实体相关且所述第二相关度满足第二预设条件的节点实体,得到所述候选实体。

    9.根据权利要求8所述的方法,其特征在于,所述方法还包括:

    在执行所述扩展处理的次数满足第三预设条件的情况下,将最新得到的所述候选实体,分别作为新的所述起点实体;

    重新执行所述选择与所述起点实体相关且所述第二相关度满足第二预设条件的节点实体的步骤。

    10.根据权利要求1所述的方法,其特征在于,所述利用所述第一语义表示和所述第二语义表示,从所述候选实体中预测得到用于回答所述问题文本的目标实体,包括:

    利用所述第一语义表示和所述第二语义表示,获取所述问题文本与各个所述候选实体之间的第三相关度;

    利用所述第三相关度对对应所述候选实体的第二语义表示进行加权处理,得到所述问题文本的最终语义表示;

    利用所述最终语义表示,从所述候选实体中预测得到所述目标实体。

    11.一种电子设备,其特征在于,包括相互耦接的存储器和处理器,所述存储器中存储有程序指令,所述处理器用于执行所述程序指令以实现权利要求1至10任一项所述的问题回答方法。

    12.一种存储装置,其特征在于,存储有能够被处理器运行的程序指令,所述程序指令用于实现权利要求1至10任一项所述的问题回答方法。

    技术总结
    本申请公开了一种问题回答方法及电子设备、存储装置,其中,问题回答方法包括:识别问题文本中的关键实体;基于关键实体,从预设知识图中提取至少部分个节点实体,作为候选实体;其中,预设知识图包含若干节点实体;提取问题文本的第一语义表示,并提取候选实体的第二语义表示;其中,第二语义表示包含:候选实体本身的语义信息以及与候选实体相关的其他候选实体的语义信息;利用第一语义表示和第二语义表示,从候选实体中预测得到用于回答问题文本的目标实体。上述方案,能够提高问题回答质量。

    技术研发人员:王永康;杜倩云;段纪丁
    受保护的技术使用者:科大讯飞华南人工智能研究院(广州)有限公司
    技术研发日:2020.12.28
    技术公布日:2021.03.12

    转载请注明原文地址:https://wp.8miu.com/read-19991.html

    最新回复(0)