基于自监督和聚类技术从文本中抽取实体间关系的方法与流程

    专利2022-07-08  113


    本发明属于机器学习领域,涉及文本挖掘、信息抽取,尤其涉及一种基于自监督和聚类技术从文本中抽取实体间关系的方法。
    背景技术
    :随着互联网的出现和发展,大量信息以各种形式出现在互联网上,例如新闻文章,研究出版物,博客,论坛等。如何从这些文本信息中提取出相关重要的信息成为了目前的主流研究趋势。信息提取(ie)[1]的基本目标就是从给定的文档存储库中提取特定种类的信息,并将其输出到结构化的存储库中[2]。关系抽取(re)在信息抽取(ie)中起着关键作用,其目的是抽取自然语言句子中实体对之间的语义关系[3]。在构建知识图谱时,关系提取也是其中关键的模块。社会关系提取作为关系提取中的一个具体任务,在分析社交网络时是尤其重要的。社交网络是代表个人、团体或组织之间关系的一种方法[4]。社交网络分析(sna)科学可以归结为人与人之间的一种中心概念关系,它们共同定义了我们是谁以及我们如何行动[5]。种族,教育,成长环境,性格都与我们的人际关系互动,并留下了不可磨灭的印记[6]。社会关系抽取作为社交网络分析的重要组成部分,引起了广泛的关注。语言作为人类交流的方式之一,蕴含了各种丰富的信息,于是语言成为了进行关系抽取的一个重要基础。如今,关系抽取的技术发展迅速,主要分为有监督方法、半监督方法和无监督方法。(1)有监督方法有监督方法主要依赖于完全标注的语料库,已知关系类型,有时甚至已知关系实体,早期的有监督方法一般利用基于特征的方法,这些特征一般为各种词汇、语法、语义特征,kambhatla[7]将这些特征组合输入到分类其中进行关系分类,zhou[8]等人在kambhatla工作的基础上探索了更多的特征来进行分类。为了解决没有显示特征的问题,基于核函数的方法出现了,此方法主要通过核函数来计算两个关系实例之间的相似度,具体的核函数有bunescuandmooney[9]提出的序列核函数、collinsandduffffy[10]提出的卷积解析树核函数、culottaandsorensen[11]提出的依赖树核函数,bunescuandmooney[12]提出的基于依赖树构成的图的核函数等。近几年,深度学习方法的发展突飞猛进,用各种神经网络解决关系抽取的方法也有很多,例如ziranli[13]等人利用基于多粒度语言信息和外部语言知识的汉语关系提取框架来进行中文关系抽取,此框架是以lstm为基础的。tsu-juifu[14]等人提出了graphrel,这是一个端到端关系提取模型,该模型使用图卷积网络(gcn)共同学习命名实体和关系。(2)半监督的方法最经典的半监督学习方法就是bootstrapping,此方法需要一个大的未标记的语料库和一些特殊的种子实例。brin[15]就是利用这种思想提出了dipre模型,jiang[16]应用多任务转移学习解决了一个弱监督的关系抽取(re)问题。由于经典的bootstrapping方法会出现语义漂移的问题,hongtaolin[17]等人提出了dualre框架,采用对偶学习的思想使框架中的两个模块相互学习,以达到最好性能。(3)无监督的方法在实际应用中,希望从网络中大量的信息进行关系抽取,因此无监督的方法是一个很有潜力的方向。最早的无监督方法是由hasegawap[18]等人提出,此方法的核心是聚类,只需要一个命名实体识别的触发器就可以进行关系聚类。liminyao[19]等人在使用聚类的基础上,结合主题模型对关系进行聚类。为了发现训练语料库之外的数据中的关系,edgargonzalez[20]等人在使用聚类方法时限定了条件,使得聚类方法应用到大规模数据中表现突出。benjaminrosenfeld[21]等人对不同聚类方法进行比较,并且提出了新的聚类评价指标。目前主要有以下两个问题和挑战:(1)目前,对于关系抽取方法,有监督方法已经发展的很成熟了。然而,网络中的大量信息都是未标注的,实际工作需要从网络中大量信息中提取出社会关系,并对社会关系的语义进行一定程度的表达。(2)目前关系抽取的问题主要集中在实体关系抽取,然而对于分析社交网络来说,社会关系的抽取是尤为重要的。从社交网络的信息中提取出社会关系,这不仅对构建社交网络有着很重要的意义,对于构建个人画像也起着关键性作用。[参考文献][1]m.-f.moens.informationextraction:algorithmsandprospectsinaretrievalcontext.springer,2006.[2]pawar,sachin,girishk.palshikar,andpushpakbhattacharyya."relationextraction:asurvey."arxivpreprintarxiv:1712.05191(2017).[3]li,ziran,ningding,zhiyuanliu,haitaozheng,andyingshen."chineserelationextractionwithmulti-grainedinformationandexternallinguisticknowledge."inproceedingsofthe57thannualmeetingoftheassociationforcomputationallinguistics,pp.4377-4386.2019.[4]nasution,mahyuddink.m.,andnoah,s.a.m.:superficialmethodforextractingsocialnetworkforacademicusingwebsnippets.in:yu,j.etal.(eds.):roughsetandknowledgetechnology(rskt),lnai,vol.6401,483-390,springer,heidelberg(2010).[5]gui,feng,fengzhang,yunlongma,minliu,andweimingshen."socialrelationextractionoflarge-scalelogisticsnetworkbasedonmapreduce."in2014ieeeinternationalconferenceonsystems,man,andcybernetics(smc),pp.2273-2277.ieee,2014.[6]m.tsvetovatanda.kouznetsov.socialnetworkanalysisforstartups,o'reillymedia,2010,pp.2.[7]n.kambhatla.combininglexical,syntactic,andsemanticfeatureswithmaximumentropymodelsforextractingrelations.inproceedingsoftheacl2004,2004.[8]zhouguodong,sujian,zhangjie,andzhangmin.exploringvariousknowledgeinrelationextraction.inproceedingsofthe43rdannualmeetingonassociationforcomputationallinguistics,pages427–434.associationforcomputationallinguistics,2005.[9]raymondjmooneyandrazvancbunescu.subsequencekernelsforrelationextraction.inadvancesinneuralinformationprocessingsystems,pages171–178,2005.[10]michaelcollinsandnigelduffffy.convolutionkernelsfornaturallanguage.inadvancesinneuralinformationprocessingsystems,pages625–632,2001.[11]aronculottaandjeffffreysorensen.dependencytreekernelsforrelationextraction.inproceedingsofthe42ndannualmeetingonassociationforcomputationallinguistics,page423.associationforcomputationallinguistics,2004.[12]razvancbunescuandraymondjmooney.ashortestpathdependencykernelforrelationextraction.inproceedingsoftheconferenceonhumanlanguagetechnologyandempiricalmethodsinnaturallanguageprocessing,pages724–731.associationforcomputationallinguistics,2005.[13]li,ziran,ningding,zhiyuanliu,haitaozheng,andyingshen."chineserelationextractionwithmulti-grainedinformationandexternallinguisticknowledge."inproceedingsofthe57thannualmeetingoftheassociationforcomputationallinguistics,pp.4377-4386.2019.[14]fu,tsu-jui,peng-hsuanli,andwei-yunma."graphrel:modelingtextasrelationalgraphsforjointentityandrelationextraction."inproceedingsofthe57thannualmeetingoftheassociationforcomputationallinguistics,pp.1409-1418.2019.[15]sergeybrin.extractingpatternsandrelationsfromtheworldwideweb.intheworldwidewebanddatabases,pages172–183.springer,1999.[16]jingjiang.multi-tasktransferlearningforweakly-supervisedrelationextraction.inproceedingsofthejointconferenceofthe47thannualmeetingoftheaclandthe4thinternationaljointconferenceonnaturallanguageprocessingoftheafnlp:volume2-volume2,pages1012–1020.associationforcomputationallinguistics,2009.[17]lin,hongtao,junyan,mengqu,andxiangren."learningdualretrievalmoduleforsemi-supervisedrelationextraction."intheworldwidewebconference,pp.1073-1083.acm,2019.[18]takaakihasegawa,satoshisekine,andralphgrishman.discoveringrelationsamongnamedentitiesfromlargecorpora.inproceedingsofthe42ndannualmeetingonassociationforcomputationallinguistics,page415.associationforcomputationallinguistics,2004.[19]yao,limin,sebastianriedel,andandrewmccallum."unsupervisedrelationdiscoverywithsensedisambiguation."inproceedingsofthe50thannualmeetingoftheassociationforcomputationallinguistics:longpapers-volume1,pp.712-720.associationforcomputationallinguistics,2012.[20]gonzalez,edgar,andjorditurmo."unsupervisedrelationextractionbymassiveclustering."in2009ninthieeeinternationalconferenceondatamining,pp.782-787.ieee,2009.[21]rosenfeld,benjamin,andronenfeldman."clusteringforunsupervisedrelationidentification."inproceedingsofthesixteenthacmconferenceonconferenceoninformationandknowledgemanagement,pp.411-418.acm,2007.技术实现要素:本发明的目的是为了克服现有技术中的不足,提供一种基于自监督和聚类技术从文本中抽取实体间关系的方法,即基于自我监督的思想,在大量无标签的数据集中进行关系提取。本发明的目的是通过以下技术方案实现的:基于自监督和聚类技术从文本中抽取实体间关系的方法,基于自我监督的思想,在无标签的数据集中进行关系提取;包括下文编码模块、聚类模块以及分类模块;上下文编码模块用于将数据进行编码,用于之后进行关系抽取和分析;上下文编码模块的编码模型采用bert,输入为一个经过处理的句子x,将句子x进行分词、去停用词等具体操作后,句子x被分成t个词条,之后对句子x中的两个实体进行标注,在两个实体的前后分别做标注,具体输入形式如下:x=[x1,…,[e1start],xi,…,xj-1,[e1end],…,[e2start],xk,…xl-1,[e2end],…,xt]在以上的公式中,xi表示句子中的第i个词条,[e1start]表示句子中第一个实体的开头位置标注,[e1end]表示句子中第一个实体的结尾位置标注,句子共有t个词条;之后将x输入到bert中,以句子x中两个实体的开始位置标注[e1start]和[e2start]作为两个实体的编码,提取出来作为下一模块的输入;聚类模块分为实体的自适应聚类和实体类别对的自适应聚类两部分;实体的自适应聚类用于将实体编码直接进行聚类,得到的聚类结果是实体类别;实体类别对的自适应聚类是将实体类别对进行聚类,得到的结果是实体类别之间的关系;两种聚类的方法一样,首先将上下文编码模块得到的编码经过非线性映射编码为向量,然后利用k-means进行聚类,之后迭代非线性映射编码和聚类两个步骤,直到达到约束条件为止,此时聚类的结果被看作是下一模块的伪标签作为下一模块的输入;分类模块的作用是将聚类模块的结果作为为标签,从而进行关系分类,确认实体间最终的关系;分类模块将上下文编码模块、聚类模块联系起来共同训练;分类模块根据聚类模块得出的伪标签和最初的输入数据得出伪标签在数据集上的分布l,利用交叉熵损失函数,并结合分布l和由真实标签数据构成的one-hot向量对本发明整体进行优化。与现有技术相比,本发明的技术方案所带来的有益效果是:1.本发明中的聚类方法与传统的聚类方法不同,本发明中的聚类又叫自适应性聚类,采用迭代地软分配学习过程,这样的好处在于让最有可能为同一类的样本聚集在一起,即鼓励高置信度分配来改善低置信度分配。本发明的自适应聚类很好的利用了神经网络提取特征的优点,在聚类之前先进行深层网络表示,这样的聚类方式可以提高聚类纯度,有效地防止了大型关系簇扭曲隐藏的特征空间;普通的k-means方法最大的不稳定性来源于聚类个数的选定,然而自适应聚类对聚类个数的选择有很好的适应性,聚类个数的选择对于模型的稳定产生不了很大的影响。2.本发明利用实体所属类别之间的关系反向验证实体之间的关系,这样的关系抽取方式是自我优化的,实体之间的关联不仅体现在单纯的实体关系上,还体现在实体所属的类别上。本发明没有直接对实体对进行关系分类,而是进行了两次聚类,实体间的自适应聚类将数据集中的所有实体进行了分配,使得实体之间不再仅有是否存在于一个句子的联系,使得在不同句子中的实体有了联系。本发明充分利用了这种关联使得本发明方法的效果更好。附图说明图1是本发明方法的示例图。具体实施方式以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。如图1所示,本发明提出的基于自监督和聚类技术从文本中抽取实体间关系的方法包括三个模块:上下文编码模块、聚类模块和分类模块。1.上下文编码模块上下文编码模块的目的是对在一个句子中的两个实体进行向量表示。在本发明中,假设已知句子中的实体已经被标注,本发明只关注两个实体之间的关系。一对实体之间的关系必定与他们的上下文所有关联,因此对于实体间上下文的表示是至关重要的,一个好的上下文向量表示可以很好地反应两个实体之间的关系。因此,在本发明中,本发明利用预先训练好的深度双向转换网络对实体以及其上下文进行编码。首先,将一个句子表示成如下形式:x=[x1,…,[e1start],xi,…,xj-1,[e1end],…,[e2start],xk,…xl-1,[e2end],…,xt](1)在以上的公式中,xi表示句子中的第i个词条,[e1start]表示句子中第一个实体的开头位置标注,[e1end]表示句子中第一个实体的结尾位置标注,句子共有t个词条。以上形式是遵循了soares等人采用的标记模式,在句子x中引入了四个标记,分别代表了句子中已知实体的开始和结束位置。在本发明中,上下文编码器的公式表示为fθ(x,e1,e2),也就是说,输入一个句子x之后,本实施例将输出两个实体对应的开始位置的编码,即[e1start]和[e2start]两个位置的向量,在本发明中表示为和那么,将数据集所有句子的实体表示成h={h1,h2,…,hn}(n代表语料库中m个句子中一共有n个实体),并将h作为聚类模块的输入。2聚类模块聚类模块目的就是产生实体之间关系的伪标签,从而将伪标签输入给分类模块进行最后的关系分类。此模块的聚类不同于一般的聚类,本发明的聚类是自适应聚类,即先进行编码再聚类,并且编码和聚类相互促进,最后生成最后的聚类结果。自适应聚类鼓励高置信度分配,也就是将最有可能在某个簇的点分配到这个簇中,并且不受聚类数目的影响,这种分配方式在本发明中也称作软分配。此模块主要分为两个部分,实体的自适应聚类和实体类别对的自适应聚类。2.1实体的自适应聚类实体的自适应聚类的目的是为了获取到不同实体之间的某种联系,语料库中不同句子的两个实体可能不相同,同一句子的两个实体也有可能不相同,那么这些看起来一模一样的实体在不同的句子中具有的语义是一样的吗?如果一样的话,可不可以将这种语义提取出来,甚至是表示出来呢?因此,本实施例将上下文编码模块的输出h={h1,h2,…,hn}(n代表语料库中m个句子中一共有n个实体),作为实体的自适应聚类的输入。本发明中的自适应聚类包括两部分:(1)非线性映射部分:非线性映射gγ,此映射将转换成也就是说将上下文编码模块的表示h经过预处理的全连接神经网络进行更深层次的表示,最终表示成了z;(2)k-means聚类部分:训练出k个聚类中心,并且将n个实体z={z1,z2,…,zn}通过软分配的方式分配到k个簇中。在第一部分的非线性映射中,本发明仅采用了一组全连接层作为非线性映射的核心转换函数。此部分的全连接层不是随机初始化或者从零开始训练的,而是参考了vincent等人对自动编码器训练的一些参数,本发明使用这些参数作为初始参数进行训练,自动编码器包括编码器和解码器两部分,本发明需要编码器部分,因此需要从训练后的自动编码器中提取的全连接层部分作为本部分的核心函数。本发明中,先对自动编码器进行预训练,以h为输入,并在所有数据上进行最小化重构损失:以上四个公式代表了整个编码器,公式(2)、(3)和公式(4)、(5)分别是两层简单的神经网络,公式(2)、(3)代表编码器,公式(4)、(5)代表解码器,dropout(·)是随机映射函数,g1(·)和d1(·)是激活函数,分别负责编码和解码,w和b是编码器需要训练的参数。然而,下一步聚类只使用其中一层神经网络,即表示编码器的部分公式(2)、(3)。在得到编码器的神经网络后,以此为非线性映射的核心函数,将上下文编码模块的输出h转化成z,通过z进行k-means聚类。在第二部分的k-means聚类中,得到了非线性映射后的深层向量表示z,并通过z将每个实体进行聚类。具体来说,首先在特征空间中执行标准的k-means聚类,从而获得k个初始化的质心通过xie等人的方法,本实施例使用学生t分布作为核心公式来衡量各个实体的深层表示向量zn与每个质心μk之间的相似性:其中α代表学生t分布的自由度,qnk表示将第n个实体软分配给第k个簇的概率。本发明中所有的α=1,zn表示第n个实体的深层表示向量,μk表示第k个质心。为了将非线性映射部分和聚类部分两部分进行互相优化,本发明参照xie等人的方法引入了辅助分配概率,通过qnk将每个聚类归一化,具体公式为:其中fk=∑nqnk是软聚类的频率,即在所有被软分配到第k个簇的所有样本的概率之和。通过软分配概率qnk和辅助软分配概率pnk,定义一个kl散度损失来进行优化此聚类部分,具体公式如下:本发明使用基于梯度下降的优化器来最小化在优化时,只会影响到gφ的参数,并不会影响到上下文编码器中的各个参数。从以上的步骤中,可以得到第n个样本被分配到第k个簇的最大概率,那么就认为这个拥有最大概率的簇的概率值就是第n个样本的伪标签tn,即:tn=argmaxk∈kpnk(9)在本发明中,为了减轻此部分由于选择了不理想的质心,从而对结果造成很大的影响,当第一次训练并没有减小时,模型会重新选择新的一组质心作为初始质心。到此,本部分的训练结束,最后会得到k个实体类别,即实体之间的一种联系,这也反映了语料库的实体之间存在着某种联系。然而,本发明最终目的是为了得到实体之间的关系,于是要进一步对当前得到的k个实体类别进行处理。2.2实体类别对的自适应聚类本发明的最终目的是为了提取实体间的关系抽取,为了在更广泛意义上探究实体之间的关系,本发明在上一部分首先将上下文编码器输出的实体的编码作为特征空间进行自适应聚类,但那只是将实体进行了聚类,让实体之间有了联系。现在,将2.1得到的k个质心表示a={a1,a2,…,ak}提取出来,随机进行两两组合拼接,得到这里ωi叫第i个实体类别对,共有k2个实体类别对,将ω再次聚类,就能得到实体类别对的关系。此时的聚类方式和2.1的聚类方式大致是一样的,分为两步:(1)非线性映射部分:将ω经过非线性映射成u(2)k-means聚类部分:通过k-means方法学习出j个聚类中心,即j个簇,并将k2个实体对软分配到j个簇中,获得最后的关系伪标签s={s1,s2,…,sm}。由于此部分的聚类方式和之前几乎一样,于是不再赘述。总得来说,本发明中的聚类模块与传统的聚类方法不同,本发明中的聚类又叫自适应性聚类,采用迭代地软分配学习过程,这样的好处在于让最有可能为同一类的数据样本聚集在一起,即鼓励高置信度分配来改善低置信度分配。最大的优点主要在于:(1)自适应聚类可以提高聚类纯度,也就是鼓励高置信度分配。(2)有效地防止了大型关系簇扭曲隐藏的特征空间(3)不需要预先指定目标关系的实际数量,更不需要关系的分布。3.分类模块本发明的核心思想是自我监督,这个思想就主要体现在此模块。在上面的自适应聚类模块为每个句子都标注了伪关系标签s={s1,s2,…,sm}。这些伪标签就可以作为分类模块的标签,从而可以进行关系分类。分类模块主要的目的就是使用这些伪标签来改变上下文编码器的特征学习,从而进一步影响最后的分类结果。此模块使用的分类器和传统的有监督分类器相似,只不过本模块分类器的标签来自于聚类模块的伪标签。公式可以表示为:ln=cτ(fθ(xn,e1,e2))(10)从公式(10)可以看出,分类器结合了上下文编码器做了一定的改进,其中cτ表示带有参数τ的分类模块,ln是第n个样本在m个伪标签上的概率分布。为了找到上下文编码器的最佳性能参数θ和分类器的最佳性能参数τ,本发明又设计了以下损失函数,很好地将三个模块联系起来进行优化:公式(11)的loss函数是交叉熵损失函数,one-hot(sn)表示一个第n个句子在m个伪标签上的one-hot向量,n表示一共有n个句子。通过优化可以以迭代的方式重复进行自适应聚类和分类。换句话说,整个模型的标签就是来自于自身,自己产生伪标签,自己通过伪标签来进行关系分类,最后再通过损失函数反向优化上下文编码器的参数,从而优化了自适应聚类的参数,最后影响到分类模块。因此,本发明随着迭代地训练,为关系模块提供高质量的伪标签,从而达到了自我监督的目的。本发明的迭代终止条件是,当当前标签与前一次的差异小于10%时,本模型终止迭代。进一步的,本实施例选用三个数据集作为实验材料,这些数据集被广泛应用于相关的研究中,分别为:nyt fb数据集,t-rexspo数据集和t-rexds数据集。nyt fb数据集是通过远程监督生成的数据集,也就是通过将纽约时报的语料库的句子与freebase的三元组对齐生成的关系标签。t-rexspo数据集和t-rexds数据集都来自于t-rex数据集,该数据集通过将wikipedia语料库与wikidata的三元组对齐而生成的。在数据处理过程中,本实施例只选择了两个实体同时出现在同一个句子的样本。如果同一句子包含多个不同关系的实体对儿,那么这个句子会重复出现。根据数据集是否具有表面形式关系,将t-rex数据集分为t-rexspo数据集和t-rexds数据集。具体信息见表1:表1数据集信息统计数据集句子总数关系总数nyt fb200万216t-rexspo76.3万615t-rexds1200万1189对于模型的训练,将三个数据集分别划分了训练集和验证集。其中训练集占数据集的80%,验证集占20%。这些数据集仍然包含一些未对齐的内容,但是这对于模型来说应该更容易提取正确的语义关系。本发明中,使用标准的无监督评估指标进行评估,对于所有模型,假设目标关系的数量是已知的,并且为了方便评估,将类别数目设置为数据集真实数目,然后使用b3、v度量和ari三个方法进行评估。使用b3的精确率和召回率来衡量将每个句子放入其簇或者将所有样本归为一个类的正确率,具体公式为:使用v度量来计算聚类的同质性和完整性,和b3的方法类似,但是具有条件熵:homogeneity=1-h(c(x)|g(x))/h(c(x))completeness=1-h(g(x)|c(x))/h(g(x))ari方法衡量了两个数据分布之间的一致性程度,ari的范围是[-1,1],此数值越大,聚类结果与实际情况越一致。下表2的内容展示了本模型在三个数据集上的效果。表2基于三个数据集的评估对比结果通过性能评估结果可以看出,在不同数据集和不同评估的情况下,本发明相对于基线模型都有了一定的改善。本发明的基线模型主要包括三个,yao等人的rel-lda模型、marcheggiani的march模型和simon等人的uie模型,这些模型都是无监督关系抽取领域的比较流行的模型。本发明的优点主要如下:相对于selfore直接对实体对进行聚类,本发明先对实体进行聚类,在更宏观的层面上将实体类别聚类出来,使得实体之间有了联系,这种联系就是实体所属类别。将这些类别对进行二次聚类,从而得到了实体所属类别之间的关系。利用实体所属类别之间的关系反向验证实体之间的关系,这样的关系抽取方式是自我优化的,实体之间的关联不仅体现在单纯的实体关系上,还体现在实体所属的类别上。本发明充分利用了这种关联使得模型的效果更好。本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。当前第1页1 2 3 
    技术特征:

    1.基于自监督和聚类技术从文本中抽取实体间关系的方法,其特征在于,基于自我监督的思想,在无标签的数据集中进行关系提取;包括下文编码模块、聚类模块以及分类模块;

    上下文编码模块用于将数据进行编码,用于之后进行关系抽取和分析;上下文编码模块的编码模型采用bert,输入为一个经过处理的句子x,将句子x进行分词、去停用词具体操作后,句子x被分成t个词条,之后对句子x中的两个实体进行标注,在两个实体的前后分别做标注,具体输入形式如下:

    x=[x1,…,[e1start],xi,…,xj-1,[e1end],…,[e2start],xk,…xl-1,[e2end],…,xt]

    在以上的公式中,xi表示句子中的第i个词条,[e1start]表示句子中第一个实体的开头位置标注,[e1end]表示句子中第一个实体的结尾位置标注,句子共有t个词条;之后将x输入到bert中,以句子x中两个实体的开始位置标注[e1start]和[e2start]作为两个实体的编码,提取出来作为下一模块的输入;

    聚类模块分为实体的自适应聚类和实体类别对的自适应聚类两部分;实体的自适应聚类用于将实体编码直接进行聚类,得到的聚类结果是实体类别;实体类别对的自适应聚类是将实体类别对进行聚类,得到的结果是实体类别之间的关系;两种聚类的方法一样,首先将上下文编码模块得到的编码经过非线性映射编码为向量,然后利用k-means进行聚类,之后迭代非线性映射编码和聚类两个步骤,直到达到约束条件为止,此时聚类的结果被看作是下一模块的伪标签作为下一模块的输入;

    分类模块的作用是将聚类模块的结果作为为标签,从而进行关系分类,确认实体间最终的关系;分类模块将上下文编码模块、聚类模块联系起来共同训练;分类模块根据聚类模块得出的伪标签和最初的输入数据得出伪标签在数据集上的分布l,利用交叉熵损失函数,并结合分布l和由真实标签数据构成的one-hot向量进行优化。

    技术总结
    本发明公开一种基于自监督和聚类技术从文本中抽取实体间关系的方法,基于自我监督的思想,在无标签的数据集中进行关系提取;包括下文编码模块、聚类模块以及分类模块;上下文编码模块用于将数据进行编码,用于之后进行关系抽取和分析;聚类模块分为实体的自适应聚类和实体类别的自适应聚类两部分;实体的自适应聚类用于将实体编码直接进行聚类,得到的聚类结果是实体类别;实体类别的自适应聚类是将实体类别进行聚类,得到的结果是实体类别之间的关系;分类模块用于将各个模块联系起来共同训练。

    技术研发人员:王鑫;王博;蒋沁学;陈根华;黄博帆
    受保护的技术使用者:天津大学
    技术研发日:2020.12.13
    技术公布日:2021.03.12

    转载请注明原文地址:https://wp.8miu.com/read-21622.html

    最新回复(0)