资讯详情

Matching the Blanks: Distributional Similarity for Relation Learning (通篇翻译)

Livio Baldini Soares Nicholas FitzGerald Jeffrey Ling ? Tom Kwiatkowski Google Research { liviobs,nfitz,jeffreyling,tomkwiat } @google.com

信息提取的核心目标是通用关系提取器可以建模任何关系。人们一直在努力构建一个通用的提取器,表示与曲面形式的关系,或者将曲面形式与现有知识图中的关系嵌入其中。然而,这两种方法的推广能力都非常有限。在本文中,我们基于哈里斯分布假设对关系的扩展,以及学习文本表征(尤其是伯特)的最新进展,仅从实体链接文本构建任务不可知的关系表征。

我们表明,即使不使用任何任务的训练数据,这些数据也明显优于以前基于示例的关系提取(FewRel)工作。我们还表明,使用我们的任务来表示初始模型,然后调整监督关系提取数据集semeval 2010任务8、KBP37和TACRED性能明显优于以前的方法。

识别和提取实体之间的关系一直是自然语言处理的长期目标(Cardie,1997)。通常,与提取有关的工作分为三类。在第一组监督(kambhatla,2004;GuoDong等人,2005;Zeng等人,2014年)或远程监督关系提取器(Mintz等人,2009)在有限的模式下学习从文本到关系的映射。作为第二组,通过使用关系的表面形式提取开放信息(Banko等人,2007年;Fader等人,2011年;Stanovsky等人,2018年)来表达关系,从而消除了预定义模式的局限性,这增加了范围,但也导致了相关的通用性不足,因为许多表面形式可以表达相同的关系。最后,一般模式(Riedel et al.,2013)它不仅包含了文本的多样性,还包含了模式关系的简洁性,从而构建一种扩展到任何文本输入的方式(Toutanova et al.,2015年,对任何实体(Verga和McCallum,2016)联合表示。然而,像远程监督关系提取器一样,通用模式依赖于可以与文本对齐的大型知识图(通常是Freebase(Bollacker et al.,2008))。 基于Lin和Pantel(2001)将Harris的分布假设(Harris,1954)通过观察上下文学习单词表征的最新进展,扩展到关系(Mikolov等人,2013年;Peters等人,2018年;Devlin等人,2018年),我们提出了一种直接从文本中学习关系的新方法。首先,我们研究了Transformer神经网络系统结构(Vaswani et al.,2017)实体编码关系的能力,确定了监督关系提取优于以往工作的表达方式。 然后,我们提出了一种在没有任何知识图或人工注释器监督的情况下,通过匹配空白来训练这种关系表达的方法。 [BLANK]受卡尔早期封面的启发,录制了[BLANK]最受欢迎的版本之一[BLANK]。[BLANK]演唱的[BLANK]被《时代》杂志称为最伟大的歌曲之一,并被列入《滚石》历史上最伟大的500首歌曲名单。 图1:匹配空间示例,两个关系句共享相同的两个实体。 继Riedel在(2013年)之后,我们假设可以访问一个文本语料库,其中实体与唯一的标识符相连,我们将关系句定义为包含两个标记实体的文本块。因此,我们创建了包含关系语句的训练数据,其中实体已被特殊的[空白]符号取代,如图1所示。我们的训练程序使用包含关系句的空白对,其目标是鼓励关系在相同的实体对范围内相似。训练结束后,我们最近发布了费雷尔任务(Han et al.,2018年)使用了学习到的关系表征,其中原始工作语言等工作语言,用一些例子来表达,(意大利语:La Folla)是1951年的意大利电影。Han等待(2018)FewRel作为监督数据集,旨在评估模型在测试过程中适应新领域关系的能力。我们表明,我们没有看到任何匹配空白的训练FewRel超越训练数据,超越训练数据Han et al.(2018)在FewRel最好的表现。我们还表示,通过匹配空白和调整FewRel预训模型在FewRel评价优于人类。同样,通过匹配空白和调整标记数据的训练,我们也有了显著的改进SemEval 2010任务8(hendrickx et al.,2009)、KBP-37(Zhang and Wang,2015)和TACRED(Zhang et al.,2017)关系提取基准性能。

在本文中,我们专注于从关系陈述到关系表达的映射。形式上,假设avatar它是一个标记序列,其中x0=[CLS]和xn=[SEP]是特殊的开始和结束标记。设s1=(i,j)和s2=(k,l)是整数对,使0<i<j? 1,j<k,k≤ L? 1,我≤ N关系句是三重r=(x,s1,s2),其中s1和sx中提到了2中的索引分隔实体:序列[xi…xj]? 1]提到实体,序列[XK…XL]也提到了实体实体 1 ] . 我们的目标是学习一个函数,它将关系句映射到一个固定长度的向量,表示它s1和s2标记的实体之间以x表示的关系。 本文包括两项主要贡献。首先,在第3.在第一节中,我们研究了关系编码器fθ广泛使用的不同架构和所有架构Transformer在序列模型之上(Devlin等人,2018;Vaswani等人,2017)。通过将这些系统结构应用于一套具有监督训练的关系提取基准,对每个系统结构进行评估。 第二个更重要的贡献(见第四节)表明fθ可以通过实体链接文本的形式从广泛可用的远程监控中学习。

这项工作的主要目标是从文本生成关系中直接开发模型。鉴于最近接受语言建模变体训练deep transformers表现强劲,我们采用Devlin et al.伯特模型(2018)是我们工作的基础。本节将讨论使用Transformer模型表示不同的关系方式。

我们在一系列监督关系提取基准中评估了不同的表达方式。我们使用的关系提取任务大致可以分为两类:完全监督关系提取和少量镜头关系匹配。 对于监督任务,目标是在给定关系语句r的情况下预测关系类型t∈ T是关系类型的固定字典,T=0通常表示关系句中实体之间缺乏关系。对于这类任务,我们根据SemEval 2010任务8(hendrickx等人,2009年),KBP-37(Zhang和Wang,2015年)和TACRED(Zhang评估等人,2017年)。更正式地说,在少数镜头关系匹配的情况下,根据查询关系句对一组候选关系句进行排序和匹配。 在这项任务中,测试和开发集中的示例通常包括训练集中不存在的关系类型。对于这类任务,我们在FewRel(Han et al.,201818)数据集。 具体来说,我们得到了K组N标记关系语句 ,它是相应的关系类型。目标是预测和查询关系句子rq的。 图2:我们模型中使用的损失描述。左图描述了一个适合监督和培训的模型,预计将根据预定义的关系类型字典进行分类。右图描述了少数镜头分类任务中成对的相似损失。 图3:从深度变压器网络中提取关系表示的各种结构。(a)描述标准输入和[CLS]输出模型,图(b)描述标准输入和提及池输出模型,图(c)描述了位置嵌入输入和提到池输出的模型。(d)、(e)和(f)在使用[CLS]时使用实体标记输入,分别提到池和实体启动输出。 表1:监督关系提取任务的结果。模型名称标有*符号行上的结果报告已发布,所有其他数字均由我们计算。SemEval 2010年任务8未建立默认开发拆分;在这项工作中,我们使用了包含1500个示例的训练集随机切片。

在本节的所有实验中,我们从Devlin et al.(2018)提供的BERT针对特定任务损失的大模型和训练开始。 由于BERT我们的目标是回答两个主要的建模问题:(1)如何表达它们之前没有应用于关系表达问题BERT输入中感兴趣的实体,以及(2)如何从BERT提取关系的固定长度表示在输出中。     我们为输入编码和输出关系表示提供了三个选项。图3显示了这六种组合。

    回想一下,在第2节中,关系语句r=(x,s1,s2)包含令牌x序列和实体跨度标识符s1和s2。我们提供了三种不同的选项,用于将有关焦点跨度s1和s2的信息获取到我们的BERT编码器中。     标准输入首先,我们使用一个伯特模型进行实验,该模型无法对跨越s 1和s 2的实体进行任何显式识别。     我们将此选项称为标准输入。     这是一个重要的参考点,因为我们相信BERT有能力识别x中的实体,但在标准输入中,当x包含两个以上的实体时,无法知道哪两个实体处于焦点。     对于输入中的每个标记的位置嵌入,BERT还添加了一个切分嵌入,主要用于向模型中添加句子切分信息。为了解决标准表示缺乏明确的实体标识的问题,我们引入了两个新的分段嵌入,一个添加到span s1中的所有标记,另一个添加到span s2中的所有标记。这种方法类似于之前的工作,其中位置嵌入已应用于关系提取(Zhang等人,2017年;Bilan和Roth,2018年)。     实体标记标记最后,我们用四个保留字片段来增加x,以标记关系语句中提到的每个实体的开始和结束。我们引入[e1 start]、[e1 end]、和并修改x以给出 ,我们将这个令牌序列输入到BERT而不是x。我们还更新了实体索引s̃1=(i+1,j+1)和s̃2=(k+3,l+3)以说明插入的令牌。我们将输入的这种表示形式称为实体标记。

    现在我们介绍三种从伯特编码器中提取固定长度关系表示hr的方法。这三种变体依赖于提取transformer网络的最后一个隐藏层,我们将n=| x |(或| x̃|,如果使用实体标记标记),定义为ash=[h 0,…h n]。     [CLS]令牌从第2节中调用,每个x以一个保留的[CLS]令牌开始。Devlbert等人在2018年使用的句子长度是固定的。     我们采用[CLS]输出h0作为第一个关系表示。     实体提及池我们通过最大化与每个实体提及中的单词片段对应的最终隐藏层来获得hr,从而得到两个向量 和he2=MAXPOOL([hk…hl− 1])代表提及的两个实体。我们将这两个向量连接起来,得到单个表示,其中〈a | b〉是a和b的连接。我们将这种体系结构称为“提到池”。     实体开始状态最后,我们建议在使用实体标记时,简单地用对应于其各自开始标记的最终隐藏状态的串联来表示两个实体之间的关系。回想一下实体标记在x中插入标记,在S1和S2中创建偏移量,我们对关系的表示是。我们将这种输出表示形式称为实体开始输出。请注意,这只能应用于实体标记输入。     图3展示了我们在本节中评估的几个变体。除了定义模型输入和输出架构外,我们还修复了用于训练模型的训练损失(如图2所示)。在所有模型中,来自Transformer网络的输出表示被馈送到一个完全连接的层中,该层要么(1)包含线性激活,要么(2)对表示执行层规范化(Ba等人,2016)。     我们将后转换层的选择视为一个超参数,并为每个任务使用性能最佳的层类型。     对于监督任务,我们引入了一个新的分类层,其中his表示关系表示的大小,K表示关系类型的数量。分类损失是相对于真实关系类型的softmax的标准交叉熵。     对于少镜头任务,我们使用查询语句的关系表示和每个候选语句之间的点积作为相似性分数。在这种情况下,我们还应用了关于真实类的相似性得分softmax的熵损失。     我们使用以下一组超参数对所有变体的伯特模型执行特定任务的微调:•Transformer架构:24层,1024个隐藏大小,16个头部•权重初始化:伯特大•Transformer后层:密集线性激活(KBP-37和TACRED),或层规范化层(SemEval 2010和FewRel)。     •训练阶段:1至10•学习率(监督):3e-5,Adam•批量大小(监督):64•学习率(少镜头):1e-4,SGD•批量大小(少镜头):256表1显示了模型变量在三个监督关系提取任务和少镜头关系分类任务的5向1镜头变量上的结果。对于所有四项任务,使用实体标记输入表示法和实体开始输出表示法的模型得分最高。     从结果可以看出,在输入中添加位置信息对于模型学习有用的关系表示至关重要。与之前从位置嵌入中获益的工作不同(Zhang等人,2017年;Bilan和Roth,2018年),deep Transformers从看到新的实体边界词块(实体标记)中获益最大。还值得注意的是,最好的变体在所有四项任务上都优于之前发布的模型。在本文的其余部分中,我们将在进一步培训和评估我们的模型时使用此体系结构。

    到目前为止,我们已经使用人类标记的训练数据来训练我们的关系语句编码器fθ。受开放信息提取(Banko et al.,2007;Angeli et al.,2015)的启发,该方法直接从标记文本中导出关系,我们现在引入一种新的训练fθ方法,无需预定义的本体或关系标记的训练数据。相反,我们声明,对于任何一对关系语句r和r′,如果两个关系语句r和r′表示语义相似的关系,则内积应该是高的。如果这两个关系语句表示语义不同的关系,那么这个内积应该如下所示。     与信息提取远程监控中的相关工作不同(Hoffmann等人,2011;Mintz等人,2009),我们在训练时不使用关系标签。相反,我们观察到web文本中存在高度冗余,任意一对实体之间的每个关系都可能被多次声明。随后,如果s1表示同一实体ass′1,s2表示同一实体ass′2,更有可能编码与相同的语义关系。我们从一个新的文本开始,介绍了一种新的学习方法。我们介绍了这种通过匹配空格(MTB)进行学习的方法。在第5节中,我们展示了MTB学习的关系表示法可以在不进行任何进一步调整的情况下用于关系提取,甚至可以击败之前对人类标记数据进行训练的工作。

    设E是一组预定义的实体。让 成为一个关系语句的语料库,这些语句被标记为两个实体和。回想一下,在第2节中,,其中SI1和SI2界定了XI中提到的实体。通过将关系语句ri与分别对应于跨度和的两个实体和配对来创建每个项ind。     我们的目标是学习一个关系语句编码器fθ,我们可以用它来确定两个关系语句是否编码相同的关系。为此,我们定义了以下二元分类器 ,为r和r′编码相同关系(l=1)或不编码相同关系(l=0)的情况分配一个概率。     然后,我们将学习θ的参数化,该参数化使损失 最小化,其中是Kronecker delta,其值为1 iff,否则为0。 表2:“匹配空白”自动生成的训练数据示例。语句对RA和RB是一个积极的例子,因为它们共享两个实体的分辨率。语句对RA和RC以及r带RC形成强负对,因为它们共用一个实体,但包含其他不匹配的实体。

    读者可能已经注意到,方程式1中的损失可以通过用于创建D的实体链接系统完美地最小化。而且,由于这个连接系统没有任何关系的概念,因此假设fθ会以某种方式神奇地建立有意义的关系表示是不合理的。     为了避免简单地重新学习实体链接系统,我们引入了一个经过修改的语料库 ,其中每个r̃i=(x̃i,s i 1,s i 2)包含一个关系语句,其中一个或两个实体提及可能已被一个特殊的[空白]符号替换。具体地说,x̃包含由概率为α的s1定义的跨度。否则,跨度将替换为单个[空白]符号。S2也是如此。D̃中只有的关系语句明确指出了参与关系的两个实体。     因此,最小化L(D̃)需要fθ做的不仅仅是识别r中的命名实体。     我们假设D̃上的训练将导致fθ编码两个可能被忽略的实体跨度之间的语义关系。第5节的结果支持这一假设。

    为了用匹配的这是老的classifier任务对模型进行训练,我们构建了一个类似于BERT的训练设置,其中同时使用了两种损失:蒙面语言模型损失和匹配空白的损失。为了生成训练语料库,我们使用英文维基百科并从HTML段落块中提取文本段落,忽略列表和表格。我们使用现成的实体链接system 1,用唯一的知识库标识符(例如Freebase ID或Wikipedia URL)注释文本范围。span注释不仅包括专有名词,还包括其他指称实体,如普通名词和代词。从这个带注释的语料库中,我们提取关系语句,其中每个语句在一个固定大小的标记2窗口中至少包含两个固定实体。为了防止对涉及流行实体的关系语句产生较大的偏见,我们通过随机抽样包含任何给定实体的恒定数量的关系语句来限制包含同一实体的关系语句的数量。     如前一节所述,我们使用这些语句来训练模型参数,以最小化L(D̃)。在实践中,不可能像方程1中那样比较每一对关系陈述,因此我们使用噪声对比估计(Gutmann和Hyvảrinen,2012;Mnih和Kavukcuoglu,2013)。在这个估计中,我们考虑所有包含相同实体的关系语句的正对,因此方程1中第一项的贡献没有变化-在这里。然而,这种近似确实改变了第二项的贡献。     我们不是对不包含同一对实体的所有关系语句对求和,而是从所有关系语句对集中统一随机抽样,或从共享单个实体的关系语句集中抽样。我们加入了第二组“硬”否定,以说明大多数随机抽样的关系语句对甚至不太可能是局部相关的,并且我们希望确保训练过程能够看到引用相似但不同关系的关系语句对。最后,我们用[空白]符号替换每个实体的提及,概率为α=0。7,如第3.2节所述,以确保模型不会因评估任务中没有[空白]符号而混淆。我们从英文维基百科中总共生成了6亿对关系语句,大致分为50%的正对和50%的强负对。 表3:FewRel少数镜头关系分类任务的测试结果。Proto Net是Han等人(2018)发布的最好的系统。在撰写本文时,我们的BERT EM+MTB模型在5向1拍配置上的表现优于排行榜上的顶级模型(http://www.zhuhao.me/fewrel/),在10向1拍配置上的表现优于10%,在10向1拍配置上的表现优于15%。

    在本节中,我们通过匹配空白来评估训练的影响。我们从第3.3节中最好的基于伯特的模型开始,我们称之为伯特EM,并将其与通过匹配空白任务(伯特EM+MTB)训练的变体进行比较。我们通过将Transformer权重初始化为BERT LARGE的权重,训练BERT EM+MTB模型,并使用以下参数:•学习率:3e-5 with Adam•批量:2048•步骤数:100万•关系表示:实体标记我们报告第3.1节中所有任务的结果,对BERT EM和BERT EM+MTB使用相同的特定任务训练方法。

    首先,我们研究了BERT-EM+MTB在没有任何特定任务的训练数据的情况下解决FewRel任务的能力。由于FewRel是一种基于范例的方法,我们可以根据每个候选relasemeval语句的表示与范例表示的内积对其进行排序。     图4显示,任务不可知的BERT-EM和BERT-EM+MTB模型在FewRel任务上的表现优于之前发布的最新状态,即使它们没有看到任何FewRel训练数据。     对于BERT EM+MTB,与Han等人。     (2018)的受监督方法非常重要——在5向1次任务中占8.8%,在10向1次任务中占12.7%。BERT EM+MTB在这种无监督的情况下也显著优于BERT EM,这是意料之中的,因为在BERT EM的训练期间没有特定关系的损失。     为了研究监督对BERT-EM和BERT-EM+MTB的影响,我们引入了越来越多的FewRel的训练数据。图4显示了性能的提高,因为我们或者增加了每种关系类型的训练示例的数量,或者增加了训练数据中的关系类型的数量。当允许访问所有训练数据时,BERT EM接近BERT EM+MTB的性能。然而,当我们在训练期间保持所有关系类型,并改变每个示例的类型数量时,BERT EM+MTB只需要6%的训练数据来匹配在所有训练数据上训练的BERT EM模型的性能。我们观察到,保持关系类型的多样性,并减少每种类型的示例数,是减少此任务注释工作量的最有效方法。图4中的结果表明,可以使用MTB训练来显著减少实现基于示例的关系提取系统的工作量。     最后,我们在表3中报告了BERT EM+MTB在FewRel的所有完全监督任务中的表现。我们发现,它优于Han等人(2018)报告的人类上限,并且显著优于FewRel排行榜上所有其他已发布或未发布的提交。 表4:BERT EM+MTB和基于BERT EM的关系分类器在各自测试集上的F1分数。SOTA系统的详细信息见表1。

    表4包含我们的分类器在监督关系提取数据上的调整结果。如第3.2节所述,我们基于伯特EM的分类器在这三项任务中的表现优于之前公布的结果。额外的基于MTB的训练进一步提高了所有任务的F1成绩。     我们还分析了两个模型的性能,同时减少了受监督的特定于任务的调整数据量。表5中显示的结果显示了在调整特定于任务的训练数据的随机子集时开发集的性能。对于所有任务,我们发现基于MTB的训练对于资源不足的情况更为有效,在这种情况下,基于BERT EM和基于BERT EM+MTB的分类器之间的性能差距更大。这进一步支持了我们的论点,即通过匹配空格进行训练可以显著减少创建关系提取器和填充知识库所需的人力投入。 图4:在FewRel上调优的分类器的比较。可用于微调开发结果的注释集。在左侧,我们显示准确度,同时改变每个关系类型的示例数,同时保持所有64个可用于训练的关系。在右边,我们显示了两个模型的开发集的准确性,同时改变了可供调整的关系类型的总数,同时保持了每个关系类型的所有700个示例。在这两个图中,都会显示任务的10路1拍变体的结果。 表5:F1在有监督的关系提取任务的开发集上的得分,同时改变我们的BERT-EM和BERT-EM+MTB模型可用的调整数据量。

    在本文中,我们研究了直接从文本中产生有用的关系表示的问题。     我们描述了一种新的训练设置,我们称之为匹配空白,它完全依赖于实体分辨率注释。当我们的模型与一种新的结构相结合,用于微调BERT中的关系表示时,我们的模型在三个关系提取任务上达到了最先进的结果,并且在少数镜头关系匹配上优于人类的准确性。此外,我们还展示了新的模型如何在低资源制度下特别有效,并且我们认为它可以显著减少创建关系提取器所需的人力。     在未来的工作中,我们计划通过根据BERT EM+MTB对具有相似表示的关系语句进行聚类来进行关系发现。这将为我们实现真正的通用关系识别和提取目标提供一些途径。我们还将研究可用于在分布式知识库中存储关系三元组的关系和实体的表示。这是受最近知识库嵌入工作的启发(Bordes等人,2013年;Nickel等人,2016年)。

Gabor Angeli, Melvin Jose Johnson Premkumar, and Christopher D Manning. 2015. Leveraging linguistic structure for open domain information extraction. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural language Processing , volume 1, pages 344–354.

Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E hinton. 2016. Layer normalization. arXiv preprint arXiv:1607.06450 .

Michele Banko, Michael J. Cafarella, Stephen soderland, Matt Broadhead, and Oren Etzioni. 2007. Open information extraction from the web . In proceedings of the 20th International Joint Conference on Artifical Intelligence , IJCAI’07, pages 2670– 2676, San Francisco, CA, USA. Morgan Kaufmann Publishers Inc.

Ivan Bilan and Benjamin Roth. 2018. Position-aware self-attention with relative positional encodings for slot filling . CoRR , abs/1807.03052.

Kurt Bollacker, Colin Evans, Praveen Paritosh, Tim Sturge, and Jamie Taylor. 2008. Freebase: A collaboratively created graph database for structuring human knowledge . In Proceedings of the 2008 ACM SIGMOD International Conference on management of Data , SIGMOD ’08, pages 1247–1250, New York, NY, USA. ACM.

Antoine Bordes, Nicolas Usunier, Alberto garciaduran, Jason Weston, and Oksana Yakhnenko. 2013. Translating embeddings for modeling multirelational data . In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 26 , pages 2787–2795. Curran Associates, Inc.

Claire Cardie. 1997. Empirical methods in information extraction. AI Magazine , 18(4):65–80.

Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2018. BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805 .

Anthony Fader, Stephen Soderland, and Oren Etzioni. 2011. Identifying relations for open information extraction . In Proceedings of the 2011 Conference on Empirical Methods in Natural Language processing , pages 1535–1545, Edinburgh, Scotland, UK. Association for Computational Linguistics.

Zhou GuoDong, Su Jian, Zhang Jie, and Zhang Min. 2005. Exploring various knowledge in relation extraction. In Proceedings of the 43rd annual meeting on association for computational linguistics , pages 427–434. Association for Computational linguistics.

Michael U Gutmann and Aapo Hyvärinen. 2012. Noise-contrastive estimation of unnormalized statistical models, with applications to natural image statistics. Journal of Machine Learning Research , 13(Feb):307–361.

Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, and Maosong Sun. 2018. Fewrel: A large-scale supervised few-shot relation classification dataset with state-of-the-art evaluation. In proceedings of the 2018 Conference on Empirical methods in Natural Language Processing , pages 4803– 4809.

Zellig S Harris. 1954. Distributional structure. Word , 10(2-3):146–162.

Iris Hendrickx, Su Nam Kim, Zornitsa Kozareva, Preslav Nakov, Diarmuid Ó Séaghdha, Sebastian Padó, Marco Pennacchiotti, Lorenza Romano, and Stan Szpakowicz. 2009. Semeval-2010 task 8: Multi-way classification of semantic relations between pairs of nominals. In Proceedings of the Workshop on Semantic Evaluations: Recent Achievements and Future Directions , pages 94–99. Association for Computational Linguistics.

Raphael Hoffmann, Congle Zhang, Xiao Ling, Luke Zettlemoyer, and Daniel S Weld. 2011. knowledgebased weak supervision for information extraction of overlapping relations. In Proceedings of the 49th Annual Meeting of the Association for computational Linguistics: Human Language technologiesvolume 1 , pages 541–550. Association for computational Linguistics.

Nanda Kambhatla. 2004. Combining lexical, syntactic, and semantic features with maximum entropy models for extracting relations. In Proceedings of the ACL 2004 on Interactive poster and demonstration sessions , page 22. Association for Computational Linguistics.

Dekang Lin and Patrick Pantel. 2001. DIRT: Discovery of Inference Rules from Text . In Proceedings of the Seventh ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD’01) , pages 323–328, New York, NY, USA. ACM Press. Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S corrado, and Jeff Dean. 2013. Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems , pages 3111–3119.

Mike Mintz, Steven Bills, Rion Snow, and Daniel jurafsky. 2009. Distant supervision for relation extraction without labeled data . In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP , pages 1003–1011, Suntec, Singapore. Association for Computational Linguistics.

Andriy Mnih and Koray Kavukcuoglu. 2013. Learning word embeddings efficiently with noise-contrastive estimation. In Advances in neural information processing systems , pages 2265–2273.

Maximilian Nickel, Lorenzo Rosasco, and Tomaso Poggio. 2016. Holographic embeddings of knowledge graphs . In Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence , AAAI’16, pages 1955–1961. AAAI Press.

Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. 2018. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers) , volume 1, pages 2227–2237.

Sebastian Riedel, Limin Yao, Andrew McCallum, and Benjamin M Marlin. 2013. Relation extraction with matrix factorization and universal schemas. In proceedings of the 2013 Conference of the North american Chapter of the Association for Computational Linguistics: Human Language Technologies , pages 74–84.

Gabriel Stanovsky, Julian Michael, Luke Zettlemoyer, and Ido Dagan. 2018. Supervised open information extraction . In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers) , pages 885– 895, New Orleans, Louisiana. Association for computational Linguistics.

Kristina Toutanova, Danqi Chen, Patrick Pantel, hoifung Poon, Pallavi Choudhury, and Michael Gamon. 2015. Representing text for joint embedding of text and knowledge bases . In Proceedings of the 2015 Conference on Empirical Methods in Natural language Processing , pages 1499–1509, Lisbon, portugal. Association for Computational Linguistics.

Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. 2017. Attention is all you need. In Advances in Neural Information processing Systems , pages 5998–6008.

Patrick Verga and Andrew McCallum. 2016. Row-less universal schema . In Proceedings of the 5th workshop on Automated Knowledge Base Construction , pages 63–68, San Diego, CA. Association for computational Linguistics.

Linlin Wang, Zhu Cao, Gerard de Melo, and Zhiyuan Liu. 2016. Relation classification via multi-level attention cnns . In Proceedings of the 54th Annual Meeting of the Association for Computational linguistics , pages 1298–1307. Association for computational Linguistics.

Daojian Zeng, Kang Liu, Siwei Lai, Guangyou Zhou, and Jun Zhao. 2014. Relation classification via convolutional deep neural network . In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers , pages 2335–2344. Dublin City University and association for Computational Linguistics.

Dongxu Zhang and Dong Wang. 2015. Relation classification via recurrent neural network . CoRR , abs/1508.01006.

Yuhao Zhang, Victor Zhong, Danqi Chen, Gabor angeli, and Christopher D Manning. 2017. positionaware attention and supervised data improve slot filling. In Proceedings of the 2017 Conference on empirical Methods in Natural Language Processing , pages 35–45.

标签: 30ny7继电器继电器3e4

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台