资讯详情

斯坦福NLP名课带学详解 | CS224n 第5讲 - 句法分析与依存解析(NLP通关指南·完结)

ShowMeAI研究中心

  • 作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI
  • 教程地址:http://www.showmeai.tech/tutorials/36
  • 本文地址:http://www.showmeai.tech/article-detail/238
  • 声明:所有版权,请联系平台和作者,注明来源

ShowMeAI为自然语言处理与深度学习(Natural Language Processing with Deep Learning)》课程的所有课件都完成了,并制作成了GIF动图!

本讲内容的可以在 查看。视频、课件等资料的获取方式见


引言

本文涵盖了内容

1.句法结构:成分与依赖

1.1 语言结构的两种观点:无上下文语法

  • 句子是由逐渐嵌套的单元构建的

  • 短语结构将单词组织成嵌套成分

  • :单词被赋予一个类别

    • part of speech = pos 词性
  • 组合成不同类别

  • 可递归地组合成

  • 指的是 Determiner,语言学中的含义是

  • 指的是 Noun Phrase,语言学中的含义是

  • ****指的是 Verb Phrase,语言学中的含义是

  • 指的是 Preposition,语言学中的含义是

  • 指的是 Prepositional Phrase,语言学中的含义是

1.2 语言结构的两种观点:无上下文语法

1.3 语言结构的两种观点:依赖结构

  • 它不是使用各种类型的短语,而是通过单词与其他单词的关系直接表示句子的结构,显示哪些单词依赖于其他单词(修改或参数)

  • look 是整个句子的根源,look 依赖于 crate (或者说 cratelook 的依赖)
    • inthelarge 都是 crate 的依赖
    • in the kitchencrate 的修饰
    • inthe 都是 kitchen 的依赖
    • by the doorcrate 的依赖

1.4 为什么我们需要句子结构?

  • 为了正确地解释语言,我们需要理解句子结构
  • 人类通过将单词组合成更大的单元来传达复杂的含义,从而交流复杂的思想
  • 我们需要知道什么是相关的
    • 除非我们知道其他单词的参数或修饰词是什么,否则我们不知道句子是什么意思

1.5 介词短语依附歧义

San Jose cops kill man with knife

  • 警察用刀杀了那个人

    • copskillsubject (subject 指 )
    • mankillobject (object 指 )
    • knifekillmodifier (modifier 指 )
  • 警察杀了那个有刀的人

    • knifemanmodifier (名词修饰符,简称 nmod)

1.6 介词短语依附歧义

  • from space 这个介词短语修改了前面的动词 count 还是名词 whales
    • 这就是人类语言和编程语言的区别

1.7 介词短语附加歧义成倍增加

  • 关键的分析决策是如何依赖各种成分
    • 介词短语、状语或分词短语、不定式、协调等。

  • boardapproved 的主语,acquisitionapproved 的谓语
  • by Royal Trustco Ltd. 是修饰 acquisition 董事会批准了该公司的收购
  • of Toronto 可以修饰 approvedacquisitionRoyal Trustco Ltd. 经过分析,可以知道是修饰 Royal Trustco Ltd.,这意味着该公司的位置
  • for $$27 a share 修饰 acquisition
  • at its monthly meeting 修饰 approved,即表示批准的时间和地点

面对如此复杂的句子结构,我们需要考虑 指数级 这个序列称为可能的结构

C n = ( 2 n ) ! / [ ( + 1 ) ! n ! ] C_{n}=(2 n) ! /[(n+1) ! n !] Cn​=(2n)!/[(n+1)!n!]

1.8 协调范围模糊

Shuttle veteran and longtime NASA executive Fred Gregory appointed to board

  • 一个人:[[Shuttle veteran and longtime NASA executive] Fred Gregory] appointed to board

  • 两个人:[Shuttle veteran] and [longtime NASA executive Fred Gregory] appointed to board

1.9 协调范围模糊

  • 例句:Doctor: No heart,cognitive issues

1.10 形容词修饰语歧义

Students get first hand job experience

  • first hand 表示 第一手的,直接的,即学生获得了直接的工作经验
    • firsthand 的形容词修饰语(amod)
  • first 修饰 experiencehand 修饰 job

1.11 动词短语(VP)依存歧义

Mutilated body washes up on Rio beach to be used for Olympic beach volleyball

  • to be used for Olympic beach volleyball 是 动词短语 (VP)
  • 修饰的是 body 还是 beach

2.依赖语法与树库

2.1 #论文解读# 依赖路径识别语义关系

2.2 依存文法和依存结构

  • 关联语法假设句法结构包括词汇项之间的关系,通常是二元不对称关系(“箭头”),称为

1.

2.

  • 箭头通常标记(type)为语法关系的名称(主题、介词对象、apposition等)
  • 箭头连接头部(head)(调速器,上级,regent)和一个依赖(修饰词,下级,下属)
    • A → A \to A→ 的事情
  • 通常,依赖关系形成一棵树(单头,无环,连接图)

2.3 依存语法/解析历史

2.4 依存语法/解析历史

2.5 依存语法和依赖结构

  • 人们对箭头指向的方式不一致:有些人把箭头朝一个方向画;有人是反过来的
    • Tesnière 从头开始指向依赖,本课使用此种方式
  • 通常添加一个伪根指向整个句子的头部,这样每个单词都精确地依赖于另一个节点

2.6 带注释数据的兴起:通用依存句法树库

Universal Dependencies:我们想要拥有一个统一的、并行的依赖描述,可用于任何人类语言

  • 从前手工编写语法然后训练得到可以解析句子的解析器
  • 用一条规则捕捉很多东西真的很有效率,但是事实证明这在实践中不是一个好主意
    • 语法规则符号越来越复杂,并且没有共享和重用人类所做的工作
  • 句子结构上的 treebanks 支持结构更有效

2.7 带注释数据的兴起

  • 可重用性
    • 许多解析器、词性标记器等可以构建在它之上
    • 语言学的宝贵资源
  • 广泛的覆盖面,而不仅仅是一些直觉
  • 频率和分布信息
  • 一种评估系统的方法

2.8 依赖条件首选项

  • 1. (两个单词间的密切关系)
    • [discussion → issues] 是看上去有道理的
  • 2.
    • 主要是与相邻词
  • 3.
    • 依赖很少跨越介于中间的动词或标点符号
  • 4.
    • How many dependents on which side are usual for a head?

2.9 依赖关系分析

  • 通过为每个单词选择它所依赖的其他单词(包括根)来解析一个句子

  • 通常有一些限制

    • 只有一个单词是依赖于根的
    • 不存在循环 A→B,B→A
  • 这使得依赖项成为树

  • 最后一个问题是箭头是否可以交叉(非投影的 non-projective)

    • 没有交叉的就是non-projectice

2.10 射影性

  • 定义:当单词按线性顺序排列时,没有交叉的依赖弧,所有的弧都在单词的上方

  • 与CFG树并行的依赖关系必须是投影的

    • 通过将每个类别的一个子类别作为头来形成依赖关系
  • 但是依赖理论通常允许非投射结构来解释移位的成分

    • 如果没有这些非投射依赖关系,就不可能很容易获得某些结构的语义

2.11 依存分析方法

1.

  • Eisner(1996)提出了一种复杂度为 O(n3) 的聪明算法,它生成头部位于末尾而不是中间的解析项

2.

  • 为一个句子创建一个最小生成树
  • McDonald et al.’s (2005) MSTParser 使用ML分类器独立地对依赖项进行评分(他使用MIRA进行在线学习,但它也可以是其他东西)

3.

  • 去掉不满足硬约束的边 Karlsson(1990), etc.

4.

  • 良好的机器学习分类器 MaltParser(Nivreet al. 2008) 指导下的依存贪婪选择。已证明非常有效。

3.基于转换的依存分析模型

3.1 #论文解读# Greedy transition-based parsing [Nivre 2003]

  • 贪婪判别依赖解析器一种简单形式

  • 解析器执行一系列自底向上的操作

    • 大致类似于shift-reduce解析器中的“shift”或“reduce”,但“reduce”操作专门用于创建头在左或右的依赖项
    • 栈 σ \sigma σ 以 ROOT 符号开始,由若干 w i w_i wi​ 组成
    • 缓存 β \beta β 以输入序列开始,由若干 w i w_i wi​ 组成
    • 一个依存弧的集合 A A A ,一开始为空。每条边的形式是 ( w i , r , w j ) (w_i,r,w_j) (wi​,r,wj​),其中 r r r 描述了节点的依存关系
    • 一组操作

3.2 基本的基于转换的依存关系解析器

  • 最终目标是 σ = [ R O O T ] \sigma = [ROOT] σ=[ROOT], β = ϕ \beta = \phi β=ϕ, A A A 包含了所有的依存弧

  • 1.SHIFT:将buffer中的第一个词移出并放到stack上。
  • 2.LEFT-ARC:将 ( w j , r , w i ) (w_j,r,w_i) (wj​,r,wi​) 加入边的集合 A A A,其中 w i w_i wi​ 是stack上的次顶层的词, w j w_j wj​ 是stack上的最顶层的词。
  • 3.RIGHT-ARC:将 ( w i , r , w j ) (w_i,r,w_j) (wi​,r,wj​) 加入边的集合 A A A,其中 w i w_i wi​ 是stack上的次顶层的词, w j w_j wj​ 是stack上的最顶层的词。

我们不断的进行上述三类操作,直到从初始态达到最终态。

  • 在每个状态下如何选择哪种操作呢?
  • 当我们考虑到 LEFT-ARC 与 RIGHT-ARC 各有 ∣ R ∣ \left|R\right| ∣R∣( ∣ R ∣ \left|R\right| ∣R∣为 r r r 的类的个数)种类,我们可以将其看做是class数为 2 ∣ R ∣ + 1 2\left|R\right|+1 2∣R∣+1 的分类问题,可以用SVM等传统机器学习方法解决。

3.3 基于Arc标准转换的解析器

  • 还有其他的 transition 方案
  • Analysis of I ate fish

3.4 #论文解读# MaltParser [Nivre and Hall 2005]

  • 我们需要解释如何选择下一步行动

    • Answer:机器学习
  • 每个动作都由一个有区别分类器(例如softmax classifier)对每个合法的移动进行预测

  • 最多三种无类型的选择,当带有类型时,最多 ∣ R ∣ × 2 + 1 \left|R\right|×2+1 ∣R∣×2+1 种

  • Features:栈顶单词,POS;buffer中的第一个单词,POS;等等

  • 在最简单的形式中是没有搜索的

    • 但是,如果你愿意,你可以有效地执行一个 Beam search 束搜索(虽然速度较慢,但效果更好):你可以在每个时间步骤中保留 k k k 个好的解析前缀
  • 该模型的精度略低于依赖解析的最高水平,但它提供了非常快的线性时间解析,性能非常好

3.5 传统特征表示

  • 传统的特征表示使用二元的稀疏向量 1 0 6 ∼ 1 0 7 10^6 \sim 10^7 106∼107
  • 特征模板:通常由配置中的 1 ∼ 3 1 \sim 3 1∼3个元素组成
  • Indicator features

3.6 依赖分析的评估:(标记)依赖准确性

  • UAS (unlabeled attachment score) 指无标记依存正确率
  • LAS (labeled attachment score) 指有标记依存正确率

3.7 处理非投影性

  • 我们提出的弧标准算法只构建投影依赖树

头部可能的方向:

  • 1.在非投影弧上宣布失败
  • 2.只具有投影表示时使用依赖形式[CFG只允许投影结构]
  • 3.使用投影依赖项解析算法的后处理器来识别和解析非投影链接
  • 4.添加额外的转换,至少可以对大多数非投影结构建模(添加一个额外的交换转换,冒泡排序)
  • 5.转移到不使用或不需要对投射性进行任何约束的解析机制(例如,基于图的MSTParser)

3.8 为什么要训练神经依赖解析器?重新审视指标特征

  • Indicator Features的问题

    • 问题1:稀疏
    • 问题2:不完整
    • 问题3:计算复杂
  • 超过95%的解析时间都用于特征计算

4.神经网络依存分析器

4.1 #论文解读# A neural dependency parser [Chen and Manning 2014]

  • 斯坦福依存关系的英语解析

    • Unlabeled attachment score (UAS) = head
    • Labeled attachment score (LAS) = head and label
  • 效果好,速度快

4.2 分布式表示

4.3 从配置中提取令牌和向量表示

  • 对于Neural Dependency Parser,其输入特征通常包含三种
    • stack和buffer中的单词及其dependent word
    • 单词的part-of-speech tag
    • 描述语法关系的arc label

4.4 模型体系结构

4.5 句子结构的依存分析

  • 神经网络可以准确地确定句子的结构,支持解释

  • Chen and Manning(2014)是第一个简单,成功的神经依赖解析器

  • 密集的表示使得它在精度和速度上都优于其他贪婪的解析器

4.6 基于转换的神经依存分析的新进展

  • 这项工作由其他人进一步开发和改进,特别是在谷歌

    • 更大、更深的网络中,具有更好调优的超参数
    • Beam Search 更多的探索动作序列的可能性,而不是只考虑当前的最优
    • 全局、条件随机场(CRF)的推理出决策序列
  • 这就引出了SyntaxNet和Parsey McParseFace模型

4.7 基于图形的依存关系分析器

4.8 #论文解读# A Neural graph-based dependency parser [Dozat and Manning 2017; Dozat, Qi, and Manning 2017]

  • 为每条边的每一个可能的依赖关系计算一个分数

  • 为每条边的每一个可能的依赖关系计算一个分数

    • 然后将每个单词的边缘添加到其得分最高的候选头部
    • 并对每个单词重复相同的操作
  • 在神经模型中为基于图的依赖分析注入活力

    • 为神经依赖分析设计一个双仿射评分模型
    • 也使用神经序列模型,我们将在下周讨论
  • 非常棒的结果

    • 但是比简单的基于神经传递的解析器要慢
    • 在一个长度为 n n n 的句子中可能有 n 2 n^2 n2 个依赖项

5.视频教程

可以点击 查看视频的【双语字幕】版本

【双语字幕+资料下载】斯坦福CS224n | 深度学习与自然语言处理(2019·全20讲)

6.参考资料

  • 《斯坦福NLP名课带学详解 | CS224n》本讲带学的
  • 《斯坦福CS224n深度学习与自然语言处理》
  • 《斯坦福CS224n深度学习与自然语言处理》
  • 】斯坦福CS224n | 深度学习与自然语言处理(2019·全20讲)
  • | CS224n: Natural Language Processing with Deep Learning

ShowMeAI 深度学习与自然语言处理教程(完整版)

  • ShowMeAI 深度学习与自然语言处理教程(1) - 词向量、SVD分解与Word2vec
  • ShowMeAI 深度学习与自然语言处理教程(2) - GloVe及词向量的训练与评估
  • ShowMeAI 深度学习与自然语言处理教程(3) - 神经网络与反向传播
  • ShowMeAI 深度学习与自然语言处理教程(4) - 句法分析与依存解析
  • ShowMeAI 深度学习与自然语言处理教程(5) - 语言模型、RNN、GRU与LSTM
  • ShowMeAI 深度学习与自然语言处理教程(6) - 神经机器翻译、seq2seq与注意力机制
  • ShowMeAI 深度学习与自然语言处理教程(7) - 问答系统
  • ShowMeAI 深度学习与自然语言处理教程(8) - NLP中的卷积神经网络
  • ShowMeAI 深度学习与自然语言处理教程(9) - 句法分析与树形递归神经网络

ShowMeAI 斯坦福NLP名课 CS224n带学详解(20讲·完整版)

  • 斯坦福NLP名课带学详解 | CS224n 第1讲 - NLP介绍与词向量初步
  • 斯坦福NLP名课带学详解 | CS224n 第2讲 - 词向量进阶
  • 斯坦福NLP名课带学详解 | CS224n 第3讲 - 神经网络知识回顾
  • 斯坦福NLP名课带学详解 | CS224n 第4讲 - 神经网络反向传播与计算图
  • 斯坦福NLP名课带学详解 | CS224n 第5讲 - 句法分析与依存解析
  • 斯坦福NLP名课带学详解 | CS224n 第6讲 - 循环神经网络与语言模型
  • 斯坦福NLP名课带学详解 | CS224n 第7讲 - 梯度消失问题与RNN变种
  • 斯坦福NLP名课带学详解 | CS224n 第8讲 - 机器翻译、seq2seq与注意力机制
  • 斯坦福NLP名课带学详解 | CS224n 第9讲 - cs224n课程大项目实用技巧与经验
  • 斯坦福NLP名课带学详解 | CS224n 第10讲 - NLP中的问答系统
  • 斯坦福NLP名课带学详解 | CS224n 第11讲 - NLP中的卷积神经网络
  • 斯坦福NLP名课带学详解 | CS224n 第12讲 - 子词模型
  • 斯坦福NLP名课带学详解 | CS224n 第13讲 - 基于上下文的表征与NLP预训练模型
  • 斯坦福NLP名课带学详解 | CS224n 第14讲 - Transformers自注意力与生成模型
  • 斯坦福NLP名课带学详解 | CS224n 第15讲 - NLP文本生成任务
  • 斯坦福NLP名课带学详解 | CS224n 第16讲 - 指代消解问题与神经网络方法
  • 斯坦福NLP名课带学详解 | CS224n 第17讲 - 多任务学习(以问答系统为例)
  • 斯坦福NLP名课带学详解 | CS224n 第18讲 - 句法分析与树形递归神经网络
  • 斯坦福NLP名课带学详解 | CS224n 第19讲 - AI安全偏见与公平
  • 斯坦福NLP名课带学详解 | CS224n 第20讲 - NLP与深度学习的未来

ShowMeAI系列教程精选推荐

  • 大厂技术实现:推荐与广告计算解决方案
  • 大厂技术实现:计算机视觉解决方案
  • 大厂技术实现:自然语言处理行业解决方案
  • 图解Python编程:从入门到精通系列教程
  • 图解数据分析:从入门到精通系列教程
  • 图解AI数学基础:从入门到精通系列教程
  • 图解大数据技术:从入门到精通系列教程
  • 图解机器学习算法:从入门到精通系列教程
  • 机器学习实战:手把手教你玩转机器学习系列
  • 深度学习教程:吴恩达专项课程 · 全套笔记解读
  • 自然语言处理教程:斯坦福CS224n课程 · 课程带学与全套笔记解读
  • 深度学习与计算机视觉教程:斯坦福CS231n · 全套笔记解读

标签: j95组合式连接器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台