基于深度学习的自然语言处理
约阿夫o戈尔德贝格(Yoav Goldberg)
以色列巴伊兰大学计算机科学系高级讲师,曾任Google Research研究员。他于2011年获得本·古里安大学博士学位。他曾经担任EMNLP、EACL等重要国际会议领域主席,在自然语言处理领域发表论文50余篇,并多次获得*佳论文以及杰出论文奖。同时他也是自然语言处理领域期刊《Computational Linguistics》的编辑部成员。他的研究方向包括面向自然语言处理的机器学习方法,结构预测,句法与词法分析等。近几年,他专注于神经网络模型,在基于深度学习的自然语言处理方法上作出了重要贡献,同时他也是主流深度学习工具包DyNet的主要研发者之一。
译者和主审简介
车万翔,博士,哈尔滨工业大学教授,博士生导师,斯坦福大学访问学者。研究…
查看完整
以色列巴伊兰大学计算机科学系高级讲师,曾任Google Research研究员。他于2011年获得本·古里安大学博士学位。他曾经担任EMNLP、EACL等重要国际会议领域主席,在自然语言处理领域发表论文50余篇,并多次获得*佳论文以及杰出论文奖。同时他也是自然语言处理领域期刊《Computational Linguistics》的编辑部成员。他的研究方向包括面向自然语言处理的机器学习方法,结构预测,句法与词法分析等。近几年,他专注于神经网络模型,在基于深度学习的自然语言处理方法上作出了重要贡献,同时他也是主流深度学习工具包DyNet的主要研发者之一。
译者和主审简介
车万翔,博士,哈尔滨工业大学教授,博士生导师,斯坦福大学访问学者。研究…
查看完整
自然语言处理是人工智能领域的一个重要的研究方向,是计算机科学与语言学的交叉学科。随着互联网的快速发展,网络文本尤其是用户生成的文本呈爆炸性增长,为自然语言处理带来了巨大的应用需求。但是由于自然语言具有歧义性、动态性和非规范性,同时语言理解通常需要丰富的知识和一定的推理能力,为自然语言处理带来了极大的挑战。近年来如火如荼的深度学习技术为解决自然语言处理问题的解决提供了一种可能的思路,已成为有效推动自然语言处理技术发展的变革力量。
本书系统阐述将深度学习技术应用于自然语言处理的方法和技术,深入浅出地介绍了深度学习的基本知识及各种常用的网络结构,并重点介绍了如何使用这些技术处理自然语言。
本书主要面向高等院校自然语言处理和机器学习方向的研究生,也适合自然语言处理或机器学习领域的研究人员以及工业界从事智能相关领域呀发的专业人员阅读参考。
本书系统阐述将深度学习技术应用于自然语言处理的方法和技术,深入浅出地介绍了深度学习的基本知识及各种常用的网络结构,并重点介绍了如何使用这些技术处理自然语言。
本书主要面向高等院校自然语言处理和机器学习方向的研究生,也适合自然语言处理或机器学习领域的研究人员以及工业界从事智能相关领域呀发的专业人员阅读参考。
译者序
前言
致谢
第1章引言
11自然语言处理的挑战
12神经网络和深度学习
13自然语言处理中的深度学习
14本书的覆盖面和组织结构
15本书未覆盖的内容
16术语
17数学符号
注释
第一部分有监督分类与前馈神经网络
第2章学习基础与线性模型
21有监督学习和参数化函数
22训练集、测试集和验证集
23线性模型
231二分类
232对数线性二分类
233多分类
24表示
25独热和稠密向量表示
26对数线性多分类
27训练和最优化
271损失函数
272正则化
28基于梯度的最优化
281随机梯度下降
282实例
283其他训练方法
第3章从线性模型到多层感知器
31线性模型的局限性:异或问题
32非线性输入转换
33核方法
34可训练的映射函数
第4章前馈神经网络
41一个关于大脑的比喻
42数学表示
43表达能力
44常见的非线性函数
45损失函数
46正则化与丢弃法
47相似和距离层
48嵌入层
第5章神经网络训练
51计算图的抽象概念
511前向计算
512反向计算(导数、反向传播)
513软件
514实现流程
515网络构成
52实践经验
521优化算法的选择
522初始化
523重启与集成
524梯度消失与梯度爆炸
525饱和神经元与死神经元
526随机打乱
527学习率
528minibatch
第二部分处理自然语言数据
第6章文本特征构造
61NLP分类问题中的拓扑结构
62NLP问题中的特征
621直接可观测特征
622可推断的语言学特征
623核心特征与组合特征
624n元组特征
625分布特征
第7章NLP特征的案例分析
71文本分类:语言识别
72文本分类:主题分类
73文本分类:作者归属
74上下文中的单词:词性标注
75上下文中的单词:命名实体识别
76上下文中单词的语言特征:介词词义消歧
77上下文中单词的关系:弧分解分析
第8章从文本特征到输入
81编码分类特征
811独热编码
812稠密编码(特征嵌入)
813稠密向量与独热表示
82组合稠密向量
821基于窗口的特征
822可变特征数目:连续词袋
83独热和稠密向量间的关系
84杂项
841距离与位置特征
842补齐、未登录词和词丢弃
843特征组合
844向量共享
845维度
846嵌入的词表
847网络的输出
85例子:词性标注
86例子:弧分解分析
第9章语言模型
91语言模型任务
92语言模型评估:困惑度
93语言模型的传统方法
931延伸阅读
932传统语言模型的限制
94神经语言模型
95使用语言模型进行生成
96副产品:词的表示
第10章预训练的词表示
101随机初始化
102有监督的特定任务的预训练
103无监督的预训练
104词嵌入算法
1041分布式假设和词表示
1042从神经语言模型到分布式表示
1043词语联系
1044其他算法
105上下文的选择
1051窗口方法
1052句子、段落或文档
1053句法窗口
1054多语种
1055基于字符级别和子词的表示
106处理多字单元和字变形
107分布式方法的限制
第11章使用词嵌入
111词向量的获取
112词的相似度
113词聚类
114寻找相似词
115同中选异
116短文档相似度
117词的类比
118改装和映射
119实用性和陷阱
第12章案例分析:一种用于句子意义推理的前馈结构
121自然语言推理与 SNLI数据集
122文本相似网络
第三部分特殊的结构
第13章n元语法探测器:卷积神经网络
131基础卷积池化
1311文本上的一维卷积
1312向量池化
1313变体
132其他选择:特征哈希
133层次化卷积
第14章循环神经网络:序列和栈建模
141RNN抽象描述
142RNN的训练
143RNN常见使用模式
1431接收器
1432编码器
1433传感器
144双向RNN
145堆叠RNN
146用于表示栈的RNN
147文献阅读的注意事项
第15章实际的循环神经网络结构
151作为RNN的CBOW
152简单RNN
153门结构
1531长短期记忆网络
1532门限循环单元
154其他变体
155应用到RNN的丢弃机制
第16章通过循环网络建模
161接收器
1611情感分类器
1612主谓一致语法检查
162作为特征提取器的RNN
1621词性标注
1622RNNCNN文本分类
1623弧分解依存句法分析
第17章条件生成
171RNN生成器
172条件生成(编码器解码器)
1721序列到序列模型
1722应用
1723其他条件上下文
173无监督的句子相似性
174结合注意力机制的条件生成
1741计算复杂性
1742可解释性
175自然语言处理中基于注意力机制的模型
1751机器翻译
1752形态屈折
1753句法分析
第四部分其他主题
第18章用递归神经网络对树建模
181形式化定义
182扩展和变体
183递归神经网络的训练
184一种简单的替代——线性化树
185前景
第19章结构化输出预测
191基于搜索的结构化预测
1911基于线性模型的结构化预测
1912非线性结构化预测
1913概率目标函数(CRF)
1914近似搜索
1915重排序
1916参考阅读
192贪心结构化预测
193条件生成与结构化输出预测
194实例
1941基于搜索的结构化预测:一阶依存句法分析
1942基于NeuralCRF的命名实体识别
1943基于柱搜索的NERCRF近似
第20章级联、多任务与半监督学习
201模型级联
202多任务学习
2021多任务设置下的训练
2022选择性共享
2023作为多任务学习的词嵌入预训练
2024条件生成中的多任务学习
2025作为正则的多任务学习
2026注意事项
203半监督学习
204实例
2041眼动预测与句子压缩
2042弧标注与句法分析
2043介词词义消歧与介词翻译预测
2044条件生成:多语言机器翻译、句法分析以及图像描述生成
205前景
第21章结论
211我们学到了什么
212未来的挑战
参考文献
^ 收 起
前言
致谢
第1章引言
11自然语言处理的挑战
12神经网络和深度学习
13自然语言处理中的深度学习
14本书的覆盖面和组织结构
15本书未覆盖的内容
16术语
17数学符号
注释
第一部分有监督分类与前馈神经网络
第2章学习基础与线性模型
21有监督学习和参数化函数
22训练集、测试集和验证集
23线性模型
231二分类
232对数线性二分类
233多分类
24表示
25独热和稠密向量表示
26对数线性多分类
27训练和最优化
271损失函数
272正则化
28基于梯度的最优化
281随机梯度下降
282实例
283其他训练方法
第3章从线性模型到多层感知器
31线性模型的局限性:异或问题
32非线性输入转换
33核方法
34可训练的映射函数
第4章前馈神经网络
41一个关于大脑的比喻
42数学表示
43表达能力
44常见的非线性函数
45损失函数
46正则化与丢弃法
47相似和距离层
48嵌入层
第5章神经网络训练
51计算图的抽象概念
511前向计算
512反向计算(导数、反向传播)
513软件
514实现流程
515网络构成
52实践经验
521优化算法的选择
522初始化
523重启与集成
524梯度消失与梯度爆炸
525饱和神经元与死神经元
526随机打乱
527学习率
528minibatch
第二部分处理自然语言数据
第6章文本特征构造
61NLP分类问题中的拓扑结构
62NLP问题中的特征
621直接可观测特征
622可推断的语言学特征
623核心特征与组合特征
624n元组特征
625分布特征
第7章NLP特征的案例分析
71文本分类:语言识别
72文本分类:主题分类
73文本分类:作者归属
74上下文中的单词:词性标注
75上下文中的单词:命名实体识别
76上下文中单词的语言特征:介词词义消歧
77上下文中单词的关系:弧分解分析
第8章从文本特征到输入
81编码分类特征
811独热编码
812稠密编码(特征嵌入)
813稠密向量与独热表示
82组合稠密向量
821基于窗口的特征
822可变特征数目:连续词袋
83独热和稠密向量间的关系
84杂项
841距离与位置特征
842补齐、未登录词和词丢弃
843特征组合
844向量共享
845维度
846嵌入的词表
847网络的输出
85例子:词性标注
86例子:弧分解分析
第9章语言模型
91语言模型任务
92语言模型评估:困惑度
93语言模型的传统方法
931延伸阅读
932传统语言模型的限制
94神经语言模型
95使用语言模型进行生成
96副产品:词的表示
第10章预训练的词表示
101随机初始化
102有监督的特定任务的预训练
103无监督的预训练
104词嵌入算法
1041分布式假设和词表示
1042从神经语言模型到分布式表示
1043词语联系
1044其他算法
105上下文的选择
1051窗口方法
1052句子、段落或文档
1053句法窗口
1054多语种
1055基于字符级别和子词的表示
106处理多字单元和字变形
107分布式方法的限制
第11章使用词嵌入
111词向量的获取
112词的相似度
113词聚类
114寻找相似词
115同中选异
116短文档相似度
117词的类比
118改装和映射
119实用性和陷阱
第12章案例分析:一种用于句子意义推理的前馈结构
121自然语言推理与 SNLI数据集
122文本相似网络
第三部分特殊的结构
第13章n元语法探测器:卷积神经网络
131基础卷积池化
1311文本上的一维卷积
1312向量池化
1313变体
132其他选择:特征哈希
133层次化卷积
第14章循环神经网络:序列和栈建模
141RNN抽象描述
142RNN的训练
143RNN常见使用模式
1431接收器
1432编码器
1433传感器
144双向RNN
145堆叠RNN
146用于表示栈的RNN
147文献阅读的注意事项
第15章实际的循环神经网络结构
151作为RNN的CBOW
152简单RNN
153门结构
1531长短期记忆网络
1532门限循环单元
154其他变体
155应用到RNN的丢弃机制
第16章通过循环网络建模
161接收器
1611情感分类器
1612主谓一致语法检查
162作为特征提取器的RNN
1621词性标注
1622RNNCNN文本分类
1623弧分解依存句法分析
第17章条件生成
171RNN生成器
172条件生成(编码器解码器)
1721序列到序列模型
1722应用
1723其他条件上下文
173无监督的句子相似性
174结合注意力机制的条件生成
1741计算复杂性
1742可解释性
175自然语言处理中基于注意力机制的模型
1751机器翻译
1752形态屈折
1753句法分析
第四部分其他主题
第18章用递归神经网络对树建模
181形式化定义
182扩展和变体
183递归神经网络的训练
184一种简单的替代——线性化树
185前景
第19章结构化输出预测
191基于搜索的结构化预测
1911基于线性模型的结构化预测
1912非线性结构化预测
1913概率目标函数(CRF)
1914近似搜索
1915重排序
1916参考阅读
192贪心结构化预测
193条件生成与结构化输出预测
194实例
1941基于搜索的结构化预测:一阶依存句法分析
1942基于NeuralCRF的命名实体识别
1943基于柱搜索的NERCRF近似
第20章级联、多任务与半监督学习
201模型级联
202多任务学习
2021多任务设置下的训练
2022选择性共享
2023作为多任务学习的词嵌入预训练
2024条件生成中的多任务学习
2025作为正则的多任务学习
2026注意事项
203半监督学习
204实例
2041眼动预测与句子压缩
2042弧标注与句法分析
2043介词词义消歧与介词翻译预测
2044条件生成:多语言机器翻译、句法分析以及图像描述生成
205前景
第21章结论
211我们学到了什么
212未来的挑战
参考文献
^ 收 起
约阿夫o戈尔德贝格(Yoav Goldberg)
以色列巴伊兰大学计算机科学系高级讲师,曾任Google Research研究员。他于2011年获得本·古里安大学博士学位。他曾经担任EMNLP、EACL等重要国际会议领域主席,在自然语言处理领域发表论文50余篇,并多次获得*佳论文以及杰出论文奖。同时他也是自然语言处理领域期刊《Computational Linguistics》的编辑部成员。他的研究方向包括面向自然语言处理的机器学习方法,结构预测,句法与词法分析等。近几年,他专注于神经网络模型,在基于深度学习的自然语言处理方法上作出了重要贡献,同时他也是主流深度学习工具包DyNet的主要研发者之一。
译者和主审简介
车万翔,博士,哈尔滨工业大学教授,博士生导师,斯坦福大学访问学者。研究方向为自然语言处理。在CoNLL、SANCL、SemEal等国际评测获得过冠军。任ACL、COLING、EMNLP等国际会议领域主席。负责研发的语言技术平台(LTP)已被600余家单位共享,并授权给百度、腾讯、华为等公司使用。曾获黑龙江科技进步一等奖、技术发明二等奖;汉王青年创新奖一等奖;钱伟长中文信息处理科学奖等奖项。2017年所主讲的《Python语言程序设计》课程获国家精品在线开放课程。
郭江,博士,毕业于哈尔滨工业大学社会计算与信息检索研究中心,就读期间先后于美国普林斯顿大学以及约翰·霍普金斯大学进行访问研究,现为美国麻省理工学院计算机科学与人工智能实验室博士后研究员。研究领域主要为自然语言处理与机器学习。在人工智能,自然语言处理等领域国际重要会议及期刊(如ACL, EMNLP, AAAI, IJCAI, JAIR等)上发表论文10余篇。
张伟男,哈尔滨工业大学计算机学院社会计算与信息检索研究中心,博士/讲师/硕导。在ACL、AAAI、IJCAI及IEEE TKDE等CCF A类国际会议及期刊发表论文多篇。中国中文信息学会(CIPS)信息检索专委会委员、青年工作委员会委员,中国人工智能学会(CAAI)青年工作委员会委员。曾获黑龙江省科技进步一等奖、中国人工智能学会*佳青年成果奖、中国人工智能学会"合创杯"第二届全国青年创新创业大赛三等奖。
刘铭,博士,哈尔滨工业大学副教授,博士生导师,美国南加州大学访问学者。研究领域包括文本挖掘、命名实体识别、实体链接等。先后主持国家自然科学基金、中国博士后科学基金特别资助、腾讯-CCF犀牛鸟创意基金等多项基金项目。 在人工智能、数据挖掘、自然语言处理等领域国际期刊和会议上发表论文20余篇(如TKDE、TOIS、IJCAI、ACL、ICDE等)。获黑龙江省科学技术一等奖一项, 获哈尔滨市科技成果一项。
主审:刘挺
刘挺,哈尔滨工业大学教授,社会计算与信息检索研究中心主任,国家"万人计划"科技创新领军人才。多次担任国家863重点项目总体组专家、基金委会评专家。中国计算机学会理事,中国中文信息学会常务理事、社会媒体处理专委会(SMP)主任,曾任国际会议ACL、EMNLP领域主席。主要研究方向为人工智能、自然语言处理和社会计算,是国家973课题、国家自然科学基金重点项目负责人。主持研制"语言技术平台LTP"、"大词林"等科研成果被业界广泛使用。曾获国家科技进步二等奖、省科技进步一等奖、钱伟长中文信息处理科学技术一等奖等。
^ 收 起
以色列巴伊兰大学计算机科学系高级讲师,曾任Google Research研究员。他于2011年获得本·古里安大学博士学位。他曾经担任EMNLP、EACL等重要国际会议领域主席,在自然语言处理领域发表论文50余篇,并多次获得*佳论文以及杰出论文奖。同时他也是自然语言处理领域期刊《Computational Linguistics》的编辑部成员。他的研究方向包括面向自然语言处理的机器学习方法,结构预测,句法与词法分析等。近几年,他专注于神经网络模型,在基于深度学习的自然语言处理方法上作出了重要贡献,同时他也是主流深度学习工具包DyNet的主要研发者之一。
译者和主审简介
车万翔,博士,哈尔滨工业大学教授,博士生导师,斯坦福大学访问学者。研究方向为自然语言处理。在CoNLL、SANCL、SemEal等国际评测获得过冠军。任ACL、COLING、EMNLP等国际会议领域主席。负责研发的语言技术平台(LTP)已被600余家单位共享,并授权给百度、腾讯、华为等公司使用。曾获黑龙江科技进步一等奖、技术发明二等奖;汉王青年创新奖一等奖;钱伟长中文信息处理科学奖等奖项。2017年所主讲的《Python语言程序设计》课程获国家精品在线开放课程。
郭江,博士,毕业于哈尔滨工业大学社会计算与信息检索研究中心,就读期间先后于美国普林斯顿大学以及约翰·霍普金斯大学进行访问研究,现为美国麻省理工学院计算机科学与人工智能实验室博士后研究员。研究领域主要为自然语言处理与机器学习。在人工智能,自然语言处理等领域国际重要会议及期刊(如ACL, EMNLP, AAAI, IJCAI, JAIR等)上发表论文10余篇。
张伟男,哈尔滨工业大学计算机学院社会计算与信息检索研究中心,博士/讲师/硕导。在ACL、AAAI、IJCAI及IEEE TKDE等CCF A类国际会议及期刊发表论文多篇。中国中文信息学会(CIPS)信息检索专委会委员、青年工作委员会委员,中国人工智能学会(CAAI)青年工作委员会委员。曾获黑龙江省科技进步一等奖、中国人工智能学会*佳青年成果奖、中国人工智能学会"合创杯"第二届全国青年创新创业大赛三等奖。
刘铭,博士,哈尔滨工业大学副教授,博士生导师,美国南加州大学访问学者。研究领域包括文本挖掘、命名实体识别、实体链接等。先后主持国家自然科学基金、中国博士后科学基金特别资助、腾讯-CCF犀牛鸟创意基金等多项基金项目。 在人工智能、数据挖掘、自然语言处理等领域国际期刊和会议上发表论文20余篇(如TKDE、TOIS、IJCAI、ACL、ICDE等)。获黑龙江省科学技术一等奖一项, 获哈尔滨市科技成果一项。
主审:刘挺
刘挺,哈尔滨工业大学教授,社会计算与信息检索研究中心主任,国家"万人计划"科技创新领军人才。多次担任国家863重点项目总体组专家、基金委会评专家。中国计算机学会理事,中国中文信息学会常务理事、社会媒体处理专委会(SMP)主任,曾任国际会议ACL、EMNLP领域主席。主要研究方向为人工智能、自然语言处理和社会计算,是国家973课题、国家自然科学基金重点项目负责人。主持研制"语言技术平台LTP"、"大词林"等科研成果被业界广泛使用。曾获国家科技进步二等奖、省科技进步一等奖、钱伟长中文信息处理科学技术一等奖等。
^ 收 起
自然语言处理是人工智能领域的一个重要的研究方向,是计算机科学与语言学的交叉学科。随着互联网的快速发展,网络文本尤其是用户生成的文本呈爆炸性增长,为自然语言处理带来了巨大的应用需求。但是由于自然语言具有歧义性、动态性和非规范性,同时语言理解通常需要丰富的知识和一定的推理能力,为自然语言处理带来了极大的挑战。近年来如火如荼的深度学习技术为解决自然语言处理问题的解决提供了一种可能的思路,已成为有效推动自然语言处理技术发展的变革力量。
本书系统阐述将深度学习技术应用于自然语言处理的方法和技术,深入浅出地介绍了深度学习的基本知识及各种常用的网络结构,并重点介绍了如何使用这些技术处理自然语言。
本书主要面向高等院校自然语言处理和机器学习方向的研究生,也适合自然语言处理或机器学习领域的研究人员以及工业界从事智能相关领域呀发的专业人员阅读参考。
本书系统阐述将深度学习技术应用于自然语言处理的方法和技术,深入浅出地介绍了深度学习的基本知识及各种常用的网络结构,并重点介绍了如何使用这些技术处理自然语言。
本书主要面向高等院校自然语言处理和机器学习方向的研究生,也适合自然语言处理或机器学习领域的研究人员以及工业界从事智能相关领域呀发的专业人员阅读参考。
比价列表
1人想要1人拥有
公众号、微信群
缺书网
微信公众号
微信公众号
扫码进群
实时获取购书优惠
实时获取购书优惠