| 书名: | 【正版】基于深度学习的自然语言处理|7891598 |
| 图书定价: | 69元 |
| 图书作者: | (以)约阿夫·戈尔德贝格(Yoav Goldberg) |
| 出版社: | 机械工业出版社 |
| 出版日期: | 2018/5/1 0:00:00 |
| ISBN号: | 9787111593737 |
| 开本: | 16开 |
| 页数: | 0 |
| 版次: | 1-1 |
| 内容简介 |
| 本书重点介绍了神经网络模型在自然语言处理中的应用。首先介绍有监督的机器学习和前馈神经网络的基本知识,如何将机器学习方法应用在自然语言处理中,以及词向量表示(而不是符号表示)的应用。然后介绍更多专门的神经网络结构,包括一维卷积神经网络、循环神经网络、条件生成模型和基于注意力的模型。后讨论树形网络、结构化预测以及多任务学习的前景。 |
| 目录 |
| 译者序 前言 致谢 第1章引言 1��1自然语言处理的挑战 1��2神经网络和深度学习 1��3自然语言处理中的深度学习 1��4本书的覆盖面和组织结构 1��5本书未覆盖的内容 1��6术语 1��7数学符号 注释 第一部分有监督分类与前馈神经网络 第2章学习基础与线性模型 2��1有监督学习和参数化函数 2��2训练集、测试集和验证集 2��3线性模型 2��3��1二分类 2��3��2对数线性二分类 2��3��3多分类 2��4表示 2��5独热和稠密向量表示 2��6对数线性多分类 2��7训练和优化 2��7��1损失函数 2��7��2正则化 2��8基于梯度的优化 2��8��1随机梯度下降 2��8��2实例 2��8��3其他训练方法 第3章从线性模型到多层感知器 3��1线性模型的局限性:异或问题 3��2非线性输入转换 3��3核方法 3��4可训练的映射函数 第4章前馈神经网络 4��1一个关于大脑的比喻 4��2数学表示 4��3表达能力 4��4常见的非线性函数 4��5损失函数 4��6正则化与丢弃法 4��7相似和距离层 4��8嵌入层 第5章神经网络训练 5��1计算图的抽象概念 5��1��1前向计算 5��1��2反向计算(导数、反向传播) 5��1��3软件 5��1��4实现流程 5��1��5网络构成 5��2实践经验 5��2��1优化算法的选择 5��2��2初始化 5��2��3重启与集成 5��2��4梯度消失与梯度爆炸 5��2��5饱和神经元与死神经元 5��2��6随机打乱 5��2��7学习率 5��2��8minibatch 第二部分处理自然语言数据 第6章文本特征构造 6��1NLP分类问题中的拓扑结构 6��2NLP问题中的特征 6��2��1直接可观测特征 6��2��2可推断的语言学特征 6��2��3核心特征与组合特征 6��2��4n元组特征 6��2��5分布特征 第7章NLP特征的案例分析 7��1文本分类:语言识别 7��2文本分类:主题分类 7��3文本分类:作者归属 7��4上下文中的单词:词性标注 7��5上下文中的单词:命名实体识别 7��6上下文中单词的语言特征:介词词义消歧 7��7上下文中单词的关系:弧分解分析 第8章从文本特征到输入 8��1编码分类特征 8��1��1独热编码 8��1��2稠密编码(特征嵌入) 8��1��3稠密向量与独热表示 8��2组合稠密向量 8��2��1基于窗口的特征 8��2��2可变特征数目:连续词袋 8��3独热和稠密向量间的关系 8��4杂项 8��4��1距离与位置特征 8��4��2补齐、未登录词和词丢弃 8��4��3特征组合 8��4��4向量共享 8��4��5维度 8��4��6嵌入的词表 8��4��7网络的输出 8��5例子:词性标注 8��6例子:弧分解分析 第9章语言模型 9��1语言模型任务 9��2语言模型评估:困惑度 9��3语言模型的传统方法 9��3��1延伸阅读 9��3��2传统语言模型的限制 9��4神经语言模型 9��5使用语言模型进行生成 9��6副产品:词的表示 第10章预训练的词表示 10��1随机初始化 10��2有监督的特定任务的预训练 10��3无监督的预训练 10��4词嵌入算法 10��4��1分布式假设和词表示 10��4��2从神经语言模型到分布式表示 10��4��3词语联系 10��4��4其他算法 10��5上下文的选择 10��5��1窗口方法 10��5��2句子、段落或文档 10��5��3句法窗口 10��5��4多语种 10��5��5基于字符级别和子词的表示 10��6处理多字单元和字变形 10��7分布式方法的限制 第11章使用词嵌入 11��1词向量的获取 11��2词的相似度 11��3词聚类 11��4寻找相似词 11��5同中选异 11��6短文档相似度 11��7词的类比 11��8改装和映射 11��9实用性和陷阱 第12章案例分析:一种用于句子意义推理的前馈结构 12��1自然语言推理与 SNLI数据集 12��2文本相似网络 第三部分特殊的结构 第13章n元语法探测器:卷积神经网络 13��1基础卷积池化 13��1��1文本上的一维卷积 13��1��2向量池化 13��1��3变体 13��2其他选择:特征哈希 13��3层次化卷积 第14章循环神经网络:序列和栈建模 14��1RNN抽象描述 14��2RNN的训练 14��3RNN常见使用模式 14��3��1接收器 14��3��2编码器 14��3��3传感器 14��4双向RNN 14��5堆叠RNN 14��6用于表示栈的RNN 14��7文献阅读的注意事项 第15章实际的循环神经网络结构 15��1作为RNN的CBOW 15��2简单RNN 15��3门结构 15��3��1长短期记忆网络 15��3��2门限循环单元 15��4其他变体 15��5应用到RNN的丢弃机制 第16章通过循环网络建模 16��1接收器 16��1��1情感分类器 16��1��2主谓一致语法检查 16��2作为特征提取器的RNN 16��2��1词性标注 16��2��2RNN�睠NN文本分类 16��2��3弧分解依存句法分析 第17章条件生成 17��1RNN生成器 17��2条件生成(编码器解码器) 17��2��1序列到序列模型 17��2��2应用 17��2��3其他条件上下文 17��3无监督的句子相似性 17��4结合注意力机制的条件生成 17��4��1计算复杂性 17��4��2可解释性 17��5自然语言处理中基于注意力机制的模型 17��5��1机器翻译 17��5��2形态屈折 17��5��3句法分析 第四部分其他主题 第18章用递归神经网络对树建模 18��1形式化定义 18��2扩展和变体 18��3递归神经网络的训练 18��4一种简单的替代——线性化树 18��5前景 第19章结构化输出预测 19��1基于搜索的结构化预测 19��1��1基于线性模型的结构化预测 19��1��2非线性结构化预测 19��1��3概率目标函数(CRF) 19��1��4近似搜索 19��1��5重排序 19��1��6参考阅读 19��2贪心结构化预测 19��3条件生成与结构化输出预测 19��4实例 19��4��1基于搜索的结构化预测:一阶依存句法分析 19��4��2基于Neural�睠RF的命名实体识别 19��4��3基于柱搜索的NER�睠RF近似 第20章级联、多任务与半监督学习 20��1模型级联 20��2多任务学习 20��2��1多任务设置下的训练 20��2��2选择性共享 20��2��3作为多任务学习的词嵌入预训练 20��2��4条件生成中的多任务学习 20��2��5作为正则的多任务学习 20��2��6注意事项 20��3半监督学习 20��4实例 20��4��1眼动预测与句子压缩 20��4��2弧标注与句法分析 20��4��3介词词义消歧与介词翻译预测 20��4��4条件生成:多语言机器翻译、句法分析以及图像描述生成 20��5前景 第21章结论 21��1我们学到了什么 21��2未来的挑战 参考文献 |
我是一位对AI发展充满好奇但又时间有限的普通读者。这本书以一种非常直观和易于理解的方式,向我展示了深度学习如何在自然语言处理领域发挥作用。我不太关心复杂的数学公式,更希望了解AI是如何“思考”的,这本书恰恰满足了我的需求。它用了很多贴近生活的例子,比如智能客服、机器翻译,来解释各种NLP技术的应用场景。我特别喜欢书中对聊天机器人技术发展的介绍,从早期的基于规则的系统,到如今基于深度学习的智能对话,整个过程的演变让我感觉AI真的在不断进步。书中还提到了情感分析,让我了解到AI是如何“读懂”人类的情绪的。虽然我可能不会去写代码,但这本书让我对AI有了更深的认识,也对它未来的发展充满了期待。感觉就像读了一本关于AI的科普读物,但又比一般的科普更深入一些,让我觉得很有收获。
评分作为一名在AI领域摸爬滚打了几年的从业者,我一直都在寻找能够让我眼前一亮、又能兼顾理论深度和实践指导的书籍。这本书,无疑满足了我的期待。它并没有停留在对经典模型的简单罗列,而是非常深入地探讨了模型背后的数学原理和统计学基础,让我对那些复杂的算法有了更深刻的理解。例如,在讲解注意力机制时,作者并没有简单地给出公式,而是通过精妙的比喻和清晰的图示,将原本抽象的概念具象化,让我豁然开朗。此外,书中对损失函数、优化器、正则化等关键技术的阐述也相当到位,这些细节往往是决定模型性能的关键。我尤其欣赏书中对于不同场景下模型选择和调优的建议,这些经验性的指导对于解决实际工程问题非常有价值。总而言之,这本书不仅仅是一本技术手册,更像是一位经验丰富的导师,能够引领读者在AI的海洋中更深入地航行,发掘更多未知的宝藏。
评分这本书简直是打开了我通往AI世界的大门!一直对深度学习和自然语言处理这个领域充满好奇,但又苦于找不到一个合适的入门读物。市面上很多书要么过于理论化,要么代码讲解不够深入,感觉看完还是云里雾里。直到我遇到这本书,感觉就像找到了救星。它从最基础的概念讲起,循序渐进,丝毫没有给新手留下压力。我特别喜欢书中对各种模型(比如RNN、LSTM、Transformer)的讲解,不仅仅是给出公式,而是深入剖析了它们的工作原理,以及为什么它们能处理序列数据。而且,书中还提供了大量的代码示例,都是可以直接运行的,这对于我这种动手能力比较强的人来说,简直是太棒了。通过跟着代码实践,我不仅理解了理论,更能亲身感受到模型是如何运作的。最让我惊喜的是,它还涉及了一些前沿的应用,比如文本生成、情感分析,这些都让我看到了AI在实际生活中无穷的潜力。这本书真的让我觉得,深度学习不再是高不可攀的象牙塔,而是触手可及的强大工具。
评分我是一个非计算机专业出身,但对人工智能充满热情的跨界学习者。这本书给我带来的最大感受就是“易懂”。它不像我之前看过的很多技术书籍,上来就是复杂的公式和术语,让我望而却步。这本书的语言风格非常亲切,就像一位经验丰富的老师在循循善诱地讲解。它从最简单的文本处理任务开始,比如分词、词性标注,然后一步步引导我理解更复杂的模型。书中大量的插图和流程图,将抽象的概念变得生动形象,让我很容易就能抓住核心要点。我印象特别深刻的是,书中在介绍词向量时,不仅仅讲了Word2Vec,还详细对比了GloVe和FastText的优缺点,并且讲解了它们是如何捕捉词语之间的语义关系的。这让我对词向量有了更全面的认识,也为我后续学习更高级的模型打下了坚实的基础。这本书真的太适合我这样想要入门NLP但又担心技术门槛的读者了。
评分作为一个常年混迹于学术研究领域的学者,我对于书籍的要求一向是严谨、深刻且具有前瞻性。这本书在这些方面都给我留下了深刻的印象。它不仅仅是对现有深度学习模型的概览,更深入地剖析了这些模型在自然语言处理任务中的理论基础和数学推导,这对于我进行理论研究非常有帮助。我尤其欣赏书中在讨论Transformer模型时,对自注意力机制的详细推导和其在解决长距离依赖问题上的优势分析,这与我当前的研究方向不谋而合。此外,书中对于一些新兴的NLP技术,比如预训练语言模型(BERT、GPT等)的介绍也相当到位,并对其背后的原理进行了深入的探讨,这为我了解和探索最新的研究动态提供了宝贵的参考。这本书的内容组织逻辑清晰,论证严谨,是一本值得反复研读的学术著作。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.idnshop.cc All Rights Reserved. 静思书屋 版权所有