| 书[0名0]: | 神经网络与 [1机1] 器[0学0]习(原书[0第0]3版)|197697 |
| 图书定价: | 79元 |
| 图书作者: | (加)Simon Haykin |
| 出版社: | [1机1] 械工业出版社 |
| 出版日期: | 2011/3/1 0:00:00 |
| ISBN号: | 9787111324133 |
| 开本: | 16开 |
| 页数: | 572 |
| 版次: | 3-1 |
| 作者简介 |
| Simon Haykin是[0国0]际电子电气工程界的著[0名0][0学0]者,加拿[0大0]皇家[0学0][0会0]院士,IEEE[0会0]士,于1953年获得英[0国0]伯明翰[0大0][0学0]博士[0学0]位,现任加拿[0大0]麦克马斯特[0大0][0学0]教授,在该校创办了通信研究实验室并长期担任主任。他曾经获得IEEE McNaughton奖章,在神经网络、通信、自适应滤波器等[0领0]域成果颇丰,著有多种标准教材。 |
| 内容简介 |
| 本书是关于神经网络的全面的、彻底的、可读性很强的、[亲斤]的论述。全书共15章,主要内容包括Rosenblatt感[0知0]器、通过回归建立模型、小均方算[0法0]、多层感[0知0]器、核方[0法0]和径向基函数网络、支持向量 [1机1] 、正则化理论、主分量分析、自组织映射、信息论[0学0]习模型、动态规划、神经动力[0学0]、动态系统状态估计的贝叶斯滤波等。 本书适合作为高等院校计算 [1机1] 相关专业研究生及本科生的教材,也可供相关[0领0]域的工程技术人员参考。 |
| 目录 |
出版者的话 译者序 前言 缩写和符号 术语 [0第0]0章导言1 0.1什么是神经网络1 0.2人类[0大0]脑4 0.3神经元模型7 0.4被看作有向图的神经网络10 0.5反馈11 0.6网络结构13 0.7[0知0]识表示14 0.8[0学0]习过程20 0.9[0学0]习任务22 0.10结束语27 注释和参考文献27 [0第0]1章Rosenblatt感[0知0]器28 1.1引言28 1.2感[0知0]器28 1.3感[0知0]器收敛定理29 1.4高斯环境下感[0知0]器与贝叶斯分类器的关系33 1.5计算 [1机1] 实验:模式分类36 1.6批量感[0知0]器算[0法0]38 1.7小结和讨论39 注释和参考文献39 习题40 [0第0]2章通过回归建立模型28 2.1引言41 2.2线性回归模型:初步考虑41 2.3参数向量的[0大0]后验估计42 2.4正则小二乘估计和MAP估计之间的关系46 2.5计算 [1机1] 实验:模式分类47 2.6小描述长度原则48 2.7固定样本[0大0]小考虑50 2.8工具变量方[0法0]53 2.9小结和讨论54 注释和参考文献54 习题55 [0第0]3章小均方算[0法0]56 3.1引言56 3.2LMS算[0法0]的滤波结构56 3.3无约束[0优0]化:回顾58 3.4维纳滤波器61 3.5小均方算[0法0]63 3.6用马尔可夫模型来描画LMS算[0法0]和维纳滤波器的偏差64 3.7朗之万方程:布朗运动的特点65 3.8Kushner直接平均[0法0]66 3.9小[0学0]习率参数下统计LMS[0学0]习理论67 3.10计算 [1机1] 实验Ⅰ:线性预测68 3.11计算 [1机1] 实验Ⅱ:模式分类69 3.12LMS算[0法0]的[0优0]点和局限71 3.13[0学0]习率退火方案72 3.14小结和讨论73 注释和参考文献74 习题74 [0第0]4章多层感[0知0]器77 4.1引言77 4.2一些预备[0知0]识78 4.3批量[0学0]习和在线[0学0]习79 4.4反向传播算[0法0]81 4.5异或问题89 4.6改善反向传播算[0法0]性能的试探[0法0]90 4.7计算 [1机1] 实验:模式分类94 4.8反向传播和微分95 4.9Hessian矩阵及其在在线[0学0]习中的规则96 4.10[0学0]习率的[0优0]退火和自适应控制98 4.11泛化102 4.12函数逼近104 4.13交叉验证107 4.14复杂度正则化和网络修剪109 4.15反向传播[0学0]习的[0优0]点和局限113 4.16作为[0优0]化问题看待的监督[0学0]习117 4.17卷积网络126 4.18非线性滤波127 4.19小规模和[0大0]规模[0学0]习问题131 4.20小结和讨论136 注释和参考文献137 习题138 [0第0]5章核方[0法0]和径向基函数网络144 5.1引言144 5.2模式可分性的Cover定理144 5.3插值问题148 5.4径向基函数网络150 5.5K-均值聚类152 5.6[0[0权0]0]向量的递归小二乘估计153 5.7RBF网络的混合[0学0]习过程156 5.8计算 [1机1] 实验:模式分类157 5.9高斯隐藏单元的解释158 5.10核回归及其与RBF网络的关系160 5.11小结和讨论162 注释和参考文献164 习题165 [0第0]6章支持向量 [1机1] 168 6.1引言168 6.2线性可分模式的[0优0][0超0]平面168 6.3不可分模式的[0优0][0超0]平面173 6.4使用核方[0法0]的支持向量 [1机1] 176 6.5支持向量 [1机1] 的设计178 6.6XOR问题179 6.7计算 [1机1] 实验:模式分类181 6.8回归:鲁棒性考虑184 6.9线性回归问题的[0优0]化解184 6.10表示定理和相关问题187 6.11小结和讨论191 注释和参考文献192 习题193 [0第0]7章正则化理论197 7.1引言197 7.2良态问题的Had [a0m0a0] rd条件198 7.3Tikho[0no0]v正则化理论198 7.4正则化网络205 7.5广义径向基函数网络206 7.6再论正则化小二乘估计209 7.7对正则化的附加要点211 7.8正则化参数估计212 7.9半监督[0学0]习215 7.10流形正则化:初步的考虑216 7.11可微流形217 7.12广义正则化理论220 7.13光谱图理论221 7.14广义表示定理222 7.15拉普拉斯正则化小二乘算[0法0]223 7.16用半监督[0学0]习对模式分类的实验225 7.17小结和讨论227 注释和参考文献228 习题229 [0第0]8章主分量分析232 8.1引言232 8.2自组织原则232 8.3自组织的特征分析235 8.4主分量分析:扰动理论235 8.5基于Hebb的[0大0]特征滤波器241 8.6基于Hebb的主分量分析247 8.7计算 [1机1] 实验:图像编码251 8.8核主分量分析252 8.9自然图像编码中的基本问题256 8.10核Hebb算[0法0]257 8.11小结和讨论260 注释和参考文献262 习题264 [0第0]9章自组织映射268 9.1引言268 9.2两个基本的特征映射模型269 9.3自组织映射270 9.4特征映射的性质275 9.5计算 [1机1] 实验Ⅰ:利用SOM解网格动力[0学0]问题280 9.6上下文映射281 9.7分层向量量化283 9.8核自组织映射285 9.9计算 [1机1] 实验Ⅱ:利用核SOM解点阵动力[0学0]问题290 9.10核SOM和相对熵之间的关系291 9.11小结和讨论293 注释和参考文献294 习题295 [0第0]10章信息论[0学0]习模型299 10.1引言299 10.2熵300 10.3[0大0]熵原则302 10.4互信息304 10.5相对熵306 10.6系词308 10.7互信息作为[0优0]化的目标函数310 10.8[0大0]互信息原则311 10.9[0大0]互信息和冗余减少314 10.10空间相干特征316 10.11空间非相干特征318 10.12[0独0]立分量分析320 10.13自然图像的稀疏编码以及与ICA编码的比较324 10.14[0独0]立分量分析的自然梯度[0学0]习326 10.15[0独0]立分量分析的[0大0]似然估计332 10.16盲源分离的[0大0]熵[0学0]习334 10.17[0独0]立分量分析的负熵[0大0]化337 10.18相关[0独0]立分量分析342 10.19速率失真理论和信息瓶颈347 10.20数据的[0优0]流形表达350 10.21计算 [1机1] 实验:模式分类354 10.22小结和讨论354 注释和参考文献356 习题361 [0第0]11章植根于统计力[0学0]的随 [1机1] 方[0法0]366 11.1引言366 11.2统计力[0学0]367 11.3马尔可夫链368 11.4Metropolis算[0法0]374 11.5模拟退火375 11.6Gibbs抽样377 11.7Boltzmann [1机1] 378 11.8logistic信度网络382 11.9深度信度网络383 11.10确定性退火385 11.11和EM算[0法0]的类比389 11.12小结和讨论390 注释和参考文献390 习题392 [0第0]12章动态规划396 12.1引言396 12.2马尔可夫决策过程397 12.3Bellman[0优0]准则399 12.4策略迭代401 12.5值迭代402 12.6逼近动态规划:直接[0法0]406 12.7时序差分[0学0]习406 12.8Q[0学0]习410 12.9逼近动态规划:非直接[0法0]412 12.10小二乘策略[0评0]估414 12.11逼近策略迭代417 12.12小结和讨论419 注释和参考文献421 习题422 [0第0]13章神经动力[0学0]425 13.1引言425 13.2动态系统426 13.3平衡状态的稳定性428 13.4吸引子432 13.5神经动态模型433 13.6作为递归网络范例的吸引子操作435 13.7Hopfield模型435 13.8Cohen-Grossberg定理443 13.9盒中脑状态模型445 13.10奇异吸引子和混沌448 13.11混沌过程的动态重构452 13.12小结和讨论455 注释和参考文献457 习题458 [0第0]14章动态系统状态估计的贝叶斯滤波461 14.1引言461 14.2状态空间模型462 14.3卡尔曼滤波器464 14.4发散现象及平方根滤波469 14.5扩展的卡尔曼滤波器474 14.6贝叶斯滤波器477 14.7数值积分卡尔曼滤波器:基于卡尔曼滤波器480 14.8粒子滤波器484 14.9计算 [1机1] 实验:扩展的卡尔曼滤波器和粒子滤波器对比[0评0]价490 14.10[0大0]脑功能建模中的 卡尔曼滤波493 14.11小结和讨论494 注释和参考文献496 习题497 [0第0]15章动态驱动递归网络501 15.1引言501 15.2递归网络体系结构502 15.3通用逼近定理505 15.4可控性和可观测性507 15.5递归网络的计算能力510 15.6[0学0]习算[0法0]511 15.7通过时间的反向传播512 15.8实时递归[0学0]习515 15.9递归网络的消失梯度519 15.10利用非线性逐次状态估计的递归网络监督[0学0]习框架521 15.11计算 [1机1] 实验:Mackay-Glass吸引子的动态重构526 15.12自适应考虑527 15.13实例[0学0]习:应用于神经控制的模型参考529 15.14小结和讨论530 注释和参考文献533 习题534 参考文献538 |
| 编辑推荐 |
| 《神经网络与 [1机1] 器[0学0]习(原书[0第0]3版)》作者Simon Haykin长期从事神经网络的研究,其关于神经网络的系列教材是[0国0]际上*有影响力的教材之一。本书是其经典教材《Neural Networks: A Comprehensive Foundation》的[0第0]3版。正如本书的题目所示,这一版对神经网络和 [1机1] 器[0学0]习这两个密切相关的分支进行了全面分析,在前一版的基础上作了广泛修订,提供了神经网络和 [1机1] 器[0学0]习这两个重要性持续增长的[0学0]科的*[亲斤]分析。本书全面、系统地介绍了神经网络的基本模型、基本方[0法0],对神经网络的基本模型和主要[0学0]习理论作了深入研究,对神经网络的*[亲斤]发展趋势和主要研究方向进行了全面而综合的介绍。 |
这本关于深度学习的书籍简直是我的救星!我之前对这个领域一直停留在“听过”的阶段,各种复杂的数学公式和晦涩难懂的理论把我劝退了。但是这本书,它的叙述方式极其平易近人,就像一位经验丰富的导师在你身边,一步步引导你走过那些看似遥不可及的概念。它没有一开始就抛出一堆让你头皮发麻的矩阵运算,而是从最直观的例子入手,比如图像识别和自然语言处理中的一些经典场景,让你能立刻感受到神经网络的魅力和实用性。每当我觉得快要跟不上时,作者总能及时用一个形象的比喻或一个生动的案例来点醒我,让我茅塞顿开。特别是关于反向传播算法的讲解,我看了好几遍其他资料都没搞懂,这本书里终于让我理解了其背后的直觉和数学逻辑的完美结合。那种豁然开朗的感觉,真的让人欲罢不能,恨不得一口气读完,迫不及待想自己动手实现一个模型。对于想从零基础入门,但又不想在枯燥的理论中迷失的读者来说,这本书的结构和内容安排简直是教科书级别的典范,它完美平衡了理论深度和实践可操作性,让我对未来的学习充满了信心。
评分我是一个资深软件工程师,在工作中接触到越来越多的需要模型支撑的业务场景,深知掌握现代机器学习,尤其是神经网络技术的重要性,但市面上的教材要么太偏向理论推导,要么代码示例陈旧且与最新框架脱节。这本书的出现,恰好填补了我的空白。它没有沉溺于学院派的深度钻研,而是精准地聚焦于“工程实践”和“工业界应用”。书中对当前主流的深度学习框架(我指的是那些在企业级应用中被广泛验证的工具链)的集成和使用讲解得非常到位,从数据预处理、模型构建、到训练优化和性能调优,都有着详尽的实操步骤和最佳实践。最让我欣赏的是,它没有把模型训练过程描绘成一个“黑箱”,而是深入浅出地讨论了每一步的权衡取舍,比如如何选择激活函数、如何设置正则化参数,以及如何诊断常见的过拟合和欠拟合问题。读完之后,我立刻能够将书中的知识点迁移到我正在负责的项目中,显著提升了模型迭代的速度和最终的准确率。这本书更像是我的技术主管在提供项目指导,而不是一个冷冰冰的教材,实用价值极高。
评分作为一名研究生,我需要一本既能满足课程学习要求,又能为我的毕业设计提供坚实基础的参考书。我对比了好几本,最终选择了这本,因为它在内容的广度和深度上取得了绝佳的平衡。它没有仅仅停留在前馈网络的基础层面上,而是大胆且系统地引入了循环神经网络(RNN)、卷积神经网络(CNN)以及后来的Transformer等前沿架构的演变历史和核心思想。更难得的是,作者在介绍这些复杂结构时,总是能够清晰地梳理出其设计动机——为什么需要这种新结构来解决旧结构的问题。这不仅仅是知识的罗列,更是思维的训练。在数学严谨性方面,它保持了足够的学术水准,所有的推导都逻辑清晰,附带的注释和脚注也为深入探究提供了指引。对于需要撰写综述或进行深入理论研究的学生来说,这本书提供的知识框架是极其可靠的基石。它让我对“深度学习”的理解从零散的模块认知,上升到了一个有机、有发展脉络的整体认知体系之中。
评分坦白讲,我一开始是被这本书的包装和市场口碑吸引的,但阅读体验却远远超出了我的预期。它最大的优点在于其“包容性”——它好像默认读者拥有极高的学习热情,但又不完全具备领域知识,所以它在讲解时总是在用户体验和技术细节之间小心翼翼地保持平衡。书中对于模型的局限性讨论也非常坦诚,不会过度美化深度学习的能力,这在充斥着过度炒作的市场中显得尤为珍贵。比如,它会花专门的篇幅讨论可解释性(XAI)的挑战,以及数据偏差对模型公平性的影响,这些都是在实际部署中不可回避的伦理和工程难题。这种成熟、全面的视角,让我意识到构建一个“好”的AI系统,远不止是训练出一个高准确率的模型那么简单。它教会了我批判性地看待技术,用一种更负责任的态度去驾驭这些强大的工具。这本书不仅是一本学习指南,更是一本关于如何成为一个负责任的、有远见的机器学习从业者的“职业道德手册”。
评分我对统计学和概率论有很强的背景,但进入深度学习领域后,总感觉缺少一个将传统统计思想与现代神经网络连接起来的桥梁。这本书在处理这个问题上做得非常出色。它巧妙地将贝叶斯方法、信息论等经典统计学工具融入到对神经网络原理的阐释中。例如,在讨论损失函数和优化器时,它会追溯到最大似然估计和梯度下降法的统计学根源,这极大地增强了我对这些方法的信任度和理解深度。它没有把优化过程简化为单纯的“调参游戏”,而是将其置于一个更广阔的统计推断框架之下。这使得我在面对那些尚未有成熟解决方案的新问题时,能够运用更具普适性的思维去构建模型,而不是仅仅依赖于网络上现成的代码片段。这本书的价值在于它提升了读者的“内功”,让你不仅知道“怎么做”(How),更明白了“为什么这么做”(Why),从根本上提升了解决问题的能力,这种哲学层面的引导远超一般技术手册的价值。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.idnshop.cc All Rights Reserved. 静思书屋 版权所有