书名: | 【正版】深度学习之TensorFlow:入门、原理与进阶实战|7436497 |
图书定价: | 99元 |
图书作者: | 李金洪 |
出版社: | 机械工业出版社 |
出版日期: | 2018/3/1 0:00:00 |
ISBN号: | 9787111590057 |
开本: | 16开 |
页数: | 0 |
版次: | 1-1 |
目录 |
配套学习资源 前言 第1篇 深度学习与TensorFlow基础 第1章 快速了解人工智能与TensorFlow 2 1.1 什么是深度学习 2 1.2 TensorFlow是做什么的 3 1.3 TensorFlow的特点 4 1.4 其他深度学习框架特点及介绍 5 1.5 如何通过本书学好深度学习 6 1.5.1 深度学习怎么学 6 1.5.2 如何学习本书 7 第2章 搭建开发环境 8 2.1 下载及安装Anaconda开发工具 8 2.2 在Windows平台下载及安装TensorFlow 11 2.3 GPU版本的安装方法 12 2.3.1 安装CUDA软件包 12 2.3.2 安装cuDNN库 13 2.3.3 测试显卡 14 2.4 熟悉Anaconda 3开发工具 15 2.4.1 快速了解Spyder 16 2.4.2 快速了解Jupyter Notebook 18 第3章 TensorFlow基本开发步骤——以逻辑回归拟合二维数据为例 19 3.1 实例1:从一组看似混乱的数据中找出y≈2x的规律 19 3.1.1 准备数据 20 3.1.2 搭建模型 21 3.1.3 迭代训练模型 23 3.1.4 使用模型 25 3.2 模型是如何训练出来的 25 3.2.1 模型里的内容及意义 25 3.2.2 模型内部的数据流向 26 3.3 了解TensorFlow开发的基本步骤 27 3.3.1 定义输入节点的方法 27 3.3.2 实例2:通过字典类型定义输入节点 28 3.3.3 实例3:直接定义输入节点 28 3.3.4 定义“学习参数”的变量 29 3.3.5 实例4:通过字典类型定义“学习参数” 29 3.3.6 定义“运算” 29 3.3.7 优化函数,优化目标 30 3.3.8 初始化所有变量 30 3.3.9 迭代更新参数到最优解 31 3.3.10 测试模型 31 3.3.11 使用模型 31 第4章 TensorFlow编程基础 32 4.1 编程模型 32 4.1.1 了解模型的运行机制 33 4.1.2 实例5:编写hello world程序演示session的使用 34 4.1.3 实例6:演示with session的使用 35 4.1.4 实例7:演示注入机制 35 4.1.5 建立session的其他方法 36 4.1.6 实例8:使用注入机制获取节点 36 4.1.7 指定GPU运算 37 4.1.8 设置GPU使用资源 37 4.1.9 保存和载入模型的方法介绍 38 4.1.10 实例9:保存/载入线性回归模型 38 4.1.11 实例10:分析模型内容,演示模型的其他保存方法 40 4.1.12 检查点(Checkpoint) 41 4.1.13 实例11:为模型添加保存检查点 41 4.1.14 实例12:更简便地保存检查点 44 4.1.15 模型操作常用函数总结 45 4.1.16 TensorBoard可视化介绍 45 4.1.17 实例13:线性回归的TensorBoard可视化 46 4.2 TensorFlow基础类型定义及操作函数介绍 48 4.2.1 张量及操作 49 4.2.2 算术运算函数 55 4.2.3 矩阵相关的运算 56 4.2.4 复数操作函数 58 4.2.5 规约计算 59 4.2.6 分割 60 4.2.7 序列比较与索引提取 61 4.2.8 错误类 62 4.3 共享变量 62 4.3.1 共享变量用途 62 4.3.2 使用get-variable获取变量 63 4.3.3 实例14:演示get_variable和Variable的区别 63 4.3.4 实例15:在特定的作用域下获取变量 65 4.3.5 实例16:共享变量功能的实现 66 4.3.6 实例17:初始化共享变量的作用域 67 4.3.7 实例18:演示作用域与操作符的受限范围 68 4.4 实例19:图的基本操作 70 4.4.1 建立图 70 4.4.2 获取张量 71 4.4.3 获取节点操作 72 4.4.4 获取元素列表 73 4.4.5 获取对象 73 4.4.6 练习题 74 4.5 配置分布式TensorFlow 74 4.5.1 分布式TensorFlow的角色及原理 74 4.5.2 分布部署TensorFlow的具体方法 75 4.5.3 实例20:使用TensorFlow实现分布式部署训练 75 4.6 动态图(Eager) 81 4.7 数据集(tf.data) 82 第5章 识别图中模糊的手写数字(实例21) 83 5.1 导入图片数据集 84 5.1.1 MNIST数据集介绍 84 5.1.2 下载并安装MNIST数据集 85 5.2 分析图片的特点,定义变量 87 5.3 构建模型 87 5.3.1 定义学习参数 87 5.3.2 定义输出节点 88 5.3.3 定义反向传播的结构 88 5.4 训练模型并输出中间状态参数 89 5.5 测试模型 90 5.6 保存模型 91 5.7 读取模型 92 第2篇 深度学习基础——神经网络 第6章 单个神经元 96 6.1 神经元的拟合原理 96 6.1.1 正向传播 98 6.1.2 反向传播 98 6.2 激活函数——加入非线性因素,解决线性模型缺陷 99 6.2.1 Sigmoid函数 99 6.2.2 Tanh函数 100 6.2.3 ReLU函数 101 6.2.4 Swish函数 103 6.2.5 激活函数总结 103 6.3 softmax算法——处理分类问题 103 6.3.1 什么是softmax 104 6.3.2 softmax原理 104 6.3.3 常用的分类函数 105 6.4 损失函数——用真实值与预测值的距离来指导模型的收敛方向 105 6.4.1 损失函数介绍 105 6.4.2 TensorFlow中常见的loss函数 106 6.5 softmax算法与损失函数的综合应用 108 6.5.1 实例22:交叉熵实验 108 6.5.2 实例23:one_hot实验 109 6.5.3 实例24:sparse交叉熵的使用 110 6.5.4 实例25:计算loss值 110 6.5.5 练习题 111 6.6 梯度下降——让模型逼近最小偏差 111 6.6.1 梯度下降的作用及分类 111 6.6.2 TensorFlow中的梯度下降函数 112 6.6.3 退化学习率——在训练的速度与精度之间找到平衡 113 6.6.4 实例26:退化学习率的用法举例 114 6.7 初始化学习参数 115 6.8 单个神经元的扩展——Maxout网络 116 6.8.1 Maxout介绍 116 6.8.2 实例27:用Maxout网络实现MNIST分类 117 6.9 练习题 118 第7章 多层神经网络——解决非线性问题 119 7.1 线性问题与非线性问题 119 7.1.1 实例28:用线性单分逻辑回归分析肿瘤是良性还是恶性的 119 7.1.2 实例29:用线性逻辑回归处理多分类问题 123 7.1.3 认识非线性问题 129 7.2 使用隐藏层解决非线性问题 130 7.2.1 实例30:使用带隐藏层的神经网络拟合异或操作 130 7.2.2 非线性网络的可视化及其意义 133 7.2.3 练习题 135 7.3 实例31:利用全连接网络将图片进行分类 136 7.4 全连接网络训练中的优化技巧 137 7.4.1 实例32:利用异或数据集演示过拟合问题 138 7.4.2 正则化 143 7.4.3 实例33:通过正则化改善过拟合情况 144 7.4.4 实例34:通过增大数据集改善过拟合 145 7.4.5 练习题 146 7.4.6 dropout——训练过程中,将部分神经单元暂时丢弃 146 7.4.7 实例35:为异或数据集模型添加dropout 147 7.4.8 实例36:基于退化学习率dropout技术来拟合异或数据集 149 7.4.9 全连接网络的深浅关系 150 7.5 练习题 150 第8章 卷积神经网络——解决参数太多问题 151 8.1 全连接网络的局限性 151 8.2 理解卷积神经网络 152 8.3 网络结构 153 8.3.1 网络结构描述 153 8.3.2 卷积操作 155 8.3.3 池化层 157 8.4 卷积神经网络的相关函数 158 8.4.1 卷积函数tf.nn.conv2d 158 8.4.2 padding规则介绍 159 8.4.3 实例37:卷积函数的使用 160 8.4.4 实例38:使用卷积提取图片的轮廓 165 8.4.5 池化函数tf.nn.max_pool(avg_pool) 167 8.4.6 实例39:池化函数的使用 167 8.5 使用卷积神经网络对图片分类 170 8.5.1 CIFAR介绍 171 8.5.2 下载CIFAR数据 172 8.5.3 实例40:导入并显示CIFAR数据集 173 8.5.4 实例41:显示CIFAR数据集的原始图片 174 8.5.5 cifar10_input的其他功能 176 8.5.6 在TensorFlow中使用queue 176 8.5.7 实例42:协调器的用法演示 178 8.5.8 实例43:为session中的队列加上协调器 179 8.5.9 实例44:建立一个带有全局平均池化层的卷积神经网络 180 8.5.10 练习题 183 8.6 反卷积神经网络 183 8.6.1 反卷积神经网络的应用场景 184 8.6.2 反卷积原理 184 8.6.3 实例45:演示反卷积的操作 185 8.6.4 反池化原理 188 8.6.5 实例46:演示反池化的操作 189 8.6.6 实例47:演示gradients基本用法 192 8.6.7 实例48:使用gradients对多个式子求多变量偏导 192 8.6.8 实例49:演示梯度停止的实现 193 8.7 实例50:用反卷积技术复原卷积网络各层图像 195 8.8 善用函数封装库 198 8.8.1 实例51:使用函数封装库重写CIFAR卷积网络 198 8.8.2 练习题 201 8.9 深度学习的模型训练技巧 201 8.9.1 实例52:优化卷积核技术的演示 201 8.9.2 实例53:多通道卷积技术的演示 202 8.9.3 批量归一化 204 8.9.4 实例54:为CIFAR图片分类模型添加BN 207 8.9.5 练习题 209 第9章 循环神经网络——具有记忆功能的网络 210 9.1 了解RNN的工作原理 210 9.1.1 了解人的记忆原理 210 9.1.2 RNN网络的应用领域 212 9.1.3 正向传播过程 212 9.1.4 随时间反向传播 213 9.2 简单RNN 215 9.2.1 实例55:简单循环神经网络实现——裸写一个退位减法器 215 9.2.2 实例56:使用RNN网络拟合回声信号序列 220 9.3 循环神经网络(RNN)的改进 225 9.3.1 LSTM网络介绍 225 9.3.2 窥视孔连接(Peephole) 228 9.3.3 带有映射输出的STMP 230 9.3.4 基于梯度剪辑的cell 230 9.3.5 GRU网络介绍 230 9.3.6 Bi-RNN网络介绍 231 9.3.7 基于神经网络的时序类分类CTC 232 9.4 TensorFlow实战RNN 233 9.4.1 TensorFlow中的cell类 233 9.4.2 通过cell类构建RNN 234 9.4.3 实例57:构建单层LSTM网络对MNIST数据集分类 239 9.4.4 实例58:构建单层GRU网络对MNIST数据集分类 240 9.4.5 实例59:创建动态单层RNN网络对MNIST数据集分类 240 9.4.6 实例60:静态多层LSTM对MNIST数据集分类 241 9.4.7 实例61:静态多层RNN-LSTM连接GRU对MNIST数据集分类 242 9.4.8 实例62:动态多层RNN对MNIST数据集分类 242 9.4.9 练习题 243 9.4.10 实例63:构建单层动态双向RNN对MNIST数据集分类 243 9.4.11 实例64:构建单层静态双向RNN对MNIST数据集分类 244 9.4.12 实例65:构建多层双向RNN对MNIST数据集分类 246 9.4.13 实例66:构建动态多层双向RNN对MNIST数据集分类 247 9.4.14 初始化RNN 247 9.4.15 优化RNN 248 9.4.16 实例67:在GRUCell中实现LN 249 9.4.17 CTC网络的loss——ctc_loss 251 9.4.18 CTCdecoder 254 9.5 实例68:利用BiRNN实现语音识别 255 9.5.1 语音识别背景 255 9.5.2 获取并整理样本 256 9.5.3 训练模型 265 9.5.4 练习题 272 9.6 实例69:利用RNN训练语言模型 273 9.6.1 准备样本 273 9.6.2 构建模型 275 9.7 语言模型的系统学习 279 9.7.1 统计语言模型 279 9.7.2 词向量 279 9.7.3 word2vec 281 9.7.4 实例70:用CBOW模型训练自己的word2vec 283 9.7.5 实例71:使用指定侯选采样本训练word2vec 293 9.7.6 练习题 296 9.8 处理Seq2Seq任务 296 9.8.1 Seq2Seq任务介绍 296 9.8.2 Encoder-Decoder框架 297 9.8.3 实例72:使用basic_rnn_seq2seq拟合曲线 298 9.8.4 实例73:预测当天的股票价格 306 9.8.5 基于注意力的Seq2Seq 310 9.8.6 实例74:基于Seq2Seq注意力模型实现中英文机器翻译 313 9.9 实例75:制作一个简单的聊天机器人 339 9.9.1 构建项目框架 340 9.9.2 准备聊天样本 340 9.9.3 预处理样本 340 9.9.4 训练样本 341 9.9.5 测试模型 342 9.10 时间序列的高级接口TFTS 344 第10章 自编码网络——能够自学习样本特征的网络 346 10.1 自编码网络介绍及应用 346 10.2 最简单的自编码网络 347 10.3 自编码网络的代码实现 347 10.3.1 实例76:提取图片的特征,并利用特征还原图片 347 10.3.2 线性解码器 351 10.3.3 实例77:提取图片的二维特征,并利用二维特征还原图片 351 10.3.4 实例78:实现卷积网络的自编码 356 10.3.5 练习题 358 10.4 去噪自编码 359 10.5 去噪自编码网络的代码实现 359 10.5.1 实例79:使用去噪自编码网络提取MNIST特征 359 10.5.2 练习题 363 10.6 栈式自编码 364 10.6.1 栈式自编码介绍 364 10.6.2 栈式自编码在深度学习中的意义 365 10.7 深度学习中自编码的常用方法 366 10.7.1 代替和级联 366 10.7.2 自编码的应用场景 366 10.8 去噪自编码与栈式自编码的综合实现 366 10.8.1 实例80:实现去噪自编码 367 10.8.2 实例81:添加模型存储支持分布训练 375 10.8.3 小心分布训练中的“坑” 376 10.8.4 练习题 377 10.9 变分自编码 377 10.9.1 什么是变分自编码 377 10.9.2 实例82:使用变分自编码模拟生成MNIST数据 377 10.9.3 练习题 384 10.10 条件变分自编码 385 10.10.1 什么是条件变分自编码 385 10.10.2 实例83:使用标签指导变分自编码网络生成MNIST数据 385 第3篇 深度学习进阶 第11章 深度神经网络 392 11.1 深度神经网络介绍 392 11.1.1 深度神经网络起源 392 11.1.2 经典模型的特点介绍 393 11.2 GoogLeNet模型介绍 394 11.2.1 MLP卷积层 394 11.2.2 全局均值池化 395 11.2.3 Inception 原始模型 396 11.2.4 Inception v1模型 396 11.2.5 Inception v2模型 397 11.2.6 Inception v3模型 397 11.2.7 Inception v4模型 399 11.3 残差网络(ResNet) 399 .. TensorFlow+Keras深度学习人工智能实践应用作者:林大贵定价:69元 本书提供安装、上机操作指南,同时辅以大量范例程序介绍TensorFlow + Keras深度学习方面的知识。本书分9部分,共21章,内容主要包括基本概念介绍、TensorFlow 与 Keras 的安装、Keras MNIST手写数字识别、Keras CIFAR-10照片图像物体识别、Keras多层感知器预测泰坦尼克号上旅客的生存概率、使用Keras MLP、RNN、LSTM进行IMDb自然语言处理与情感分析、以TensorFlow张量运算仿真神经网络的运行、TensorFlow MNIST手写数字识别、使用GPU大幅加快深度学习训练。 TensorFlow + Keras深度学习方面的知识不需要具备高等数学模型、算法等专业知识,读者只需要具备基本的Python程序设计能力,按照本书的步骤循序渐进地学习,就可以了解深度学习的基本概念,进而实际运用深度学习的技术。 1章 人工智能、机器学习与深度学习简介 1 1.1 人工智能、机器学习、深度学习的关系 2 1.2 机器学习介绍 4 1.3 机器学习分类 4 1.4 深度学习简介 7 1.5 结论 8 2章 深度学习的原理 9 2.1 神经传导的原理 10 2.2 以矩阵运算仿真神经网络 13 2.3 多层感知器模型 14 2.4 使用反向传播算法进行训练 16 2.5 结论 21 3章 TensorFlow与Keras介绍 22 3.1 TensorFlow架构图 23 3.2 TensorFlow简介 24 3.3 TensorFlow程序设计模式 26 3.4 Keras介绍 27 3.5 Keras程序设计模式 28 3.6 Keras与TensorFlow比较 29 3.7 结论 30 4章 在Windows中安装TensorFlow与Keras 31 4.1 安装Anaconda 32 4.2 启动命令提示符 35 4.3 建立TensorFlow的Anaconda虚拟环境 37 4.4 在Anaconda虚拟环境安装TensorFlow与Keras 40 4.5 启动Jupyter Notebook 42 4.6 结论 48 5章 在Linux Ubuntu中安装TensorFlow与Keras 49 5.1 安装Anaconda 50 5.2 安装TensorFlow与Keras 52 5.3 启动Jupyter Notebook 53 5.4 结论 54 6章 Keras MNIST手写数字识别数据集 55 6.1 下载MNIST数据 56 6.2 查看训练数据 58 6.3 查看多项训练数据images与label 60 6.4 多层感知器模型数据预处理 62 6.5 features数据预处理 62 6.6 label数据预处理 64 6.7 结论 65 7章 Keras多层感知器识别手写数字 66 7.1 Keras多元感知器识别MNIST手写数字图像的介绍 67 7.2 进行数据预处理 69 7.3 建立模型 69 7.4 进行训练 73 7.5 以测试数据评估模型准确率 77 7.6 进行预测 78 7.7 显示混淆矩阵 79 7.8 隐藏层增加为1000个神经元 81 7.9 多层感知器加入DropOut功能以避免过度拟合 84 7.10 建立多层感知器模型包含两个隐藏层 86 7.11 结论 89 8章 Keras卷积神经网络识别手写数字 90 8.1 卷积神经网络简介 91 8.2 进行数据预处理 97 8.3 建立模型 98 8.4 进行训练 101 8.5 评估模型准确率 104 8.6 进行预测 104 8.7 显示混淆矩阵 105 8.8 结论 107 9章 Keras CIFAR-10图像识别数据集 108 9.1 下载CIFAR-10数据 109 9.2 查看训练数据 111 9.3 查看多项images与label 112 9.4 将images进行预处理 113 9.5 对label进行数据预处理 114 9.6 结论 115 10章 Keras卷积神经网络识别CIFAR-10图像 116 10.1 卷积神经网络简介 117 10.2 数据预处理 118 10.3 建立模型 119 10.4 进行训练 123 10.5 评估模型准确率 126 10.6 进行预测 126 10.7 查看预测概率 127 10.8 显示混淆矩阵 129 10.9 建立3次的卷积运算神经网络 132 10.10 模型的保存与加载 135 10.11 结论 136 11章 Keras泰坦尼克号上的旅客数据集 137 11.1 下载泰坦尼克号旅客数据集 138 11.2 使用Pandas DataFrame读取数据并进行预处理 140 |
评分
评分
评分
评分
评分
评分
评分
评分
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 book.idnshop.cc All Rights Reserved. 静思书屋 版权所有