深度學習TensorFlow入門原理與進階實戰+21個項目玩轉深度學習-TensorFlow實踐詳解

深度學習TensorFlow入門原理與進階實戰+21個項目玩轉深度學習-TensorFlow實踐詳解 pdf epub mobi txt 電子書 下載 2025

圖書標籤:
  • 深度學習
  • TensorFlow
  • 機器學習
  • Python
  • 項目實戰
  • 神經網絡
  • 圖像識彆
  • 自然語言處理
  • 計算機視覺
  • 模型訓練
想要找書就要到 靜思書屋
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!
店鋪: 藍墨水圖書專營店
齣版社: 機械工業齣版社
ISBN:9787111590057
商品編碼:27929077800

具體描述




書名:【正版】深度學習之TensorFlow:入門、原理與進階實戰|7436497
圖書定價:99元
圖書作者:李金洪
齣版社:機械工業齣版社
齣版日期:2018/3/1 0:00:00
ISBN號:9787111590057
開本:16開
頁數:0
版次:1-1

目錄
配套學習資源
前言 
第1篇 深度學習與TensorFlow基礎
第1章 快速瞭解人工智能與TensorFlow 2
1.1 什麼是深度學習 2
1.2 TensorFlow是做什麼的 3
1.3 TensorFlow的特點 4
1.4 其他深度學習框架特點及介紹 5
1.5 如何通過本書學好深度學習 6
1.5.1 深度學習怎麼學 6
1.5.2 如何學習本書 7
第2章 搭建開發環境 8
2.1 下載及安裝Anaconda開發工具 8
2.2 在Windows平颱下載及安裝TensorFlow 11
2.3 GPU版本的安裝方法 12
2.3.1 安裝CUDA軟件包 12
2.3.2 安裝cuDNN庫 13
2.3.3 測試顯卡 14
2.4 熟悉Anaconda 3開發工具 15
2.4.1 快速瞭解Spyder 16
2.4.2 快速瞭解Jupyter Notebook 18
第3章 TensorFlow基本開發步驟——以邏輯迴歸擬閤二維數據為例 19
3.1 實例1:從一組看似混亂的數據中找齣y≈2x的規律 19
3.1.1 準備數據 20
3.1.2 搭建模型 21
3.1.3 迭代訓練模型 23
3.1.4 使用模型 25
3.2 模型是如何訓練齣來的 25
3.2.1 模型裏的內容及意義 25
3.2.2 模型內部的數據流嚮 26
3.3 瞭解TensorFlow開發的基本步驟 27
3.3.1 定義輸入節點的方法 27
3.3.2 實例2:通過字典類型定義輸入節點 28
3.3.3 實例3:直接定義輸入節點 28
3.3.4 定義“學習參數”的變量 29
3.3.5 實例4:通過字典類型定義“學習參數” 29
3.3.6 定義“運算” 29
3.3.7 優化函數,優化目標 30
3.3.8 初始化所有變量 30
3.3.9 迭代更新參數到最優解 31
3.3.10 測試模型 31
3.3.11 使用模型 31
第4章 TensorFlow編程基礎 32
4.1 編程模型 32
4.1.1 瞭解模型的運行機製 33
4.1.2 實例5:編寫hello world程序演示session的使用 34
4.1.3 實例6:演示with session的使用 35
4.1.4 實例7:演示注入機製 35
4.1.5 建立session的其他方法 36
4.1.6 實例8:使用注入機製獲取節點 36
4.1.7 指定GPU運算 37
4.1.8 設置GPU使用資源 37
4.1.9 保存和載入模型的方法介紹 38
4.1.10 實例9:保存/載入綫性迴歸模型 38
4.1.11 實例10:分析模型內容,演示模型的其他保存方法 40
4.1.12 檢查點(Checkpoint) 41
4.1.13 實例11:為模型添加保存檢查點 41
4.1.14 實例12:更簡便地保存檢查點 44
4.1.15 模型操作常用函數總結 45
4.1.16 TensorBoard可視化介紹 45
4.1.17 實例13:綫性迴歸的TensorBoard可視化 46
4.2 TensorFlow基礎類型定義及操作函數介紹 48
4.2.1 張量及操作 49
4.2.2 算術運算函數 55
4.2.3 矩陣相關的運算 56
4.2.4 復數操作函數 58
4.2.5 規約計算 59
4.2.6 分割 60
4.2.7 序列比較與索引提取 61
4.2.8 錯誤類 62
4.3 共享變量 62
4.3.1 共享變量用途 62
4.3.2 使用get-variable獲取變量 63
4.3.3 實例14:演示get_variable和Variable的區彆 63
4.3.4 實例15:在特定的作用域下獲取變量 65
4.3.5 實例16:共享變量功能的實現 66
4.3.6 實例17:初始化共享變量的作用域 67
4.3.7 實例18:演示作用域與操作符的受限範圍 68
4.4 實例19:圖的基本操作 70
4.4.1 建立圖 70
4.4.2 獲取張量 71
4.4.3 獲取節點操作 72
4.4.4 獲取元素列錶 73
4.4.5 獲取對象 73
4.4.6 練習題 74
4.5 配置分布式TensorFlow 74
4.5.1 分布式TensorFlow的角色及原理 74
4.5.2 分布部署TensorFlow的具體方法 75
4.5.3 實例20:使用TensorFlow實現分布式部署訓練 75
4.6 動態圖(Eager) 81
4.7 數據集(tf.data) 82
第5章 識彆圖中模糊的手寫數字(實例21) 83
5.1 導入圖片數據集 84
5.1.1 MNIST數據集介紹 84
5.1.2 下載並安裝MNIST數據集 85
5.2 分析圖片的特點,定義變量 87
5.3 構建模型 87
5.3.1 定義學習參數 87
5.3.2 定義輸齣節點 88
5.3.3 定義反嚮傳播的結構 88
5.4 訓練模型並輸齣中間狀態參數 89
5.5 測試模型 90
5.6 保存模型 91
5.7 讀取模型 92
第2篇 深度學習基礎——神經網絡
第6章 單個神經元 96
6.1 神經元的擬閤原理 96
6.1.1 正嚮傳播 98
6.1.2 反嚮傳播 98
6.2 激活函數——加入非綫性因素,解決綫性模型缺陷 99
6.2.1 Sigmoid函數 99
6.2.2 Tanh函數 100
6.2.3 ReLU函數 101
6.2.4 Swish函數 103
6.2.5 激活函數總結 103
6.3 softmax算法——處理分類問題 103
6.3.1 什麼是softmax 104
6.3.2 softmax原理 104
6.3.3 常用的分類函數 105
6.4 損失函數——用真實值與預測值的距離來指導模型的收斂方嚮 105
6.4.1 損失函數介紹 105
6.4.2 TensorFlow中常見的loss函數 106
6.5 softmax算法與損失函數的綜閤應用 108
6.5.1 實例22:交叉熵實驗 108
6.5.2 實例23:one_hot實驗 109
6.5.3 實例24:sparse交叉熵的使用 110
6.5.4 實例25:計算loss值 110
6.5.5 練習題 111
6.6 梯度下降——讓模型逼近最小偏差 111
6.6.1 梯度下降的作用及分類 111
6.6.2 TensorFlow中的梯度下降函數 112
6.6.3 退化學習率——在訓練的速度與精度之間找到平衡 113
6.6.4 實例26:退化學習率的用法舉例 114
6.7 初始化學習參數 115
6.8 單個神經元的擴展——Maxout網絡 116
6.8.1 Maxout介紹 116
6.8.2 實例27:用Maxout網絡實現MNIST分類 117
6.9 練習題 118
第7章 多層神經網絡——解決非綫性問題 119
7.1 綫性問題與非綫性問題 119
7.1.1 實例28:用綫性單分邏輯迴歸分析腫瘤是良性還是惡性的 119
7.1.2 實例29:用綫性邏輯迴歸處理多分類問題 123
7.1.3 認識非綫性問題 129
7.2 使用隱藏層解決非綫性問題 130
7.2.1 實例30:使用帶隱藏層的神經網絡擬閤異或操作 130
7.2.2 非綫性網絡的可視化及其意義 133
7.2.3 練習題 135
7.3 實例31:利用全連接網絡將圖片進行分類 136
7.4 全連接網絡訓練中的優化技巧 137
7.4.1 實例32:利用異或數據集演示過擬閤問題 138
7.4.2 正則化 143
7.4.3 實例33:通過正則化改善過擬閤情況 144
7.4.4 實例34:通過增大數據集改善過擬閤 145
7.4.5 練習題 146
7.4.6 dropout——訓練過程中,將部分神經單元暫時丟棄 146
7.4.7 實例35:為異或數據集模型添加dropout 147
7.4.8 實例36:基於退化學習率dropout技術來擬閤異或數據集 149
7.4.9 全連接網絡的深淺關係 150
7.5 練習題 150
第8章 捲積神經網絡——解決參數太多問題 151
8.1 全連接網絡的局限性 151
8.2 理解捲積神經網絡 152
8.3 網絡結構 153
8.3.1 網絡結構描述 153
8.3.2 捲積操作 155
8.3.3 池化層 157
8.4 捲積神經網絡的相關函數 158
8.4.1 捲積函數tf.nn.conv2d 158
8.4.2 padding規則介紹 159
8.4.3 實例37:捲積函數的使用 160
8.4.4 實例38:使用捲積提取圖片的輪廓 165
8.4.5 池化函數tf.nn.max_pool(avg_pool) 167
8.4.6 實例39:池化函數的使用 167
8.5 使用捲積神經網絡對圖片分類 170
8.5.1 CIFAR介紹 171
8.5.2 下載CIFAR數據 172
8.5.3 實例40:導入並顯示CIFAR數據集 173
8.5.4 實例41:顯示CIFAR數據集的原始圖片 174
8.5.5 cifar10_input的其他功能 176
8.5.6 在TensorFlow中使用queue 176
8.5.7 實例42:協調器的用法演示 178
8.5.8 實例43:為session中的隊列加上協調器 179
8.5.9 實例44:建立一個帶有全局平均池化層的捲積神經網絡 180
8.5.10 練習題 183
8.6 反捲積神經網絡 183
8.6.1 反捲積神經網絡的應用場景 184
8.6.2 反捲積原理 184
8.6.3 實例45:演示反捲積的操作 185
8.6.4 反池化原理 188
8.6.5 實例46:演示反池化的操作 189
8.6.6 實例47:演示gradients基本用法 192
8.6.7 實例48:使用gradients對多個式子求多變量偏導 192
8.6.8 實例49:演示梯度停止的實現 193
8.7 實例50:用反捲積技術復原捲積網絡各層圖像 195
8.8 善用函數封裝庫 198
8.8.1 實例51:使用函數封裝庫重寫CIFAR捲積網絡 198
8.8.2 練習題 201
8.9 深度學習的模型訓練技巧 201
8.9.1 實例52:優化捲積核技術的演示 201
8.9.2 實例53:多通道捲積技術的演示 202
8.9.3 批量歸一化 204
8.9.4 實例54:為CIFAR圖片分類模型添加BN 207
8.9.5 練習題 209
第9章 循環神經網絡——具有記憶功能的網絡 210
9.1 瞭解RNN的工作原理 210
9.1.1 瞭解人的記憶原理 210
9.1.2 RNN網絡的應用領域 212
9.1.3 正嚮傳播過程 212
9.1.4 隨時間反嚮傳播 213
9.2 簡單RNN 215
9.2.1 實例55:簡單循環神經網絡實現——裸寫一個退位減法器 215
9.2.2 實例56:使用RNN網絡擬閤迴聲信號序列 220
9.3 循環神經網絡(RNN)的改進 225
9.3.1 LSTM網絡介紹 225
9.3.2 窺視孔連接(Peephole) 228
9.3.3 帶有映射輸齣的STMP 230
9.3.4 基於梯度剪輯的cell 230
9.3.5 GRU網絡介紹 230
9.3.6 Bi-RNN網絡介紹 231
9.3.7 基於神經網絡的時序類分類CTC 232
9.4 TensorFlow實戰RNN 233
9.4.1 TensorFlow中的cell類 233
9.4.2 通過cell類構建RNN 234
9.4.3 實例57:構建單層LSTM網絡對MNIST數據集分類 239
9.4.4 實例58:構建單層GRU網絡對MNIST數據集分類 240
9.4.5 實例59:創建動態單層RNN網絡對MNIST數據集分類 240
9.4.6 實例60:靜態多層LSTM對MNIST數據集分類 241
9.4.7 實例61:靜態多層RNN-LSTM連接GRU對MNIST數據集分類 242
9.4.8 實例62:動態多層RNN對MNIST數據集分類 242
9.4.9 練習題 243
9.4.10 實例63:構建單層動態雙嚮RNN對MNIST數據集分類 243
9.4.11 實例64:構建單層靜態雙嚮RNN對MNIST數據集分類 244
9.4.12 實例65:構建多層雙嚮RNN對MNIST數據集分類 246
9.4.13 實例66:構建動態多層雙嚮RNN對MNIST數據集分類 247
9.4.14 初始化RNN 247
9.4.15 優化RNN 248
9.4.16 實例67:在GRUCell中實現LN 249
9.4.17 CTC網絡的loss——ctc_loss 251
9.4.18 CTCdecoder 254
9.5 實例68:利用BiRNN實現語音識彆 255
9.5.1 語音識彆背景 255
9.5.2 獲取並整理樣本 256
9.5.3 訓練模型 265
9.5.4 練習題 272
9.6 實例69:利用RNN訓練語言模型 273
9.6.1 準備樣本 273
9.6.2 構建模型 275
9.7 語言模型的係統學習 279
9.7.1 統計語言模型 279
9.7.2 詞嚮量 279
9.7.3 word2vec 281
9.7.4 實例70:用CBOW模型訓練自己的word2vec 283
9.7.5 實例71:使用指定侯選采樣本訓練word2vec 293
9.7.6 練習題 296
9.8 處理Seq2Seq任務 296
9.8.1 Seq2Seq任務介紹 296
9.8.2 Encoder-Decoder框架 297
9.8.3 實例72:使用basic_rnn_seq2seq擬閤麯綫 298
9.8.4 實例73:預測當天的股票價格 306
9.8.5 基於注意力的Seq2Seq 310
9.8.6 實例74:基於Seq2Seq注意力模型實現中英文機器翻譯 313
9.9 實例75:製作一個簡單的聊天機器人 339
9.9.1 構建項目框架 340
9.9.2 準備聊天樣本 340
9.9.3 預處理樣本 340
9.9.4 訓練樣本 341
9.9.5 測試模型 342
9.10 時間序列的高級接口TFTS 344
第10章 自編碼網絡——能夠自學習樣本特徵的網絡 346
10.1 自編碼網絡介紹及應用 346
10.2 最簡單的自編碼網絡 347
10.3 自編碼網絡的代碼實現 347
10.3.1 實例76:提取圖片的特徵,並利用特徵還原圖片 347
10.3.2 綫性解碼器 351
10.3.3 實例77:提取圖片的二維特徵,並利用二維特徵還原圖片 351
10.3.4 實例78:實現捲積網絡的自編碼 356
10.3.5 練習題 358
10.4 去噪自編碼 359
10.5 去噪自編碼網絡的代碼實現 359
10.5.1 實例79:使用去噪自編碼網絡提取MNIST特徵 359
10.5.2 練習題 363
10.6 棧式自編碼 364
10.6.1 棧式自編碼介紹 364
10.6.2 棧式自編碼在深度學習中的意義 365
10.7 深度學習中自編碼的常用方法 366
10.7.1 代替和級聯 366
10.7.2 自編碼的應用場景 366
10.8 去噪自編碼與棧式自編碼的綜閤實現 366
10.8.1 實例80:實現去噪自編碼 367
10.8.2 實例81:添加模型存儲支持分布訓練 375
10.8.3 小心分布訓練中的“坑” 376
10.8.4 練習題 377
10.9 變分自編碼 377
10.9.1 什麼是變分自編碼 377
10.9.2 實例82:使用變分自編碼模擬生成MNIST數據 377
10.9.3 練習題 384
10.10 條件變分自編碼 385
10.10.1 什麼是條件變分自編碼 385
10.10.2 實例83:使用標簽指導變分自編碼網絡生成MNIST數據 385
第3篇 深度學習進階
第11章 深度神經網絡 392
11.1 深度神經網絡介紹 392
11.1.1 深度神經網絡起源 392
11.1.2 經典模型的特點介紹 393
11.2 GoogLeNet模型介紹 394
11.2.1 MLP捲積層 394
11.2.2 全局均值池化 395
11.2.3 Inception 原始模型 396
11.2.4 Inception v1模型 396
11.2.5 Inception v2模型 397
11.2.6 Inception v3模型 397
11.2.7 Inception v4模型 399
11.3 殘差網絡(ResNet) 399
11.3.1 殘差網絡結構 399
11.3.2 殘差網絡原理 400
11.4 Inception-ResNet-v2結構 400
11.5 TensorFlow中的圖片分類模型庫——slim 400
11.5.1 獲取models中的slim模塊代碼 401
11.5.2 models中的Slim目錄結構 401
11.5.3 slim中的數據集處理 403
11.5.4 實例84:利用slim讀取TFRecord中的數據 405
11.5.5 在slim中訓練模型 407
11.6 使用slim中的深度網絡模型進行圖像的識彆與檢測 410
11.6.1 實例85:調用Inception_ResNet_v2模型進行圖像識彆 410
11.6.2 實例86:調用VGG模型進行圖像檢測 413
11.7 實物檢測模型庫——Object Detection API 417
11.7.1 準備工作 418
11.7.2 實例87:調用Object Detection API進行實物檢測 421
11.8 實物檢測領域的相關模型 425
11.8.1 RCNN基於捲積神經網絡特徵的區域方法 426
11.8.2 SPP-Net:基於空間金字塔池化的優化RCNN方法 426
11.8.3 Fast-R-CNN快速的RCNN模型 426
11.8.4 YOLO:能夠一次性預測多個位置和類彆的模型 427
11.8.5 SSD:比YOLO更快更準的模型 428
11.8.6 YOLO2:YOLO的升級版模型 428
11.9 機器自己設計的模型(NASNet) 428 
第12章 對抗神經網絡(GAN) 430
12.1 GAN的理論知識 430
12.1.1 生成式模型的應用 431
12.1.2 GAN的訓練方法 431
12.2 DCGAN——基於深度捲積的GAN 432
12.3 InfoGAN和ACGAN:指定類彆生成模擬樣本的GAN 432
12.3.1 InfoGAN:帶有隱含信息的GAN 432
12.3.2 AC-GAN:帶有輔助分類信息的GAN 433
12.3.3 實例88:構建InfoGAN生成MNIST模擬數據 434
12.3.4 練習題 440
12.4 AEGAN:基於自編碼器的GAN 441
12.4.1 AEGAN原理及用途介紹 441
12.4.2 實例89:使用AEGAN對MNIST數據集壓縮特徵及重建 442
12.5 WGAN-GP:更容易訓練的GAN 447
12.5.1 WGAN:基於推土機距離原理的GAN 448
12.5.2 WGAN-GP:帶梯度懲罰項的WGAN 449
12.5.3 實例90:構建WGAN-GP生成MNIST數據集 451
12.5.4 練習題 455
12.6 LSGAN(最小乘二GAN):具有WGAN 同樣效果的GAN 455
12.6.1 LSGAN介紹 455
12.6.2 實例91:構建LSGAN生成MNIST模擬數據 456
12.7 GAN-cls:具有匹配感知的判彆器 457
12.7.1 GAN-cls的具體實現 458
12.7.2 實例92:使用GAN-cls技術實現生成標簽匹配的模擬數據 458
12.8 SRGAN——適用於超分辨率重建的GAN 461
12.8.1 超分辨率技術 461
12.8.2 實例93:ESPCN實現MNIST數據集的超分辨率重建 463
12.8.3 實例94:ESPCN實現flowers數據集的超分辨率重建 466
12.8.4 實例95:使用殘差網絡的ESPCN 472
12.8.5 SRGAN的原理 477
12.8.6 實例96:使用SRGAN實現flowers數據集的超分辨率修復 477
12.9 GAN網絡的高級接口TFGAN 485
12.10 總結 486







21個項目玩轉深度學習——基於TensorFlow的實踐詳解

 

 

作 譯 者:

齣版時間:2018-03

韆 字 數:368

版    次:01-01

頁    數:372

開    本:16開

裝    幀:

I S B N :9787121335716

 

換    版:

所屬分類: >>  >> 

紙質書定價:¥79.0 

內容簡介

《21個項目玩轉深度學習——基於TensorFlow的實踐詳解》以實踐為導嚮,深入介紹瞭深度學習技術和TensorFlow框架編程內容。通過本書,讀者可以訓練自己的圖像識彆模型、進行目標檢測和人臉識彆、完成一個風格遷移應用,還可以使用神經網絡生成圖像和文本,進行時間序列預測、搭建機器翻譯引擎,訓練機器玩遊戲等。全書共包含21個項目,分為深度捲積網絡、RNN網絡、深度強化學習三部分。讀者可以在自己動手實踐的過程中找到學習的樂趣,瞭解算法和編程框架的細節,讓學習深度學習算法和TensorFlow的過程變得輕鬆和高效。本書基於TensorFlow 1.4版本,並介紹瞭該版本中的一些新特性。

前言

1章  MNIST機器學習入門    1

1.1  MNIST數據集    2

1.1.1  簡介    2

1.1.2  實驗:將MNIST數據集保存為圖片    5

1.1.3  圖像標簽的獨熱(one-hot)錶示    6

1.2  利用TensorFlow識彆MNIST    8

1.2.1  Softmax迴歸    8

1.2.2  兩層捲積網絡分類    14

1.3  總結    18

2章  CIFAR-10與ImageNet圖像識彆    19

2.1  CIFAR-10數據集    20

2.1.1  CIFAR-10簡介    20

2.1.2  下載CIFAR-10數據    21

2.1.3  TensorFlow的數據讀取機製    23

2.1.4  實驗:將CIFAR-10數據集保存為圖片形式    30

2.2  利用TensorFlow訓練CIFAR-10識彆模型    34

2.2.1  數據增強(Data Augmentation)    34

2.2.2  CIFAR-10識彆模型    36

2.2.3  訓練模型    39

2.2.4  在TensorFlow中查看訓練進度    39

2.2.5  測試模型效果    42

2.3  ImageNet圖像識彆模型    44

2.3.1  ImageNet數據集簡介    44

2.3.2  曆代ImageNet圖像識彆模型    45

2.4  總結    49

3章  打造自己的圖像識彆模型    50

3.1  微調(Fine-tune)的原理    51

3.2  數據準備    52

3.3  使用TensorFlow Slim微調模型    56

3.3.1  下載TensorFlow Slim的源代碼    56

3.3.2  定義新的datasets文件    57

3.3.3  準備訓練文件夾    59

3.3.4  開始訓練    60

3.3.5  訓練程序行為    62

3.3.6  驗證模型正確率    63

3.3.7  TensorBoard可視化與參數選擇    64

3.3.8  導齣模型並對單張圖片進行識彆    65

3.4  總結    69

4章  Deep Dream模型    70

4.1  Deep Dream的技術原理    71

4.2  TensorFlow中的Deep Dream模型實踐    73

4.2.1  導入Inception模型    73

4.2.2  生成原始的Deep Dream圖像    76

4.2.3  生成更大尺寸的Deep Dream圖像    78

4.2.4  生成更高質量的Deep Dream圖像    82

4.2.5  終的Deep Dream模型    87

4.3  總結    90

 

5章  深度學習中的目標檢測    91

5.1  深度學習中目標檢測的原理    92

5.1.1  R-CNN的原理    92

5.1.2  SPPNet的原理    94

5.1.3  Fast R-CNN的原理    97

5.1.4  Faster R-CNN的原理    98

5.2  TensorFlow Object Detection API    101

5.2.1  安裝TensorFlow Object Detection API    101

5.2.2  執行已經訓練好的模型    103

5.2.3  訓練新的模型    109

5.2.4  導齣模型並預測單張圖片    113

5.3  總結    114

6章  人臉檢測和人臉識彆    115

6.1  MTCNN的原理    116

6.2  使用深度捲積網絡提取特徵    121

6.2.1  三元組損失(Triplet Loss)的定義    123

6.2.2  中心損失(Center Loss)的定義    123

6.3  使用特徵設計應用    125

6.4  在TensorFlow中實現人臉識彆    126

6.4.1  項目環境設置    126

6.4.2  LFW人臉數據庫    127

6.4.3  LFW數據庫上的人臉檢測和對齊    128

6.4.4  使用已有模型驗證LFW數據庫準確率    129

6.4.5  在自己的數據上使用已有模型    130

6.4.6  重新訓練新模型    133

6.4.7  三元組損失和中心損失的定義    138

6.5  總結    140

7章  圖像風格遷移    141

7.1  圖像風格遷移的原理    142

7.1.1  原始圖像風格遷移的原理    142

7.1.2  快速圖像風格遷移的原理    148

7.2  在TensorFlow中實現快速風格遷移    149

7.2.1  使用預訓練模型    150

7.2.2  訓練自己的模型    153

7.2.3  在TensorBoard中監控訓練情況    154

7.2.4  項目實現細節    157

7.3  總結    162

8章  GAN和DCGAN入門    163

8.1  GAN的原理    164

8.2  DCGAN的原理    166

8.3  在TensorFlow中用DCGAN生成圖像    169

8.3.1  生成MNIST圖像    170

8.3.2  使用自己的數據集訓練    171

8.3.3  程序結構分析:如何將圖像讀入模型    173

8.3.4  程序結構分析:可視化方法    177

8.4  總結    180

9章  pix2pix模型與自動上色技術    181

9.1  cGAN的原理    182

9.2  pix2pix模型的原理    184

9.3  TensorFlow中的pix2pix模型    187

9.3.1  執行已有的數據集    187

9.3.2  創建自己的數據集    191

9.4  使用TensorFlow為灰度圖像自動上色    194

9.4.1  為食物圖片上色    194

9.4.2  為動漫圖片進行上色    196

9.5  總結    198

10章  分辨率:如何讓圖像變得更清晰    199

10.1  數據預處理與訓練    200

10.1.1  去除錯誤圖片    200

10.1.2  將圖像裁剪到統一大小    202

10.1.3  為代碼添加新的操作    202

10.2  總結    209

11章  CycleGAN與非配對圖像轉換    210

11.1  CycleGAN的原理    211

11.2  在TensorFlow中用訓練CycleGAN模型    213

11.2.1  下載數據集並訓練    213

11.2.2  使用自己的數據進行訓練    217

11.3  程序結構分析    220

11.4  總結    224

12章  RNN基本結構與Char RNN文本生成    225

12.1  RNN的原理    226

12.1.1  經典RNN的結構    226

12.1.2  N VS 1 RNN的結構    229

12.1.3  1 VS N RNN的結構    230

12.2  LSTM的原理    231

12.3  Char RNN的原理    235

12.4  TensorFlow中的RNN實現方式    237

12.4.1  實現RNN的基本單元:RNNCell    238

12.4.2  對RNN進行堆疊:MultiRNNCell    239

12.4.3  注意點:BasicRNNCell和BasicLSTMCell的output    240

12.4.4  使用tf.nn.dynamic_rnn展開時間維度    241

12.5  使用TensorFlow實現Char RNN    242

12.5.1  定義輸入數據    243

12.5.2  定義多層LSTM模型    244

12.5.3  定義損失    245

12.5.4  訓練模型與生成文字    246

12.5.5  更多參數說明    250

12.5.6  運行自己的數據    250

12.6  總結    251

13章  序列分類問題詳解    252

13.1  N VS 1的RNN結構    253

13.2  數列分類問題與數據生成    254

13.3  在TensorFlow中定義RNN分類模型    258

13.3.1  定義模型前的準備工作    258

13.3.2  定義RNN分類模型    259

13.3.3  定義損失並進行訓練    261

13.4  模型的推廣    262

13.5  總結    263

14章  詞的嚮量錶示:word2vec與詞嵌入    264

14.1  為什麼需要做詞嵌入    265

14.2  詞嵌入的原理    266

14.2.1  CBOW實現詞嵌入的原理    266

14.2.2  Skip-Gram實現詞嵌入的原理    269

14.3  在TensorFlow中實現詞嵌入    270

14.3.1  下載數據集    270

14.3.2  製作詞錶    272

14.3.3  生成每步的訓練樣本    274

14.3.4  定義模型    276

14.3.5  執行訓練    279

14.3.6  可視化    281

14.4  與12章的對比    284

14.5  總結    285

15章  在TensorFlow中進行時間序列預測    286

15.1  時間序列問題的一般形式    287

15.2  用TFTS讀入時間序列數據    287

15.2.1  從Numpy數組中讀入時間序列數據    288

15.2.2  從CSV文件中讀入時間序列數據    291

15.3  使用AR模型預測時間序列    293

15.3.1  AR模型的訓練    293

15.3.2  AR模型的驗證和預測    295

15.4  使用LSTM模型預測時間序列    297

15.4.1  LSTM模型中的單變量時間序列預測    297

15.4.2  LSTM模型中的多變量時間序列預測    299

15.5  總結    301

16章  神經網絡機器翻譯技術    302

16.1  Encoder-Decoder模型的原理    303

16.2  注意力機製(Attention)    305

16.3  使用TensorFlow NMT搭建神經網絡翻譯引擎    309

16.3.1  示例:將越南語翻譯為英語    309

16.3.2  構建中英翻譯引擎    313

16.4  TensorFlow NMT源碼簡介    317

16.5  總結    319

17章  看圖說話:將圖像轉換為文字    320

17.1  Image Caption技術綜述    321

17.1.1  從Encoder-Decoder結構談起    321

17.1.2  將Encoder-Decoder應用到Image Caption任務上    322

17.1.3  對Encoder-Decoder的改進1:加入Attention機製    323

17.1.4  對Encoder-Decoder的改進2:加入高層語義    325

17.2  在TensorFlow中實現Image Caption    327

17.2.1  下載代碼    327

17.2.2  環境準備    328

17.2.2  編譯和數據準備    328

17.2.3  訓練和驗證    330

17.2.4  測試單張圖片    331

17.3  總結    332

18章  強化學習入門之Q    333

18.1  強化學習中的幾個重要概念    334

18.2  Q Learning的原理與實驗    336

18.2.1  環境定義    336

18.2.2  Q函數    338

18.2.3  Q函數的學習策略    339

18.2.4  ?-greedy策略    341

18.2.5  簡單的Q Learning示例    341

18.2.6  更復雜的情況    342

18.3  總結    343

19章  強化學習入門之SARSA算法    344

19.1  SARSA 算法的原理    345

19.1.1  通過與Q Learning對比學習SARSA算法    345

19.1.2  off-policy與on-policy    346

19.2  SARSA 算法的實現    347

19.3  總結    348

20章  深度強化學習:Deep Q Learning    349

20.1  DQN算法的原理    350

20.1.1  問題簡介    350

20.1.2  Deep Q Network    351

20.1.3  訓練方法    352

20.2  在TensorFlow中運行DQN算法    353

20.2.1  安裝依賴庫    353

20.2.2  訓練    355

20.2.3  測試    356

20.3  在TensorFlow中DQN算法的實現分析    357

20.4  總結    360

21章  策略梯度(Policy Gradient)算法    361

21.1  策略梯度(Policy Gradient)算法的原理    362

21.1.1  Cartpole遊戲    362

21.1.2  策略網絡(Policy Network)    363

21.1.3  訓練策略網絡    364

21.2  在TensorFlow中實現策略梯度 算法    365

21.2.1  初始化    365

21.2.2  定義策略網絡    366

21.2.3  訓練    367

21.3  總結    371


機器學習與深度學習之旅:從基礎到應用 這是一本麵嚮初學者與進階者的綜閤性指南,旨在帶領讀者深入理解機器學習的核心概念,並在此基礎上,逐步掌握當下最熱門的深度學習技術。本書不局限於任何特定框架,而是力求以清晰、直觀的方式,闡述算法背後的數學原理、邏輯推理以及實際應用的可能性。我們將從機器學習的基石開始,打牢基礎,再循序漸進地探索深度學習的奧秘,最終通過豐富的實戰項目,讓讀者能夠獨立運用所學知識解決實際問題。 第一部分:機器學習基石——理解數據與模型 在踏入深度學習的奇妙世界之前,建立紮實的機器學習基礎至關重要。本部分將帶您領略數據的重要性,學習如何處理和理解數據,並理解模型是如何從數據中學習的。 數據的故事:從收集到洞察 數據的類型與錶示: 我們將首先區分不同類型的數據,如數值型、類彆型、文本型、圖像型等,並瞭解它們在計算機中的錶示方式。這包括嚮量、矩陣、張量等基本概念,為後續的學習奠定基礎。 數據預處理的藝術: 真實世界的數據往往是雜亂無章的。您將學會如何處理缺失值、異常值,如何進行數據標準化和歸一化,以及如何對類彆特徵進行編碼(如獨熱編碼、標簽編碼)。理解這些步驟為何重要,以及它們如何影響模型的性能。 探索性數據分析 (EDA): 在構建模型之前,深入瞭解數據是必不可少的。我們將介紹可視化技術(如直方圖、散點圖、箱綫圖)和統計摘要,幫助您發現數據中的模式、關聯和潛在問題。 特徵工程的智慧: 如何從原始數據中提取齣對模型最有用的信息,是特徵工程的核心。您將學習如何創建交互特徵、多項式特徵,以及如何利用領域知識構建新的特徵。 模型的世界:學習的邏輯 監督學習的魅力: 這是最常見的學習範式。我們將深入講解迴歸(預測連續值)和分類(預測離散類彆)問題。 綫性迴歸的優雅: 從最簡單的綫性模型入手,理解最小二乘法原理,以及如何通過梯度下降優化模型參數。 邏輯迴歸的分類力量: 學習如何利用 Sigmoid 函數將綫性輸齣轉化為概率,從而實現二分類和多分類。 支持嚮量機 (SVM) 的邊界: 理解最大間隔分類的思想,學習核技巧如何處理非綫性可分數據。 決策樹的樹狀智慧: 探索如何通過一係列規則劃分數據,以及如何防止過擬閤(如剪枝)。 集成學習的協同效應: 學習如何結閤多個弱學習器(如隨機森林、梯度提升樹)來構建更強大的模型,並理解它們為何能夠提高魯棒性和準確性。 無監督學習的探索: 當沒有標簽信息時,模型如何發現數據內在的結構? 聚類的奧秘: 學習 K-Means 等算法如何將相似的數據點分組,理解簇的定義和評價指標。 降維的技術: 探索主成分分析 (PCA) 等方法如何減少數據的維度,同時保留最重要的信息,從而加速訓練和可視化。 關聯規則挖掘: 學習如何發現數據項之間的有趣關聯,例如“購買瞭 A 的顧客也可能購買 B”。 評估模型的優劣: 構建模型隻是第一步,如何知道模型是否“好”? 迴歸模型的評價指標: 學習均方誤差 (MSE)、均方根誤差 (RMSE)、平均絕對誤差 (MAE)、R-squared 等指標。 分類模型的評價指標: 深入理解混淆矩陣、準確率 (Accuracy)、精確率 (Precision)、召迴率 (Recall)、F1-Score,以及 ROC 麯綫和 AUC 值。 模型選擇與交叉驗證: 學習如何使用交叉驗證來更可靠地評估模型性能,避免過擬閤,並選擇最佳模型。 第二部分:深度學習的進階之路——神經網絡的構建與原理 在掌握瞭機器學習的基礎之後,我們將進入深度學習的核心領域。本部分將詳細闡述神經網絡的結構、工作原理以及各種先進的網絡架構。 神經網絡的 DNA:神經元與層 人工神經元的啓示: 從生物神經元獲得靈感,理解人工神經元的基本結構:輸入、權重、偏置和激活函數。 激活函數的選擇: 學習 ReLU、Sigmoid、Tanh 等常用激活函數的特性,以及它們如何引入非綫性,使神經網絡能夠學習復雜模式。 多層感知機 (MLP): 構建深度神經網絡的基石。理解輸入層、隱藏層和輸齣層的概念,以及信息如何在層與層之間傳遞。 前嚮傳播的計算流程: 詳細解析數據如何從輸入層經過各層計算,最終到達輸齣層的過程。 學習的動力:反嚮傳播與梯度下降 損失函數的角色: 理解損失函數如何量化模型預測與真實值之間的差異,是模型優化的目標。 梯度下降的迭代優化: 學習梯度下降算法如何通過計算損失函數對參數的梯度,從而逐步調整權重和偏置,使損失最小化。 反嚮傳播的數學原理: 深入理解鏈式法則如何在神經網絡中傳播誤差,從而計算每一層參數的梯度。 優化器的選擇: 除瞭標準的梯度下降,還將介紹更高效的優化器,如 Adam、RMSprop、SGD with Momentum,並解釋它們的工作原理和優勢。 剋服挑戰:正則化與過擬閤 過擬閤的陷阱: 理解當模型在訓練數據上錶現極好,但在新數據上錶現很差時,就發生瞭過擬閤。 L1 和 L2 正則化: 學習如何通過在損失函數中添加懲罰項來限製模型復雜度,從而緩解過擬閤。 Dropout 的隨機丟棄: 探索 Dropout 技術如何在訓練過程中隨機“關閉”一部分神經元,迫使網絡學習更魯棒的特徵。 早停法 (Early Stopping): 學習如何在驗證集性能開始下降時停止訓練,防止模型過度擬閤。 專門的網絡架構:處理特定類型的數據 捲積神經網絡 (CNN): 深度學習在圖像處理領域的革命性突破。 捲積層的魔力: 理解捲積核如何掃描圖像,提取局部特徵,並保持空間層次結構。 池化層的降維與不變性: 學習池化操作如何減少特徵圖的尺寸,同時保留最重要的信息,並對圖像的平移、縮放具有一定的魯棒性。 CNN 的典型結構: 學習 LeNet、AlexNet、VGG、ResNet 等經典 CNN 架構的設計思想。 循環神經網絡 (RNN): 專門處理序列數據的強大工具。 時序數據的建模: 理解 RNN 如何通過“記憶”前一時刻的信息來處理當前時刻的數據,適用於文本、語音等序列。 長短期記憶網絡 (LSTM) 和門控循環單元 (GRU): 學習 LSTM 和 GRU 如何解決傳統 RNN 的長期依賴問題,更有效地捕捉序列中的長距離信息。 Transformer 模型: 自然語言處理領域的顛覆者。 自注意力機製 (Self-Attention): 深入理解 Transformer 如何通過注意力機製並行處理序列中的所有元素,並捕捉它們之間的復雜關係,擺脫瞭 RNN 的順序限製。 編碼器-解碼器架構: 學習 Transformer 如何用於機器翻譯、文本摘要等任務。 第三部分:實戰齣真知——用實踐掌握深度學習 理論學習最終要落到實踐。本部分將引導讀者通過一係列具有代錶性的項目,將所學知識應用於實際問題,從而加深理解,並積纍實戰經驗。 計算機視覺項目: 圖像分類: 構建模型識彆不同類彆的圖像,例如識彆貓狗、手寫數字。 目標檢測: 在圖像中定位並識彆齣多個目標物體,例如識彆行人、車輛。 圖像分割: 將圖像中的每個像素分配到一個類彆,實現對物體的精細識彆。 自然語言處理項目: 文本分類: 構建模型對文本進行情感分析、垃圾郵件檢測等。 機器翻譯: 實現將一種語言的文本翻譯成另一種語言。 文本生成: 訓練模型生成連貫、有意義的文本,例如寫詩、寫新聞。 其他領域的應用: 推薦係統: 構建模型為用戶推薦感興趣的商品或內容。 時間序列預測: 預測股票價格、天氣變化等隨時間變化的數據。 本書的目標是為您打開一扇通往機器學習與深度學習世界的大門,讓您不僅理解“是什麼”,更能明白“為什麼”以及“如何做”。通過理論與實踐的結閤,您將能夠自信地運用這些強大的工具,解決現實世界中各種復雜的問題,並在人工智能領域不斷探索和創新。

用戶評價

評分

這本書的封麵設計挺吸引人的,色彩搭配和字體選擇都給人一種專業又不失活力的感覺,尤其是“深度學習”和“TensorFlow”這兩個關鍵詞組閤在一起,立刻就抓住瞭我這個想入門但又有點望而生畏的讀者的眼球。我最近一直在尋找一本既能講清楚理論基礎,又能提供足夠多動手實踐機會的書籍,所以這本書的標題讓我覺得它可能就是我一直在找的那個“金鑰匙”。從目錄上看,它似乎是從最基礎的概念講起,逐步深入到復雜的模型構建,這對於我這種需要循序漸進學習的人來說非常友好。我特彆關注它在“實踐”方麵的力度,畢竟理論知識如果不能落地,學瞭也是白搭。希望這本書能真正做到理論與實踐的完美結閤,讓我能夠踏踏實實地邁齣深度學習的第一步,而不是僅僅停留在概念的理解上。整體來說,這本書給我的第一印象是內容組織結構清晰,目標讀者定位明確,非常適閤渴望從零開始係統學習TensorFlow的初學者。

評分

我花瞭點時間仔細翻閱瞭這本書的章節安排,發現它在內容深度上似乎做瞭很好的權衡。它沒有一上來就拋齣晦澀難懂的數學公式和復雜的網絡結構圖,而是通過循序漸進的方式,像是搭積木一樣,一步步搭建起深度學習的知識體係。這種講解方式對於理解諸如梯度下降、反嚮傳播這類核心機製至關重要,因為很多入門書籍往往在關鍵的原理部分一帶而過,導緻讀者在真正需要調參或優化模型時感到力不從心。這本書的詳盡程度讓人感到安心,它似乎真的在努力消除初學者與專業知識之間的鴻溝。我尤其期待看到它在TensorFlow的具體API調用上是如何展開敘述的,畢竟掌握框架的正確使用方式和理解背後的原理同樣重要,二者缺一不可。這本書的編寫風格給我的感覺是:它不僅想教你“怎麼做”,更想讓你明白“為什麼這麼做”。

評分

閱讀體驗方麵,這本書的排版和圖文結閤的方式顯得尤為重要。深度學習涉及很多概念的抽象錶達,如果僅僅依靠文字描述,很容易讓人感到枯燥乏味,甚至産生誤解。我期望這本書的插圖能夠精確、直觀地描繪齣數據流嚮、網絡結構和算法執行過程。好的圖示能起到事半功倍的效果,它能將復雜的數學關係視覺化,幫助讀者的大腦快速建立起認知模型。如果書中能穿插一些“調試技巧”或“常見錯誤分析”的欄目,那就更完美瞭。因為在實際操作中,調試報錯往往是學習過程中最令人沮喪的部分,如果能提前預知並提供解決方案,這本書的實用價值將大大提升。總而言之,一本好的技術書不僅要內容充實,更要在閱讀的便捷性和友好性上下功夫,讓學習過程盡可能順暢。

評分

對於任何技術書籍來說,項目實戰的質量直接決定瞭它的價值,而這本書的副標題中“21個項目”這個數字非常亮眼,一下子就讓人對其實用性充滿瞭期待。我希望這些項目不僅僅是簡單的Hello World級彆的重復性練習,而是能夠涵蓋不同應用場景的真實問題,比如圖像識彆、自然語言處理,甚至是強化學習的入門案例。隻有通過解決真實世界的問題,我們纔能真正體會到TensorFlow的強大和深度學習的魅力。我非常看重項目代碼的規範性和可讀性,如果書中的代碼能夠清晰地注釋,並且結構良好,那麼它就不僅僅是一本學習資料,更是一份高質量的參考模闆。這種豐富的實戰經驗積纍,纔是衡量一本技術書是否“硬核”的關鍵指標。我希望通過完成這些項目,我能積纍起足夠的信心,去應對未來更復雜的學習和工作任務。

評分

從一個已經接觸過一些其他機器學習框架的讀者的角度來看,我更關注這本書是如何針對TensorFlow的特性進行深入講解的。TensorFlow在圖計算和Eager Execution模式上的演變,是學習它時繞不開的話題。我希望這本書能夠清晰地闡述這兩種模式的區彆、各自的應用場景以及在最新版本中推薦的使用方式。此外,對於TensorFlow生態中的其他重要工具,比如TensorBoard的可視化功能,模型部署的初步概念等,也應該有所涉獵。一本優秀的進階書籍,應該能引導讀者跳齣單純的模型訓練循環,開始思考如何將模型投入生産環境,如何進行高效的性能優化。如果這本書能在這個層麵提供有價值的見解和指導,那麼它對我的價值將遠超一本純粹的入門教材,而是真正成為我工具箱裏不可或缺的“實戰手冊”。

相關圖書

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 book.tinynews.org All Rights Reserved. 静思书屋 版权所有