床长人工智能教程 - 目录
生活随笔
收集整理的這篇文章主要介紹了
床长人工智能教程 - 目录
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
目錄
請先看前言
前言
1 人工智能基礎
1.1 科普
1.1.1 什么是神經網絡
1.2 基礎知識
1.2.1 如何將數據輸入到神經網絡中
1.2.2 神經網絡是如何進行預測的
1.2.3 預測得準確嗎
1.2.4 網絡是如何進行學習的
1.2.5 計算圖
1.2.6 如何計算邏輯回歸的偏導數
1.2.7 向量化
1.2.8 如何開始使用python
1.2.9 如何向量化人工智能算法
1.2.10 一些基礎概念
1.2.11 特征工程
1.2.12 哪些特征是有價值的
1.2.13 數據清理
1.2.14 邏輯回歸與分類閾值
1.2.15 靜態訓練與動態訓練
【實戰編程】教你編寫第一個人工智能程序
1.3 神經網絡
1.3.1 淺層神經網絡
1.3.2 如何計算淺層神經網絡的前向傳播
1.3.3 如何計算淺層神經網絡的反向傳播
1.3.4 為什么需要激活函數
1.3.5 常見的激活函數
1.3.6 激活函數的偏導數
1.3.7 隨機初始化參數
1.3.8 非線性與激活函數
【實戰編程】教你編寫淺層神經網絡
1.3.9 為什么需要深度神經網絡
1.3.10 如何計算深度神經網絡
1.3.11 核對矩陣的維度
1.3.12 參數和超參數
1.3.13 監督學習型神經網絡
1.3.14 什么使深度學習火起來了
【實戰編程】構建深度神經網絡
1.4 額外知識
1.4.1 標量、向量、矩陣和張量
1.4.2 深入了解矩陣
1.4.3 范數
1.4.4 什么是微積分
1.4.5 古典微積分
1.4.6 極限微積分
1.4.7 偏導數
1.4.8 方向導數
1.4.9 什么是概率論
1.4.10 條件概率
1.4.11 什么是信息論
1.4.12 條件熵
1.4.13 互信息
1.4.14 相對熵(KL散度)
1.4.15 交叉熵
2 實戰優化
2.1 實戰基礎
2.1.1 如何配置數據集
2.1.2 欠擬合和過擬合
2.1.3 如何解決欠擬合與過擬合
2.1.4 L2正則化
2.1.5 dropout
2.1.6 數據增強
2.1.7 將輸入特征進行歸一化處理
2.1.8 梯度消失和梯度爆炸
2.1.9 如何判斷網絡是否有bug
2.1.10 H5文件
【實戰編程】參數初始化
【實戰編程】正則化
【實戰編程】梯度檢驗
2.2 優化算法
2.2.1 Mini-batch
2.2.2 如何為mini-batch選擇合理的大小
2.2.3 指數加權平均
2.2.4 深入理解指數加權平均
2.2.5 指數加權平均的偏差修正
2.2.6 動量梯度下降
2.2.7 RMSprop
2.2.8 Adam優化算法
2.2.9 學習率衰減
2.2.10 局部最優問題
【實戰編程】mini-batch梯度下降
【實戰編程】動量梯度下降
【實戰編程】Adam
【實戰編程】對比不同的優化算法
2.3 調試神經網絡
2.3.1 調參
2.3.2 為調參選擇采樣標尺
2.3.3 各種調參經驗
2.3.4 調參模式和工具
2.3.5 規范化隱藏層的輸入
2.3.6 BN的好處
2.3.7 使用模型時的BN
2.3.8 Softmax
2.3.9 深入理解softmax
2.3.10 如何選擇深度學習框架
2.3.11 手把手教你使用tensorflow
【實戰編程】手把手帶你學習Tensorflow v1.x
【實戰編程】手把手教你用tensorflow1.x構建一個完整的人工智能程序
【實戰編程】手把手帶你學習Tensorflow v2.x
3 深度學習項目實戰
3.1 項目實戰一
3.1.1 決策很重要
3.1.2 正交化
3.1.3 如何判斷哪個網絡更好?——F1分數
3.1.4 如何做選擇
3.1.5 驗證集與測試集的數據來源要一致
3.1.6 數據集的獲取與劃分
3.1.7 判定標準是可以變的
3.1.8 AI能力與人類能力的關系
3.1.9 利用貝葉斯誤差來判斷擬合度
3.1.10 人類誤差是多少呢?
3.1.11 AI超越人類
3.1.12 提升AI系統的一般流程
3.1.13 數據集的偏見
【實戰編程】大項目神經網絡
3.2 實戰項目二
3.2.1 手工分析錯誤
3.2.2 同時手工分析多個錯誤類別
3.2.3 標簽打錯了
3.2.4 如何修正錯誤標簽
3.2.5 快速地構建一個簡單的系統
3.2.6 驗證集要反應出真實目的
3.2.7 異源時的訓練驗證集
3.2.8 不常用的誤差分析
3.2.9 如何解決異源問題
3.2.10 遷移學習
3.2.11 如何實現遷移學習
3.2.12 什么時候才應該使用遷移學習?
3.2.13 多任務學習
3.2.14 深度理解多任務學習
3.2.15 一步到位——端到端學習
3.2.16 何時用端到端
3.2.17 如何制作數據集
【實戰編程】優化大項目
4 人臉識別
4.1 卷積神經網絡
4.1.1 智能視覺
4.1.2 卷積運算
4.1.3 邊緣檢測
4.1.4 深入理解邊緣檢測
4.1.5 padding
4.1.6 卷積步長
4.1.7 3D卷積
4.1.8 多過濾器
4.1.9 卷積層
4.1.10 卷積神經網絡
4.1.11 池化層
4.1.12 池化層(二)
4.1.13 一個較完整的卷積網絡
4.1.14 卷積的好處
【實戰編程】手把手教你構建卷積神經網絡(一)
【實戰編程】手把手教你構建卷積神經網絡(二)
【實戰編程】使用TensorFlow構建卷積神經網絡
4.2 深度卷積網絡
4.2.1 學習一些牛逼的例子
4.2.2 LeNet-5
4.2.3 AlexNet
4.2.4 VGG
4.2.5 殘差網絡
4.2.6 為什么殘差網絡能防止梯度問題
4.2.7 1×1卷積
4.2.8 Inception網絡
4.2.9 inception網絡與1×1卷積
4.2.10 完整的inception網絡
4.2.11 學會利用開源項目
【實戰編程】構建殘差網絡
4.3 目標檢測
4.3.1 物體定位
4.3.2 關鍵點探測
4.3.3 目標檢測
4.3.4 滑動窗口探測法
4.3.5 卷積化滑動窗口
4.3.6 如何判斷定位是否精準
4.3.7 如何避免一個物體被重復探測到?
4.3.8 兩個物體的中心在同一個格子怎么辦?
4.3.9 非極大值抑制的實現細節
4.3.10 候選區域
【實戰編程]】自動駕駛之車輛探測
4.4 風格遷移
4.4.1 風格遷移概述
4.4.2 差異性驗證
4.4.3 如何實現差異性驗證
4.4.4 如何訓練差異性驗證網絡
4.4.5 差異性驗證網絡的訓練技巧
4.4.6 差異性驗證網絡的另一種訓練方法
4.4.7 神經網絡每層到底都學會了什么?
4.4.8 神經風格遷移網絡
4.4.9 內容損失函數
4.4.10 什么是風格
4.4.11 風格損失函數
【實戰編程】風格轉換
【實戰編程】人臉識別
5 語音識別
5.1 循環序列模型
5.1.1 序列模型
5.1.2 序列模型的數據集
5.1.3 循環神經網絡RNN
5.1.4 RNN的計算過程
5.1.5 各種結構的RNN
5.1.6 人工智能寫作
5.1.7 普通RNN的記性不好
5.1.8 使用LSTM來增強RNN的記憶力
5.1.9 使用GRU來增強RNN的記憶力
5.1.10 雙向循環神經網絡BRNN
5.1.11 深度RNN
5.1.12 純pyhon構建RNN
【實戰編程】純pyhon構建RNN
【實戰編程】智能寫作
【實戰編程】智能音樂
【實戰編程】智能作曲
5.2 自然語言處理與詞嵌入
5.2.1 什么是詞嵌入
5.2.2 如何使用詞嵌入技術
5.2.3 詞嵌入與類比推理
5.2.4 如何得到詞嵌入矩陣表
5.2.5 word2vector模型
5.2.6 負采樣
5.2.7 Glove模型
5.2.8 情感分類
5.2.9 AI的偏見
5.2.10 詞嵌入除偏
【實戰編程】類比推理
【實戰編程】智能表情
【實戰編程]】智能表情-升級版
5.3 序列模型和注意力機制
5.3.1 seq2seq簡介
5.3.2 最佳翻譯
5.3.3 Beam搜索
5.3.4 Beam搜索升級版
5.3.5 問題是否出在Beam搜索上
5.3.6 如何判斷翻譯得是否精準
5.3.7 注意力模型
5.3.8 注意力模型詳述
5.3.9 如何設置注意力權重?
5.3.10 語音識別
【實戰編程】機器翻譯
【實戰編程】喚醒詞檢測
6 生成對抗網絡GANs
7 自動駕駛
8 強化學習
9 無監督學習
10 人工大腦
總結
以上是生活随笔為你收集整理的床长人工智能教程 - 目录的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: foxmail发生RCPT错误
- 下一篇: GPGPU-SIM 使用篇