深度学习语音降噪方法对比_人工智能-关于深度学习的基础方法
深度學(xué)習(xí)概述
深度學(xué)習(xí)的一些簡介,其要點如下:
- 深度學(xué)習(xí)實際上是基于具有多個隱藏層的神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí);
- 深度學(xué)習(xí)的思想來源于人類處理視覺信息的方式;
- 深度學(xué)習(xí)的發(fā)展得益于數(shù)據(jù)的井噴和計算力的飆升;
- 深度學(xué)習(xí)的理論基礎(chǔ)依然有待深入。
深度前饋網(wǎng)絡(luò)
作為學(xué)習(xí)模型的深度前饋網(wǎng)絡(luò)存在的一些共性問題,其要點如下:
- 深度前饋網(wǎng)絡(luò)利用深度架構(gòu)實現(xiàn)工程上可實現(xiàn)的對任意函數(shù)的通用逼近;
- 深度前饋網(wǎng)絡(luò)使用梯度下降的方法進行學(xué)習(xí);
- 深度前饋網(wǎng)絡(luò)的損失函數(shù)通常是交叉熵或最小均方誤差;
- 深度前饋網(wǎng)絡(luò)的隱藏神經(jīng)元通常使用整流線性單元作為傳遞函數(shù)。
深度學(xué)習(xí)中的正則化
實現(xiàn)正則化的思路,其要點如下:
- 基于訓(xùn)練數(shù)據(jù)的正則化方法包括數(shù)據(jù)集增強和 Dropout;
- 基于網(wǎng)絡(luò)架構(gòu)的正則化方法包括參數(shù)共享和傳遞函數(shù)正則化;
- 基于誤差函數(shù)和正則化項的正則化方法包括使用 L2 范數(shù)和 L1 范數(shù);
- 基于最優(yōu)化過程的正則化方法包括早停。
深度學(xué)習(xí)中的優(yōu)化
深度學(xué)習(xí)中實現(xiàn)優(yōu)化的思路,其要點如下:
- 基于訓(xùn)練數(shù)據(jù)的正則化方法包括數(shù)據(jù)集增強和 Dropout;
- 基于網(wǎng)絡(luò)架構(gòu)的正則化方法包括參數(shù)共享和傳遞函數(shù)正則化;
- 基于誤差函數(shù)和正則化項的正則化方法包括使用 L2 范數(shù)和 L1 范數(shù);
- 基于最優(yōu)化過程的正則化方法包括早停。
- 深度學(xué)習(xí)中的優(yōu)化需要解決病態(tài)矩陣、局部極小值和鞍點等問題;
- 深度學(xué)習(xí)優(yōu)化中的降噪方法包括動態(tài)采樣、梯度聚合和迭代平均;
- 深度學(xué)習(xí)優(yōu)化中的二階導(dǎo)數(shù)近似方法是對原始牛頓法的各種改進;
- 其他優(yōu)化方法包括動量方法、加速下降方法和坐標(biāo)下降方法。
自編碼器
自編碼器的原理與特點,其要點如下:
- 自編碼器是一種無監(jiān)督學(xué)習(xí)方式,目的在于學(xué)習(xí)數(shù)據(jù)的重新表達(dá);
- 多個淺層自編碼器級聯(lián)可以得到深度的棧式自編碼器,并使用無監(jiān)督預(yù)訓(xùn)練結(jié)合有監(jiān)督微調(diào)的方式加以訓(xùn)練;
- 稀疏自編碼器利用稀疏的高維表達(dá)提取出訓(xùn)練集中隱含的統(tǒng)計規(guī)律;
- 變分自編碼器對隱藏層做參數(shù)化處理,可以用于學(xué)習(xí)數(shù)據(jù)的生成模型。
深度強化學(xué)習(xí)
深度強化學(xué)習(xí)(deep reinforcement learning)是深度學(xué)習(xí)和強化學(xué)習(xí)的結(jié)合,它將深度學(xué)習(xí)的感知能力和強化學(xué)習(xí)的決策能力熔于一爐,用深度學(xué)習(xí)的運行機制達(dá)到強化學(xué)習(xí)的優(yōu)化目標(biāo),從而向通用人工智能邁進。
深度強化學(xué)習(xí)的簡單原理與方法分類,其要點如下:
- 自編碼器是一種無監(jiān)督學(xué)習(xí)方式,目的在于學(xué)習(xí)數(shù)據(jù)的重新表達(dá);
- 多個淺層自編碼器級聯(lián)可以得到深度的棧式自編碼器,并使用無監(jiān)督預(yù)訓(xùn)練結(jié)合有監(jiān)督微調(diào)的方式加以訓(xùn)練;
- 稀疏自編碼器利用稀疏的高維表達(dá)提取出訓(xùn)練集中隱含的統(tǒng)計規(guī)律;
- 變分自編碼器對隱藏層做參數(shù)化處理,可以用于學(xué)習(xí)數(shù)據(jù)的生成模型。
- 深度強化學(xué)習(xí)是深度學(xué)習(xí)和強化學(xué)習(xí)的結(jié)合,有望成為實現(xiàn)通用人工智能的關(guān)鍵技術(shù);
- 基于價值的深度強化學(xué)習(xí)的基本思路是建立價值函數(shù)的表示,通過優(yōu)化價值函數(shù)得到最優(yōu)策略;
- 基于策略的深度強化學(xué)習(xí)的基本思路是直接搜索能夠使未來獎勵最大化的最優(yōu)策略;
- 基于模型的深度強化學(xué)習(xí)的基本思路是構(gòu)造關(guān)于環(huán)境的轉(zhuǎn)移概率模型,再用這個模型指導(dǎo)策略。
對于廣大的AI開發(fā)者或者愛好者來說,參加人工智能競賽是強化學(xué)習(xí)和鍛煉自己的有效路徑,Fly-AI人工智能競賽平臺提供可執(zhí)行代碼、規(guī)范化數(shù)據(jù)、可用模型,并支持算法能力變現(xiàn)以及快速的迭代算法模型,根據(jù)跑分的排名還可以賺取大量的賞金。獲取更多項目樣例開源代碼 請訪問:https://www.flyai.com
總結(jié)
以上是生活随笔為你收集整理的深度学习语音降噪方法对比_人工智能-关于深度学习的基础方法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: css 加随机数 引用_在CSS中生成随
- 下一篇: ios 如何在cell中去掉_经典问题: