震惊!丧心病狂的夕小瑶推出新一轮写作计划!
時(shí)至今日,距離小夕發(fā)布的第一篇正式文章已經(jīng)過去整三個(gè)月啦。今天又回頭看了一下自己寫的第一篇文章,不禁有點(diǎn)感慨“文風(fēng)”變了這么多,甚至有點(diǎn)受不了第一篇文章中的萌氣了\(//?//)\然后文章還寫的不怎么樣。。。
雖然第一篇文章寫的好差,還沒有任何排版和用戶體驗(yàn)可言,小夕自己都看不下去了,但是還是階段性的貼個(gè)鏈接出來以作紀(jì)念啦~
引爆人工智能黑夜的是!統(tǒng)!計(jì)!
其實(shí)小夕是真的沒有想到可以堅(jiān)持的寫到現(xiàn)在的,本來以為,開學(xué)后導(dǎo)師肯定又那么煩的把事情往我身上丟,還不給加工資(萬一哪天不小心被導(dǎo)師關(guān)注了,老師看到這里不要打我\(//?//)\,逃~),覺得可能寫寫就沒人看了,也沒得寫了,就掛掉惹。然而沒有想到,今天,寫文章竟然幾乎成了我的一個(gè)習(xí)慣。
其實(shí)現(xiàn)在小夕都覺得會有人喜歡看自己的文章是很不可思議的事情,小夕畢竟不是行業(yè)大牛,有時(shí)還會在文章中犯錯(cuò)誤,但是總有你們一直默默的容忍小夕,支持小夕,好不可思議。好像說謝謝有點(diǎn)俗氣,但是還是好謝謝你們啦。
然后,小夕就不啰嗦了,否則不小心煽情了又停不下來了~下面進(jìn)入正文。
訂閱號建立之初,文章就是想起什么寫什么,內(nèi)容很雜,很碎片。后來想了想,小夕致力于讓盡可能多的人看懂每一篇人工智能,尤其是機(jī)器學(xué)習(xí)相關(guān)的干貨文章,但是如果一直碎片的話,好像很難又通俗又系統(tǒng)的講解整個(gè)機(jī)器學(xué)習(xí)相關(guān)體系,必將導(dǎo)致知識特別零散不成體系,這樣就跟大部分中國人寫的書以及速成培訓(xùn)班沒有本質(zhì)區(qū)別了。所以在公眾號主頁下方的“舊的故事”標(biāo)簽的“萌味干貨”里,小夕將文章分成了三類:入門指導(dǎo)、科普干貨和技術(shù)干貨。
入門指導(dǎo)就不必說啦。
科普干貨就是以科普為目的,所以會繼續(xù)保持碎片化、廣覆蓋面的特點(diǎn),還會以一些比較欺騙性的文風(fēng)來做科普,比如《如何優(yōu)雅的追到女神夕小瑤》(這一篇是科普搜索算法)、《如果你跟夕小瑤戀愛了(上)》《(下)》(這兩篇是科普隱馬爾可夫模型)、《一位老師,一位領(lǐng)導(dǎo),一個(gè)讓全體學(xué)生考上目標(biāo)學(xué)校的故事》(這一篇是科普機(jī)器學(xué)習(xí)的AdaBoost模型)。小夕接下來會繼續(xù)保持這樣的文風(fēng)來做科普~
技術(shù)干貨是小夕的寫作計(jì)劃的重點(diǎn),訂閱號成立之初,技術(shù)干貨的知識點(diǎn)比較散。但是從不久前,小夕決定在這里以“為讀者建立大一統(tǒng)的機(jī)器學(xué)習(xí)體系”為核心目標(biāo),來努力寫出既容易懂,又有一定深度,又不孤立的文章。當(dāng)然,這是小夕努力實(shí)現(xiàn)的目標(biāo)啦,小夕在實(shí)現(xiàn)的過程中肯定有很多做的不好的地方,就要靠你們幫小夕改進(jìn)啦(嚶嚶嚶,羨慕背后有團(tuán)隊(duì)的公眾號作者)。
下面是小夕在技術(shù)干貨的寫作計(jì)劃(已完成冰山一角):
ps:同一個(gè)模型可能由于不同視角或者不同應(yīng)用場景而分成好幾篇文章講。
樸素貝葉斯←→邏輯回歸→神經(jīng)網(wǎng)絡(luò)→深度學(xué)習(xí)→概率圖模型
前饋神經(jīng)網(wǎng)絡(luò)→循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)→長短時(shí)記憶網(wǎng)絡(luò)(LSTM)
前饋神經(jīng)網(wǎng)絡(luò)→神經(jīng)張量網(wǎng)絡(luò)(NTN)
前饋神經(jīng)網(wǎng)絡(luò)→遞歸神經(jīng)網(wǎng)絡(luò)(Recursive NN)→矩陣-張量遞歸神經(jīng)網(wǎng)絡(luò)(MV-RNN)→遞歸神經(jīng)張量網(wǎng)絡(luò)(RNTN)
前饋神經(jīng)網(wǎng)絡(luò)→卷積神經(jīng)網(wǎng)絡(luò)(CNN)→卷積長短時(shí)記憶網(wǎng)絡(luò)(convLSTM,一種時(shí)空模型)
前饋神經(jīng)網(wǎng)絡(luò)→自編碼器(Auto-Encoder)
邏輯回歸→受限玻爾茲曼機(jī)(RBM)→玻爾茲曼機(jī)→概率圖模型
概率圖模型→有向圖模型→貝葉斯網(wǎng)絡(luò)
概率圖模型→無向圖模型→馬爾科夫隨機(jī)場→條件隨機(jī)場、玻爾茲曼機(jī)等
樸素貝葉斯←→隱馬爾可夫模型(HMM)
邏輯回歸←→條件隨機(jī)場(CRF)
隱馬爾可夫模型(HMM)←→條件隨機(jī)場(CRF)
若干機(jī)器學(xué)習(xí)模型→一般化機(jī)器學(xué)習(xí)
一般化機(jī)器學(xué)習(xí)→損失函數(shù)
一般化機(jī)器學(xué)習(xí)→最優(yōu)化算法
一般化機(jī)器學(xué)習(xí)→支持向量機(jī)(SVM)
小夕版線性代數(shù)→核函數(shù)、PCA等
上面的是暫時(shí)想好怎么寫的~還有一些知識點(diǎn)小夕也沒有來得仔細(xì)研究(比如強(qiáng)化學(xué)習(xí)、監(jiān)督學(xué)習(xí)中的lazy學(xué)習(xí)等),這些可能一時(shí)半會來不及考慮去寫。當(dāng)然實(shí)際中可能發(fā)現(xiàn)更好的講解路線,就會進(jìn)行動態(tài)調(diào)整,但是基本框架是這樣啦。好期待把這些所有文章寫完之后畫出一個(gè)大大的網(wǎng)絡(luò)~
然后,為了大家閱讀和梳理方便,小夕會將上面的框架放在訂閱號主頁下方的標(biāo)簽“知識網(wǎng)絡(luò)”里(好像要過幾個(gè)小時(shí)才能同步到所有人的設(shè)備),然后以后大家就可以方便的找到這個(gè)知識網(wǎng)絡(luò),并且進(jìn)入相應(yīng)文章啦~(當(dāng)然,懶懶的小夕經(jīng)常更新的不及時(shí),喵喵喵\(//?//)\)
最后,可憐的小夕已經(jīng)沒有精力推廣自己的訂閱號啦,但是幸運(yùn)的小夕有你們呀o(≧v≦)o~歡迎將小夕的小訂閱號推薦給需要的人哦~
總結(jié)
以上是生活随笔為你收集整理的震惊!丧心病狂的夕小瑶推出新一轮写作计划!的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 基于 KIF 的 iOS UI 自动化测
- 下一篇: 最新蚂蚁金服Java面试题:Docker