神经网络可视化,真的很像神经元!
不知道大家有沒有這種感覺?在接觸AI時,老感覺神經網絡就像個黑盒子,摸不著,看不透,賊神秘了。
其實,神經網絡就是對人腦運作模式的智能模擬。和人腦一樣,神經網絡模型的強大能力,是基于成千上萬個神經元的相互作用。以卷積神經網絡(CNN)為例,其結構就分為很多層,層與層之間通過線來連接。訓練的過程,就是將所有的線設置成合適的值的過程。
為了直觀展示,今天就通過可視化帶大家看看AI訓練時都長啥樣。(前方多圖預警!
首先,AI模型訓練前長這樣:
訓練中,依次經過卷積-激活、卷積-激活-池化、卷積-激活、卷積-激活-池化……這個過程大概長這樣:
最后,訓練完成后長這樣,一種張揚肆意的凌亂美有沒有:
可以看到,經過訓練后的模型之所以長得不再“均勻規整”,是因為被賦予了權值不一的特征。雖然訓練花了不少時間,但360度觀摩神經網絡的訓練后,讓人覺得再漫長的等待都是值得的。
看完上面炫酷的3D展示,接下來我們再通過AI模型全局結構圖,一步步拆解訓練過程,試著把CNN每一層的操作和變化都展示出來。
首先是卷積層,這一步主要是為了提取特征。因為AI在識別圖片時,并非一下子整張圖整體識別,而是先對圖中的每一個特征進行局部感知。
圖:卷積層
然后,到了激活層,這個步驟是對上面提取的特征做一次非線性映射。
圖:激活層接著,來到池化層,用白話來講就是去除冗余信息,保留關鍵信息。畢竟一張圖像通常包含了大量雜余信息,如果把整張圖的所有特征都學習下來,那可不把AI累死。
圖:池化層就這樣,以上操作重復N次,就形成了一個深層神經網絡,完成自動化的有效特征提取:
最后,來到全連接層,通過對所有得到的特征加權,計算輸出預測結果,大功告成。
10以上,就是一整套AI訓練時的正常畫風。那么,如果我們給AI悄摸摸喂點對抗樣本,訓練過程又是什么畫風呢?
所謂對抗樣本,是指對原始圖片添加細微干擾形成輸入樣本,讓人眼看來無明顯變化,卻能導致AI模型的預測結果走偏、出錯。
這里,舉個小熊貓圖片被加入噪聲的例子:
11首先看看原始的小熊貓圖片在神經網絡中的一個特征分布情況:
12再看看小熊貓圖片被加入對抗樣本后的特征分布情況:
13可以清楚看到,兩者的預測結果截然不同(小熊貓vs車子),但兩者在訓練過程中的不同之處大家有發現嗎?
乍看之下,兩者的特征權值分布非常相似,但仔細觀察就會發現一些略微不同。這里我們給池化層的第三個filter來個特寫鏡頭,大家來找找茬:
14如上,從這些細微差異中,可以窺見AI的預測逐漸“走偏”的蛛絲馬跡。
這就如同蝴蝶效應,最開始的一點點細微干擾,在經過訓練過程中重復多次的卷積、激活、池化后,越走越歪,最終輸出的結果和原始結果千差萬別。
也許,這就是神經網絡的奧秘所在吧。歡迎感興趣的同學與我們交流探討!
【AI安全小學生系列】往期回顧
照片被盜后,我用這種方法錘死了盜圖賊
大廠碼農隱秘圖片流出.jpg
AI是如何發現你手機里的羞羞照片的?
噓——別出聲!
每個老司機,都曾在深夜思考過清除馬賽克的方法
翻車的100種方法
如何從一個人入手,搞垮一家企業?
當黑客擁有算力——“洗白”的病毒
當AI吃了毒蘑菇…
我們為什么要閱后即焚?
視頻號最新視頻
十年磨礪極致性能,挑戰極限,打造業界性能NO.1
總結
以上是生活随笔為你收集整理的神经网络可视化,真的很像神经元!的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 升级 Vue3 大幅提升开发运行效率
- 下一篇: 腾讯蓝鲸智云社区版V6.0.3携手容器管