王飞跃教授:生成式对抗网络GAN的研究进展与展望
本次匯報的主要內容包括GAN的提出背景、GAN的理論與實現模型、發展以及我們所做的工作,即GAN與平行智能。?
生成式對抗網絡GAN
GAN是Goodfellow在2014年提出來的一種思想,是一種比較直接的思路。例如,想象我們有兩張圖片,一張是真的,一張是假的。那么對人類而言,如何去判斷這幅畫究竟是偽造的還是真的?我們又為什么可以這樣認為呢?比如圖1中,這個偽造圖的問題在于“畫中人”畫的不對,不是人,而是一只兔子,所以可以認為它是假的。而對于偽造者,他會去想:這里是該畫人的地方畫的不對,以后在這個地方改進一點,就可以畫出更真實的畫。第二次,等他畫出之后,大家可能又會發現這里那里又有另外一個問題。這樣循環迭代,不斷去改進,我們就可以提升我們的生成器,也就是這個故事中制造偽畫的這個人的水平。這同時我們也提高了偵探的水平。
圖1
事實上,GAN提出后很長一段時間,并沒有得到很好的發展。圖中是在Arxiv上搜索GAN關鍵詞得到的發表結果,可以看到,2016年NIPS會議之前,GAN的文章發表并不是很多,但是16年之后就發展了很多,目前呈一個指數增長的趨勢。
發表GAN文章的作者中,排在第一位的是Bengio,然后有Goodfellow以及國內的余勇教授。他們所研究的主要內容還是計算機視覺,也可以說這兩年的研究熱點主要還是集中在圖像生成這些方面。除此之外,我們可以看到,GAN還涉及許多其他內容,例如關于加密與安全、機器人、甚至包括天體物理的。由此可知,GAN的發展方向正在不斷擴大,從傳統的計算機視覺向其他方向擴展出去。
LeCun的訪談中提到對于深度學習,10年內最值得關注的一個idea就是GAN,后面我們會講到這是為什么。首先我們先來看一下已經有的、大家比較熟知的關于GAN的應用。圖2中,是使用GAN生成視頻中下一幀,相比于MSE方法可能造成下一幀人像沒有耳朵,但是使用GAN方法我們可以清晰看到人像是有耳朵的。
圖2
圖3
圖3中是使用GAN生成自動駕駛的圖像,即使用GAN生成圖像,再利用圖像去做自動駕駛的訓練。此外,在以下組圖中,可以看到使用GAN生成超分辨圖像,也是計算機視覺領域常用的一種工作。而Adobe的這個工作超出了傳統的GAN所進行的工作,即通過人手繪制的線條,自動生成山、草地這類的場景。也有研究做了類似的工作,為了給人添加頭發,只需進行簡單的涂鴉,就能靠GAN自動生成。如圖,是一個3D模型的生成,跟以往相比這是一個比較少見的工作,通過一副圖片,或者通過噪音,或添加一些隱藏變量,就可以生成新的3D模型。而圖中這個工作是圖像變換,即輸入一個圖像,我們得到一個抽象的圖像、或是素描、照片,這樣的一個工作也是以往的GAN所沒有涉及到的。?
GAN的提出背景
人工智能的研究層次?
人工智能一開始是從感知開始,漸漸向認知發展。最開始,我們希望機器像人一樣去判別什么東西在哪里,但最后我們希望它能夠完成一些創造性的工作,即它知道這個是什么,它可以去完成什么??梢钥吹?#xff0c;在機器學習發展以后,傳統的識別問題以已經得到了很大的突破。那么人工智能要向下一步發展,也就是做創造性和應用性的工作。
Feynman說:“what I cannot create,I do not understand”。一個東西我們無法創造,我們就無法真正的理解。我們也知道,Goodfellow在2014年12月發表的關于對抗樣本的研究時說到,神經網絡的圖像分類器,雖然它看起來可以知道它真正分類的是什么,它可以分類出貓、狗、各種東西,比人類高的正確率,然而事實上,它并不真正理解這是什么東西。為什么呢?因為通過加入一些很小的噪音就可以去欺騙它。這說明神經網絡并不真正理解它分類的是什么,他只是通過數據建立一種模式,這種模式與真實的世界是有很大差距的。如果我們為它加入一個創造的功能,會有助于它提高理解能力。當說到GAN,其實它的發展也有很長的歷史沿革。
早在GAN之前,就有許多關于生成模型的工作。生成模型一般是指隨機生成觀測數據的模型,那么它有別于一般我們所說的判別模型。生成模型是所有變量的全概率模型,判別模型是在給定觀測變量值的前提下,求目標變量的概率。
比如說給定一張圖片,它是貓的概率多大?那么這是一個判定模型,是條件概率模型。而這種模型不是生成模型,它幾乎沒有給信息或者給一個隨機的信息,它希望得到一個真實的圖片。比如這個常見的例子,即貓的模型,使用GAN生成貓的圖像。傳統的工作,我們可能只是去判別這是貓還是狗,而不是說讓它去生成怎么樣。對于GAN模型我們有很多的用處,比如說可以對高維分布的一個表示和處理,包括它可以嵌入強化學習中,生成供agent去學習的數據,或者使用它進行半監督學習,還有很多其他問題都會用到。?
一般來說,人工智能的研究出發點有兩個部分,一類就是從人類理解數據的角度去研究生成的東西。對于人類理解數據,我們知道人類的經驗是非常有限的,我們必須從某種數學或者現實中能夠感受到的直觀的例子去學習。那么常見的,在以前的時候我們做生成模型,我會先設定一個分布,比如說高斯分布,那么我們假設我們的圖像符合這個分布,只是我們還不知道參數的分布是什么,那我們可以通過數據去擬合這個分布。但是還有另外一種可能性,我們可以用機器或模型直接去理解這個數據。也就是我們不進行任何的假設,我們僅僅是從一個模型讓它去生成數據,然后我們再判斷這個數據究竟是對的還是錯的,是像真實數據一樣還是說和真實數據差的太遠,那么我們將會根據這個判斷反復去修正這個模型,這是理解機器數據的一個角度??梢钥吹皆谝酝纳赡P脱芯恐饕€是在以人類理解數據的角度,我們總希望去使用一個顯式的分布假設去設計我們的模型。比如說我們可能會設計一個高斯分布,或者像VAB里面做的,對數據加一個某種分布的噪音,讓我們的擬合函數去估計它的分布。但是GAN可以說是第一個比較廣泛為人所知的從數據角度出發擬合數據的模型。我們不再拘泥于任何的假設、不在給它任何的數據模分布,我們直接去學習。?
神經網絡與深度學習
當然,這樣一個工作顯然離不開現有技術的發展,也就是眾所周知的深度學習的發展。
我們知道人工智能的發展有三次熱潮,已經經歷了兩次低谷,第三次低谷會在什么時間我們還不知道。在最開始的時候,AI主要進行了定理證明和一些跳棋程序。那么可以看到這里面主要是使用一種規則手段,我們人工去設計它的規則。但是他有這么幾個問題,第一個這個規則好像不太適用,我們人類經驗有限,我們所設計的規則實際上受制于我們個人經驗來說,它不可能包括所有的,那么這會導致我們這個系統沒有辦法去適應新的數據,同時由于規則使用需要人工去設計方法,它會導致更新也不夠快,不能適應大量的數據情況。那么,第二次熱潮其實也還是解決這個問題。當時的想法是說如果人工不好,那么我們使用專家系統,將現有的領域專家請過來處理這些問題會不會好一些。這個時候其實神經網絡已經開始發展了,但是,大家都知道Minsky證明了傳統感知機沒法解決亦或問題,這個影響很大,導致進入了第二次低谷期。當第二個低谷期過了之后進入第三次熱潮,首先是1991年深藍戰勝了象棋冠軍,是IBM的一個工作,實際上這個工作還是基于規則式的模型,但是它使用了一個很強大的算力。我們可以看到第三次要開始的時候計算人工智能發展不僅僅和算法的設計有聯系,同時更多的和我們硬件有很大的關系。那么在今天的AI爆發的時候,主要的工作就是云計算、大數據、深度學習這三個方面??梢钥吹皆朴嬎愫痛髷祿际腔诨ヂ摼W的發展和我們現有的數據庫設計,使得我們收集數據的能力得到前所未有的加強。?
在前兩次,我們的數據需要人工收集,耗費了大量的時間,但是進入第三次AI爆發的時候,我們已經有了自動化收集數據的能力。在這個基礎上深度學習被提出來去處理這些大規模的數據,它同樣也得益于GPU的發展使得以往我們要花很長時間訓練的神經網絡現在可以很快的訓練,最出名的就是去年AlphaGo戰勝李世石和今年戰勝柯潔。那么在這時候,人工智能,或是深度學習就為大家所知。圖中所示是一個深度學習發展的的簡史,我們可以看到最早是從1958年開始,有神學家和心理學家對這個東西進行了研究,就是對神經網絡這個問題進行研究。但是很快Minsky就開始反對這樣的研究,從這里開始就停滯了。直到2007年往后,應到11年12年的時候,ICNet在ImageNet數據集上取得超越傳統方法將近10%的正確率的勝利,那么在之后,大公司都推動這樣一個新技術,都用它發展。?
對抗思想
最后就是對抗思想,在傳統的時候我們可能認為神經網絡訓練時使用的目標函數是需要人工去設計的。我們可能去設計一個MSE或是說其他的方法,我們需要有監督的對它進行學習。但是越來越多的人發現其實我們不需要人工去指定很明確的問題,我們可以用一個很大的反饋去控制它,也就是像AlphaGo這里面說的,我們用兩個網絡互相博弈,我們訓練一個差不多的網絡,然后我們兩個網絡誰輸了,那么去調整它。另一方面就是我剛才說的對抗問題。雖然和GAN并沒有很明確的關系,雖然他們做的是一樣的。我個人認為我們在對抗樣本這個案例中可以很明顯的看出,神經網絡實際上是存在一個本質的缺陷,就是它沒有辦法真正理解我們所看到的這種?;谶@個問題會推動我們工作的下一步發展。?
可以看到以上這些內容是對抗思想,將神經網絡、以及我們現在的深度模型以及現在的GPU發展結合起來。因此,我們的研究工作就很自然進入下一個階段,就是應該使用深度學習的模型去進行生成模型研究。?
GAN理論與實現模型
GAN框架
鑒于上面提到的局限,Goodfellow提出了GAN的思想。他的基本思想是設計這樣一個游戲,包括兩個玩家,其中一個就是生成器Generator,他的工作就是生成圖片,并且使得這個圖片看上去就是來自于訓練樣本,那么另外一個玩家就是判決器Descrimator,那么它的目標當然就是判決輸入圖片是否真的是訓練樣本,而不是生成的。它的整個框架大概是這樣子,一個隨機變量,隱空間的隨機變量——它可能采樣自一個高斯分布,它也可能是具有某種信息意義上的一個隱變量,他的維度可能在我們真實樣本、真實空間的維度以下。就那么將這個東西輸入我們的生成器,這是一個可微的函數G(z)。我們會將G(z)與真實樣本G都放入我們的Discriminator里面,它盡量判決我們的生成圖像是一個假的圖像。而G會盡量讓我們的判斷器誤以為這個圖像是來自于真實的圖像。但是這個D判決是否正確,它會將它的梯度回傳給G和D,這也就是為什么我們要強調G和D都是可微函數。因為如果它不可微,這時候我們的誤差是無法回傳的。那么通過這樣一個方式,我們就設計了這樣一個原始的GAN結構。?
當然有很多改進的模型,原始的GAN他的判別器和生成器都是一個全連接網絡,用于生成圖像?,F在主要是CNN也就是使用卷積神經網絡去設計我們的輸入輸出圖像。
對于自然語言理解方面的工作,比如說如果我們有一段文字。我們知道文字不是一個連續的數據,我們不可能像圖像一樣使用RGB值對它進行訓練。那么有很多解決辦法,SeqGAN是一個比較常見和大家常說到的一個模型,那么它實際上是將原始的使用增強學習生成的語言模型進行改進,使得它適合可以和我們的GAN結合在一起。
損失函數?
GAN的優點,它相比傳統模型的優點,是它生成的數據的復雜度和我們的維度是線性相關的。也就是說如果你要生成一個更大的圖像,你并不會像傳統模型一樣面臨指數上升的計算量,它只是一個神經網絡線性增大的過程。第二個是它的先驗假設非常少,那就是相比傳統模型最大的一個優點。也就是說,我們這里不對數據進行任何假設,沒有假設它服從任何的分布。第三個是它可以生成更高質量的樣本。但是這個原因是為什么,目前還沒有很好的一個說明。當然,相比傳統模型,它有優點自然也有缺點。傳統判別模型一般來說也是一個優化函數,我們知道對于凸優化而言,是有最優解的,我們肯定能達到的。但是GAN實際上是在一個雙人游戲中去尋找一個納什均衡點。像納什均衡點如果對于一個確定的策略,比如神經網絡,他是一個確定策略,我們輸入一個量肯定是得到確定的一個輸出。這時候你不一定確定你能找到一個納什均衡點。對于GAN尋找和優化納什均衡點的研究目前來說還是不夠的,這個工作實際上是很困難的。?
那么我們具體說一下,剛才我們在上一個模型中,我們說到判斷D是否正確,然后將梯度進行回傳,那么我們具體怎么判斷正不正確?在一篇論文中,提出了這樣一個原始的判別器性能函數。它實際上是一個普通二分類問題的交叉熵損失函數。區別在于,他的訓練數據分為兩部分,一部分來自于真實數據集,一部分來自于生成器。前半部分目標是確保真實數據分類正確,第二部分是希望它能夠有效判別出來數據是不是假的。?
前面說到了判別器的損失函數,我們現在說一下生成器的損失函數。GAN在設計中是一個雙人零和游戲。也就是生成器損失就是判別器的獲得。那么很自然的從這里出發,我們就可以設置我們生成器的損失函數就是判別器的損失函數的負數。在這個設置下,我們又進一步證明了GAN的真實分布和生成分布之前的J-S度量。但是事實上這里有一個問題,就是如果以一個很高的置信度去拒絕G的時候,我們公式的梯度會趨近于零。那么我們看到這個數據的主要來源都會來源于第一項,對于第二項,也就是根據每一個相關的地方來說,那么它的梯度其實就是很小的,在這種情況下你的訓練就可能會非常慢。那么這時候提出一個折中的解決方案,也是我們對G的損失函數不再考慮前面一項,也就不再考慮判別器判別真實樣本準不準,而只考慮它判別生成的樣本。也就是使用這樣一個指數函數,公式的第二項,那么我們生成器的最大化目標就是我們判別器的錯誤率。?
進一步,我們從概率角度上去考慮這個問題,也就是我們最小化生成模型和真實數據之間的K-L散度。最小化公式中的散度就等于最小化模型到數據的K-L散度。我們不會把生成器訓練到最優再去使用,實際使用中一般使用f-divergence。就是在求和符號這里換成f函數。
GAN的訓練算法?
那么結合完這些東西我們就可以具體說一下GAN算法。主要是這里面有有幾個問題,第一個問題是采樣的時候,我們對生成數據采樣和優化的時候,一般使用的是mini-batch的方法。也就是說我們會對它批量去處理。為了避免如果每次訓練一個樣本,會導致比較大的波動。第二個就是原始論文中的算法,實際上現在新的算法有改進,包括對梯度進行裁剪以及其他的事情。?
GAN的發展與應用
GAN的收斂問題?
我們看一下現代GAN的發展究竟還有哪些問題。最主要的一個例子就是GAN的不收斂問題,如果大家有試驗過可能會知道,GAN的收斂是很困難的。往往就是需要設置很多的參數,比如學習率,比如說你的網絡結構,你去很好的去提出G和D的能力,才能使得它最終達到收斂。最主要的原因來源于兩部分。第一,就是梯度消失的問題,也就是我們所說的當你、優化的時候,對于公式里我們的生成器、判別器的損失函數會存在梯度消失的問題,那么我們需要設計一些更好的損失函數,使得梯度消失問題得到解決。第二個就是模式發現問題,也就是說我們的生成器可能生成同樣的數據而不是多樣的數據。例如貓,它可能生成的都是黑貓、或者生成MNIST的數據全都是零。那么這個問題主要原因是來源于,因為我們的梯度下降實際上不區分min-max和max-min。那么會導致我們的生成器會希望多生成一些重復但是很安全的樣本。比如說我生了一些黑貓或生成一些0,甚至可能到這樣一個情況就是它生成的接真實的就完全一樣,但它只適合這樣一個情況。那么這是我們不希望,我們希望生成器會生成多樣樣本,盡量與真實樣本多樣化一致。
那么我們怎么辦呢?這個問題就留在后面我們具體解決,我們這里就簡單提一下。
首先,對于第一個問題,我們現在可以使用一些改進的目標函數。包括在16年的一個文章,那么就使用reference和virtual batch normalization。他的基本思想就是從不只是對一個樣本,而是對一批樣本進行梯度下降。還有LSGAN,即最小二乘GAN和WGAN,還有Loss-SensitiveGAN,這些都是使用不同的損失函數。就是對原始的損失函數進行處理,使得它平滑,不容易梯度消失。還有一種思路比較直接,就是對GAN提供一些額外信息。包括class-conditionGAN,將樣本輸入給GAN,希望它生成的東西也能被判別器判別為同樣的樣本。還有就是infoGAN。?
增強學習與模仿學習?
除了GAN的理論問題,我們還有GAN的應用問題。那么我這里主要講GAN和增強學習的應用。16年有一篇文章講到了GAN和Actor-Critic相似在什么地方。如這張圖所表示的,我們可以看到GAN的網絡結構就是類似于左邊這個,而Actor-Critic作為增強學習的一種方法,它的結構是右邊這種。
對于GAN來說,z輸入給G,然后由G的輸出給進去判別究竟是對還是不對。而對于Actor-Critic,我們會將環境中的狀態輸入給π,然后由π 來輸出給Q,也就是對于我們的Cridit評判者去評判我們的策略。我們看到增強學習和GAN的區別就在于這個z,因為我們知道這個環境的狀態實際上具有一定的隨機性,而在GAN中,這兩個被分離開來。我們看到這兩個東西的結構上具有一致性,但是它們是不是訓練方法具有一致性呢?實際上是確實是這樣,在Actor-Critic中可以用的大部分方法,都有人研究如何把增強學習中的性能穩定的方法移植到GAN中。那么另一方面就是GAN可以給增強學習提供一些數據。對于增強學習,數據是很稀缺的,我們可能很久也得不到這樣一個數據,或者說我們的數據采樣很昂貴,我們需要很高的代價去采集它,那我們可以設計一個這樣的框架,enhancedGAN,我們將GAN生成的數據給增強學習去處理。
對于模仿學習,16年的這篇文章,需要我們從專家樣本中學習到一個價值函數reward function,再用這個reward function去訓練我們的reinforcement learning agent。在篇文章中,方法很直接,我們不直接學習reward function,而是直接學習狀態到行為的映射(st,?at) 這里面的st 相當于GAN中的G,而at 相當于GAN中的G(z),我們通過這樣的結構直接將專家的行為定義為映射,而不需要經過中間的步驟。
以上就是到目前為止傳統的GAN的進展,那么后面我們會介紹一下GAN與我們做這些工作的進展。?
GAN與平行智能
賽博崛起:智能與時代
大家都知道AlphaGo,其實我認為AlphaGo的成功并不是來源于深度學習,而是來源于對抗,與GAN一樣的思路。
計算機發展到今天靠的是圖靈,這是一個假設,是無法證明的。但馮·諾伊曼提出這個假設,所有可以計算的數都可以用圖靈理論計算,這個東西是無法證明的,而且圖靈只能算有限的數,而實際上能算的數應該是無限的。但是根據這個假設,從馮·諾伊曼,發展到今天的計算機行業和計算機信息行業。AlphaGo產生的效果,就是類似于Church-Turing Thesis一樣的效應。
AlphaGo給了一條路,這條路是從牛頓到默頓,從小數據到大數據再到小知識的過程,是智能技術和智能產業時代的到來。AlphaGo之后,IT不再是信息技術,是智能技術(Intelligent Technology)。200年前IT是工業技術的意思,這跟波普爾的三個世界理論有密切相關,我只知道物理世界、心理世界,但是波普爾告訴我們還有第三世界,人工世界,所以今天是人工智能時代。
圍繞著物理技術發展了從農業技術到工業基礎,圍繞著心理世界發展了信息技術。走到今天,下面要開發的是第三世界,是人工世界,大數據變成資源,人口、智力都變成了資源,這就是導致IT變成新IT。從工業時代到信息時代,再到智能時代,這是平行的世界。
這個社會的基礎結構就是這么來的,整個社會基礎結構最初就是一張交通網。2000年有了全世界第一個高速公路網,直到后來工業時代到來,我們才有了電力網、能源網、電話網,發展到今天的互聯網,現在開始做物聯網。但是我覺得物聯網是一個過渡,很快就應該到了智聯網。今天已經不需要我來解釋什么是智能產業,這個智能產業需要智能的基礎設施,這個基礎設施就是CPSS,各種各樣的5.0,把社會空間和物理空間、信息空間、虛擬空間結合在一起的時候才能實現人機結合,才能做到哲學上的知行合一,你掌握的知識和采取的行動是一致的,最后達到虛實一體的境界。
31年前,Minsky的《心智社會》,給人工智能提出了深刻變革。它和卡爾·波普爾的三個世界有什么聯系?這五張網把三個世界圈在一起。我們圍繞著物理世界建交通網,圍繞著心理世界建立信息網,現在叫做虛擬世界、人工世界,叫智聯網。在這中間有過渡,有網絡2.0,能源網,有網絡4.0,物聯網。
現在很自然邁向工業5.0,1.0是蒸汽機,所以大學中有機械系,后來又來了電動機,大學又有了電機系,現在大學里還有幾個研究電機的,然后有了計算機,大學開始有了計算機系,現在研究算法、計算結構的也變成少數。物聯網,路由器的興起,很多學校已經開始物聯網學院,但是我覺得只是一個過渡,已經到了平衡時代,也就是智能時代。
這不是要和德國工業4.0對抗,工業4.0是很好的理念、口號、營銷策略,它的實質就是ICT+CPS。我們對這兩個詞的理解不一樣,什么是ICT?什么是CPS?4.0是過去上的理解,是信息與通訊技術,我們把他認為智能聯通技術,把CPS認為信息物理,我們認為信息物理社會系統,導致的后果就是不同的理解,不同的時代。
這就帶來了一個新時代??枴ぱ潘关愃购婉R克思是同一個名字,而且馬克思死的那年他生了,中華人民共和國誕生的那一年他寫了《歷史的起源與目標》,他在書中提到“軸心時代”的概念,公元800年到公元600年期間,世界人性大崛起,中國出了老子、孟子、孔子、莊子、孫子,古希臘出了蘇格拉底、伯拉圖、亞里士多德,還有猶太教、印度教、中東教,是第一軸心時代,是哲學上的突破。在軸心時代的末尾,西漢開始了絲綢之路,第一次全球化,可惜那時候技術不支持,后來來了第二次軸心時代,這是我個人的說法,因為很多人認為第二次軸心時代剛剛開始,是宗教上的變革。我認為文藝復興帶來的從哥白尼到伽利略、牛頓、愛因斯坦,這就是理性大崛起,帶來了科學。在這個時代開頭的時候,也是600年,從1400至1900,在這個時代的開始,中國又開始第二次全球化,鄭和下西洋,結果什么都沒帶回來,結果有了哥倫布大發現,發現美洲,實現了真正的第一次全球化,我叫它復合全球化,因為殖民,拿著槍指著你。
在這個時代之末,二戰結束之后,美國開始馬歇爾計劃,全球開始了自由貿易開始,零和,只賣給你東西,不給你技術,你必須老老實實待在原來的位置,你和平崛起他都不認。但是現在這個時代開始了,從哥德爾的不完備定理,就是因為哥德爾的不完備定理所以大家才往人工智能和計算機上發展,這是智性的大崛起帶來技術的突破,就是今天的智能技術。
第三軸心開始,中國開始“一帶一路”,這個軸心開始是正和,是包容。中華做人工智能第一人是王皓,王皓以前在西南聯大,和馮友蘭、金岳霖學哲學,后來到哈佛學哲學和邏輯。60年代,最簡單的計算機把羅素和懷特海在數學原理中上百個定義,在十幾分鐘就證明出來了,是定理證明第一人。我們這個領域很有名的赫伯恩獎第一個就給了他,后來吳文俊也得了這個獎。
他晚年和哥德爾研究哥德爾定義,成立了世界上第一個哥德爾學會,他任首任會長。他寫了兩本書,他說哥德爾的思想最后是要證明他的定理不太適合于數學方式,在人類社會上也適合,我把它廣義化。廣義的哥德爾定理,算法所表達的智能永遠小于人類用語言能表達的智能,能用語言表達出來的智能永遠小于大腦中存在的智能,這就是我為什么從來不相信奇點理論,永遠不相信人工智能超越人類。
老子《道德經》的前兩句話是“道可道非常道”,實際上就是廣義的哥德爾定理。哥德爾后來就是在研究怎么把他的定理推廣到社會領域中去。
為什么給大家講這個?是因為現在進入了一個新的時代,我稱之為第三軸心時代。我們現在就處于一個爆炸,就是智能的爆炸,理性已經到頭了,必須要靠人類的智性。到了第三世界,從理性認可變成了數據認可,這便是默頓定理。
所以我認為,像GAN這類算法只是開了個頭。我當然希望大家能好好掌握這類方法,就應該開創出自己的方法。將小數據導成大數據,將大數據導成小知識。實現從牛頓系統到默頓系統的跨越。它的基礎設施基礎結構就是虛實互動的平行。
平行系統與平行學習
所以我們這里做的,就是人工組織,就是個模型。不僅有物理的模型,還要把行為模型加進去。怎么導成大數據?就是靠計算實驗,好多實驗,物理實驗做不了,因為受到成本、法律、道德、科學上無可行性的約束。然后通過把模型的行為和實際的行為在CPS上進行大的反饋,因此就可以做平行執行。
所以以后所有的系統都應當是實際加人工??梢砸粚σ?、多對一、一對多、多對多。它與傳統的并行的區別在于并行是分而治之,而平行是擴而治之。
牛頓系統與默頓系統的區別在于,對于牛頓系統,你的分析不改變它的行為,而默頓系統中,你的分析一定會改變它的行為。模型與實際行為會產生一個巨大的鴻溝。這個鴻溝一是靠數據填補,二是靠平行加持。
其實GAN就是一個最簡單的平行系統,它兩邊都不全。它用一個判別器實現物理的系統,利用生成器產生人工系統。對我而言,這就是未來的平行機。它打通了3個世界:物理世界、人工世界、賽博空間。
所以以后一切都應當是平行的,駕駛是平行的,視覺是平行的、平行數據、平行材料等等。
所以我希望大家可以在課上完了之后,沿著平行的思路再想一想,把這一類方式變成牛頓到默頓的特例。我也很愿意在這個方向支持大家。謝謝。
————
編輯?∑ Gemini
來源:自動化學報
微信公眾號“算法數學之美”,由算法與數學之美團隊打造的另一個公眾號,歡迎大家掃碼關注!
更多精彩:
?如何向5歲小孩解釋什么是支持向量機(SVM)?
?自然底數e的意義是什么?
?費馬大定理,集驚險與武俠于一體
?簡單的解釋,讓你秒懂“最優化” 問題
?一分鐘看懂一維空間到十維空間
??本科、碩士和博士到底有什么區別?
?小波變換通俗解釋
?微積分必背公式
?影響計算機算法世界的十位大師
?數據挖掘之七種常用的方法
算法數學之美微信公眾號歡迎賜稿
稿件涉及數學、物理、算法、計算機、編程等相關領域,經采用我們將奉上稿酬。
投稿郵箱:math_alg@163.com
總結
以上是生活随笔為你收集整理的王飞跃教授:生成式对抗网络GAN的研究进展与展望的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 随记:我们需要怎样的数学教育?
- 下一篇: 做科研,到底应该看什么?