【技术好文转载】未来技术前瞻
據最近報道稱中國的芯片巨頭企業紫光展銳在最近研究出了幾款新的芯片產品,連高通都沒有想到中國的速度會如此之快。紫光展銳這一次搶先蘋果和華為一步發布了自己的6nm芯片,一舉打破了美國芯片技術在全球壟斷的地位。那么在如今芯片行業從微型化向智能化轉變的同時,還有那些技術值得我們去探索,這一講我還是分享我特別喜歡的李鐵夫老師的文章,從四個方面來剖析未來技術前瞻,把握科技動向。
?
一、新原理器件
什么是新原理器件?硅半導體的晶體管技術快要到極限了,到了環繞柵這個結構,已經是用柵極把整個溝道給完完全全地包裹起來了,達到了最強的控制能力。對于還能不能繼續縮小器件尺寸,我們不敢抱太大的希望。
那么自下而上的這條技術路徑是不是沒辦法繼續了呢?我們想能不能超越現在的這種硅半導體晶體管的器件結構呢?這就是新原理器件。
現在看來比較有希望的是碳納米管或者石墨烯這類低維材料,它們最大的優勢是電子在其中的傳輸速度比在硅材料當中要快得多。
你想想,我們不斷減小晶體管尺寸的目的是什么呢?就是想讓器件越來越快,功耗越來越低,方式只能是晶體管的溝道越來越短,這樣信息傳遞的時間才能更短。
可材料換成碳納米管或石墨烯就不一樣了,這些低維材料,就算不把器件做到7納米、5納米這么小,也可能達到同樣的信息處理時間和同樣低的功耗,器件的性能不就有了更大的提升空間嗎?
除了這些新型的低維材料,我覺得還有一個新原理器件值得你關注,就是自旋器件。
自旋是電子天然具有的一個物理維度,是量子計算的核心。其實自旋在經典計算中也有大用處。
你可以這么理解,自旋就是電子在順時針或者逆時針自轉,這其實就可以代表0和1嘛。所以,自旋器件的開關,就不要電子在兩個“地鐵站”之間流動了,只靠電子自轉的翻轉就行了。
這下電子流動帶來的傳輸時間和功耗就都可以避免了,所以,自旋器件是很有希望實現高速低功耗的器件。
不過這些新材料和新結構的工藝難度非常大,尤其是如果想要做出幾億,甚至幾十億個器件規模的集成電路,還要保證均勻性、可靠性,非常困難。
這些技術今天還只是在實驗室小規模研究階段,但未來會有很大的發展空間。
?
二、可重構芯片
像CPU或者GPU芯片,在硬件上不可變,但軟件上編程性很高,可以運行各種軟件,這是通用芯片。
像谷歌TPU這種定制芯片,它的特點就是硬件不可變,做出來之后硬件就定型了,它用靈活性交換來了高性能。FPGA雖然能做到硬件可編程,但是一種靜態的可編程,沒法根據軟件作出實時調整。
所謂“可重構”,就是說芯片內部的電路結構,可以根據軟件進行動態調整,對不同的軟件都力求達到定制化硬件的性能。
你可以把它的工作原理想象成鐵路網絡里面的扳道岔,也就是鐵路工人扳動鐵軌的道岔,實現火車運行線路的改變。只不過在可重構芯片里面有大量的道岔,而且每個道岔都是晶體管開關,可以非常非常快速地扳動,這就實現了根據具體問題,實時調整電路結構的功能,實現了硬件和軟件高度匹配。
為什么要發展可重構芯片呢?
專用芯片是人工智能技術在這幾年爆發的一個主要原因。在未來,為了滿足萬物互聯的需求,我們還會需要更多種類,但是小批量的專用芯片。但你也知道,專用芯片的困境就是成本高,只有谷歌、阿里這些大公司才玩得起。
所以我們想一想, CPU、GPU這種通用芯片可以運行各種軟件,聯想的計算機可以用,蘋果的計算機也可以用,可以跑Windows程序,也可以運行Linux和macOS。只有這樣,芯片研發高達幾億美元的成本才可能將合理地分攤到每顆芯片上。
這種經濟上的正反饋促進了芯片技術的發展,這是Intel可以崛起的原因。但專用芯片的高成本卻沒有這么大的銷售量來支撐,這里面天然存在性能和經濟性的矛盾。
我們自然期望,有沒有高性能又兼具經濟性的芯片呢?比如說,一顆芯片能針對于各種不同類型的問題、各種應用軟件都能自適應地形成一個最優的架構,也就是說,這顆芯片對于任何問題都是定制芯片,都能夠高效地解決問題。
可重構芯片技術就要實現這個目標。對于新的問題,軟件改變了,硬件能夠在幾十納秒的時間里面針對軟件需求進行改變。
因為一顆芯片就可以應對大量不同的場景,就有足夠的銷量來攤平開發成本,可重構芯片技術是當今最前沿的領域之一,未來十年,這個領域一定會有很大的突破。
?
三、經典芯片和量子計算混合
上面我們講的自下而上和自上而下的技術路徑,其實都還是在現在的芯片技術基礎上發展,在現有賽道上往前跑。
第三個要介紹的是,未來很有希望出現的全新的芯片架構。
其中有一個很大的可能性,就是經典芯片和量子計算相結合的混合計算芯片組。一旦實現的話,一定會給信息產業帶來量級上的提升。
量子計算并不是要取代現在的經典計算機,而是互為補充、協同工作。
量子計算一個主要的應用場景就是針對大規模的優化問題,可以實現指數加速,遠超經典計算系統。但量子計算還遠未成熟,相信會長期處于NISQ階段,也就是有噪聲的中等規模量子計算階段,還不能像理想中那樣解決大規模的實際問題。
所以有一個趨勢就是,要把經典芯片和量子計算芯片結合起來。
對于一個大規模的實際問題,我們需要有聰明的算法把這個問題分解,把其中困難的部分交給量子芯片來解決。而且,這個困難問題還不能太大,太大的話就要繼續分拆,直到規模足夠小,就可以用NISQ量子芯片來做了。最后再把這兩個系統的答案拼裝起來,給出一個最終答案。
未來,我相信這種經典加量子的混合計算方案,一定可以用來解決實際的人工智能問題。
接下來,當人工智能的算力越來越高,還可能有一個重要的研究方向,那就是,人工智能用于芯片設計,也就是用芯片研發出更好的芯片,換句話說就是芯片的自我進化。
谷歌團隊在2020年ISSCC大會上透露,正在把自家的TPU芯片用在集成電路設計中,比如電路布局這個環節。最新的結果是AI僅用6小時就完成了以往需要幾周才能完成的工作量,而且還做得更好,減少了布線數量,提高了面積使用率。
在未來,基于經典芯片的人工智能EDA軟件,或者是經典加量子混合計算的人工智能EDA都會逐步成熟,給芯片技術帶來前所未有的推動。
?
四、類腦芯片
最后要說其實是一種新的計算模式,叫類腦計算。
2020年7月15日,英國公司Graphcore發布了一款AI芯片,采用臺積電7納米加工工藝,上面集成了594億個晶體管。這可是非常大的一個數目,人的大腦也就是900億個神經元。
那么我們就懷疑,在這個將近600億的規模上有沒有可能出現智慧呢?不知道,我覺得不太容易。為什么呢?因為芯片的運算模式和人腦有很大區別。
現在芯片通用的運算模式叫做馮諾依曼體系,它的特點是數據的存儲和運算是分開進行的。比如我們的計算機里,數據存在內存里,運算要在CPU的運算模塊里進行。每次運算的時候,CPU的控制模塊,根據軟件的命令,把數據從內存里調到CPU的運算模塊進行運算。
你知道嗎?這個過程的效率非常低。
比如現在計算機里面有一個很嚴重的問題叫存儲墻,就是說內存里的數據量越來越大,CPU的處理能力越來越快,但它們之間的信息通道卻非常狹窄,就好像一個啞鈴。
可以說99%的計算時間和能耗都花在了數據的傳輸上,真正用于計算的只有1%。
其實這個模式跟我們大腦的運算完全不一樣。大腦的運算模式叫做“存算一體”,都是在神經元里面進行的。所以大腦進行如此復雜的抽象和推理運算,只有20瓦的功耗,遠遠低于現在的CPU芯片。
現在有一種技術就叫做類腦芯片,就是要仿照大腦的模式進行運算。類腦芯片的關鍵點就是存算一體。
這個怎么來實現呢?現在有好幾種技術都能做到了,這里我舉一個我認為最有希望的例子,叫做阻變存儲器。
所謂阻變是說器件的電阻會發生變化,電阻值會根據流過的電流來改變,換句話說就是你上一次的運算結果會以電阻值的形式保存在這個電阻里,來影響我下一次的計算。
這個機制跟我們大腦中神經元的工作機制是一樣的。利用這種新的器件結構和運算模式,類腦芯片很有希望實現高性能低功耗的智能運算,甚至我很期待達到一定規模后,會不會有新的智能現象涌現出來。
?
?
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的【技术好文转载】未来技术前瞻的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【MM】新建移动类型(Movement
- 下一篇: 【MM】 基于收货的发票校验