会议重点介绍芯片设计中的人工智能
會(huì)議重點(diǎn)介紹芯片設(shè)計(jì)中的人工智能
Conference highlights AI in chip design, IoT
舊金山-谷歌正在試驗(yàn)機(jī)器學(xué)習(xí)(ML)來(lái)執(zhí)行IC設(shè)計(jì)中的地點(diǎn)和路線,并取得了很好的效果。上周在這里舉行的ISSCC會(huì)議上宣布的這一發(fā)現(xiàn),對(duì)人工智能(AI)和電路設(shè)計(jì)同樣重要。
人工智能多年來(lái)一直是電子行業(yè)中規(guī)模最大的東西,推動(dòng)了半導(dǎo)體研究的巨大發(fā)展(同時(shí)也帶來(lái)了風(fēng)險(xiǎn)投資和頭條新聞)。承認(rèn)這一點(diǎn)是顯而易見(jiàn)的,今年集成固態(tài)電路會(huì)議(ISSCC)的主題是“集成電路為AI時(shí)代提供動(dòng)力”,開幕式全體會(huì)議旨在描繪人工智能在多大程度上扭曲了半導(dǎo)體空間。
四位全會(huì)發(fā)言人解釋了人工智能的需求如何推動(dòng)一種新的處理器類別的發(fā)展,這些處理器是專門為人工智能應(yīng)用而設(shè)計(jì)的(除了cpu和gpu);推動(dòng)了結(jié)構(gòu)的創(chuàng)新(例如芯片、多芯片封裝、中間層);甚至影響了量子計(jì)算的發(fā)展。
全體會(huì)議的第一位發(fā)言人是谷歌人工智能的負(fù)責(zé)人杰夫·迪恩。Dean發(fā)表了一份機(jī)器學(xué)習(xí)(ML)概述的更新,他已經(jīng)以一種或另一種形式呈現(xiàn)了一年多,以引導(dǎo)對(duì)ML place and route工具的討論。
人類專家在放置和布線ASIC設(shè)計(jì)方面的結(jié)果與低功耗ML加速器芯片的結(jié)果進(jìn)行了比較。谷歌故意掩蓋了部分圖片。
他首先簡(jiǎn)要回顧了人工智能和人工智能的歷史,從1995年學(xué)會(huì)玩西洋雙陸棋的機(jī)器開始,在學(xué)習(xí)國(guó)際象棋和圍棋的機(jī)器上運(yùn)行,現(xiàn)在可以處理復(fù)雜的電子游戲,如“星際爭(zhēng)霸”,而且“非常成功”。ML還被用于醫(yī)學(xué)成像、機(jī)器人技術(shù),計(jì)算機(jī)視覺(jué)、自動(dòng)駕駛車輛、神經(jīng)科學(xué)(分析腦部掃描顯微鏡)、農(nóng)業(yè)、天氣預(yù)報(bào)等等。
幾十年來(lái)推動(dòng)計(jì)算的基本思想是,問(wèn)題越大,你投入的處理能力就越大,你擁有的處理能力越強(qiáng),你能解決的問(wèn)題就越大。有一段時(shí)間,這適用于用人工智能解決問(wèn)題。
當(dāng)問(wèn)題空間變得令人難以置信的巨大時(shí),根本不可能積累足夠的cpu(和/或gpu)來(lái)解決它們。
然而,AI/ML并不需要典型的CPU/GPU電源。所需的數(shù)學(xué)可以更簡(jiǎn)單,要求的精度要少得多。這種實(shí)現(xiàn)帶來(lái)了實(shí)際的后果:專用于AI/ML的處理器不必像cpu/gpu那樣復(fù)雜。
這是導(dǎo)致設(shè)計(jì)用于推理的專用處理器的基本見(jiàn)解之一,比如谷歌自己的TensorFlow處理器,現(xiàn)在已經(jīng)是第三代了。順便說(shuō)一句,人們普遍認(rèn)為谷歌會(huì)在最近的某一天推出第四代TensorFlow,但如果有人希望谷歌能在ISSCC上透露有關(guān)它的任何信息,那么這些希望就破滅了。
在認(rèn)識(shí)到推理需要較少的精度之后,認(rèn)識(shí)到訓(xùn)練也需要更少的精度,這是相對(duì)較新的認(rèn)識(shí)。《經(jīng)濟(jì)時(shí)報(bào)》編輯莎莉·沃德·福克斯頓(Sally Ward Foxton)在她最近的博客《人工智能獲得自己的數(shù)字系統(tǒng)》中解釋了這個(gè)概念。
AI/ML處理器可以相對(duì)簡(jiǎn)單,因此相對(duì)便宜,而且我們現(xiàn)在擁有的AI/ML處理器功能強(qiáng)大,即使在龐大的數(shù)據(jù)集上也可以快速訓(xùn)練。迪恩解釋說(shuō),所有這些都使機(jī)器學(xué)習(xí)更容易深入到網(wǎng)絡(luò)邊緣。語(yǔ)音識(shí)別就是一個(gè)具體的例子;迪恩說(shuō),截至2019年,谷歌已經(jīng)有了一個(gè)相當(dāng)緊湊的智能手機(jī)模型。
每個(gè)人工智能應(yīng)用程序-自動(dòng)駕駛,醫(yī)學(xué)成像,玩圍棋-結(jié)果調(diào)整一個(gè)專用的AI/ML系統(tǒng)學(xué)習(xí)每一個(gè)。我們基本上每個(gè)應(yīng)用程序都有一個(gè)人工智能。下一個(gè)問(wèn)題是:有沒(méi)有可能讓一個(gè)學(xué)會(huì)了一件事的人工智能,然后看看它能否將所學(xué)知識(shí)應(yīng)用到其他類似的任務(wù)中?
迪恩說(shuō):“我提出這個(gè)問(wèn)題是因?yàn)槲覀冮_始考慮在ASIC設(shè)計(jì)中使用它作為位置和路徑。“地點(diǎn)和路線的游戲遠(yuǎn)比圍棋的游戲大得多。問(wèn)題的規(guī)模更大,盡管沒(méi)有像go那樣明確的目標(biāo)。”
Google為地點(diǎn)和路線創(chuàng)建了一個(gè)學(xué)習(xí)模型,然后開始尋找這個(gè)工具是否可以推廣。它能把它在一個(gè)設(shè)計(jì)上學(xué)到的東西應(yīng)用到一個(gè)從未見(jiàn)過(guò)的新設(shè)計(jì)上嗎?答案是毫不含糊的“是”
此外,迪恩說(shuō),“我們已經(jīng)得到了超人的結(jié)果,所有的街區(qū),我們已經(jīng)嘗試到目前為止。它做得稍微好一點(diǎn),有時(shí)甚至比人類好得多。
Google比較了使用機(jī)器學(xué)習(xí)(ML)自學(xué)如何分配和路由ASIC組件的AI的性能。測(cè)試電路是幾個(gè)不同的模塊,包括一個(gè)Ariane RISC-vcpu。Google比較了同一個(gè)ML在進(jìn)行漸進(jìn)式的額外調(diào)優(yōu)后的性能,所有這些都與商業(yè)工具的性能進(jìn)行了比較。
“更好”包括在非常短的時(shí)間內(nèi)演示地點(diǎn)和路線。可能需要一個(gè)人類專家?guī)字芑驇字懿拍芡瓿蛇@項(xiàng)任務(wù)。Dean報(bào)告說(shuō),ML放置器通常在24小時(shí)內(nèi)完成同樣的工作,其布局通常具有較短的線長(zhǎng)度。ML分配在自動(dòng)分配和路由工具上也做得很好。(閱讀《EDA中的機(jī)器學(xué)習(xí)加速設(shè)計(jì)周期》(Machine learning in EDA accelerates design cycle)中有關(guān)ML和位置和路徑的更多信息,請(qǐng)參閱《EE時(shí)報(bào)》姊妹刊物EDN中由Cadence的Rod Metcalfe撰寫)
Dean說(shuō),ML也可以擴(kuò)展到IC設(shè)計(jì)過(guò)程的其他部分,包括使用ML來(lái)幫助生成測(cè)試用例,這些測(cè)試用例在ASIC設(shè)計(jì)驗(yàn)證中更充分地運(yùn)用狀態(tài)空間,也可能使用ML來(lái)改進(jìn)高層綜合,從而從高層描述中得到更優(yōu)化的設(shè)計(jì)。
然而,所有這些對(duì)于ML來(lái)說(shuō)意味著什么,和它對(duì)加速IC設(shè)計(jì)進(jìn)度的意義一樣重要。如果一個(gè)ML可以在一個(gè)類別中進(jìn)行泛化,那么它是否可以泛化為在其他類別中執(zhí)行任務(wù)?
“未來(lái)的ML模型會(huì)是什么樣子?”迪恩問(wèn)道。“我們能訓(xùn)練一個(gè)模型來(lái)概括類似的任務(wù)嗎?理想情況下,我們需要一種能夠?qū)W習(xí)完成數(shù)千或數(shù)百萬(wàn)項(xiàng)任務(wù)的模型。”
The artificial intelligence Internet of things (AIoT)
人工智能物聯(lián)網(wǎng)
聯(lián)發(fā)科技高級(jí)副總裁兼首席戰(zhàn)略官高鴻“勞倫斯”盧(音)談到人工智能如何改變所有與互聯(lián)網(wǎng)相連的事物,人工智能物聯(lián)網(wǎng)(AIoT)將從今天的數(shù)百億臺(tái)設(shè)備迅速擴(kuò)展到2030年全球約3500億臺(tái)設(shè)備。
人工智能正在走向邊緣,部分原因是它可以(正如迪恩在前面的課程中所提到的),而且在許多情況下,它不得不這樣做,原因包括減輕數(shù)據(jù)中心日益增長(zhǎng)的處理負(fù)擔(dān),最小化網(wǎng)絡(luò)上的流量,以及因?yàn)橐恍?yīng)用程序需要或?qū)⒆詈玫毓ぷ髟诒镜靥幚砩稀?/p>
局部處理必須很快,必須專門為人工智能計(jì)算而設(shè)計(jì),而且必須非常節(jié)能。
它們本質(zhì)上是一種新的處理器類別。Loh稱之為人工智能處理器單元(APU)。其他人把它們稱為神經(jīng)處理單元(NPU)、大腦處理單元(BPU)和其他名稱。舉例來(lái)說(shuō),APU可能不如CPU靈活,但由于是專門制造的,APU可以以比CPU低55倍的速度快20倍。
Loh說(shuō),APU的開發(fā)者們正在開發(fā)一種能以3個(gè)TOPS/Watt達(dá)到1個(gè)TOPS的設(shè)備。他說(shuō)他相信10個(gè)TOPS/W是可以實(shí)現(xiàn)的。他說(shuō),最終有可能以30個(gè)TOPS/W的速度達(dá)到100個(gè)TOPS。
并非巧合的是,聯(lián)發(fā)科的研究人員在ISSCC上發(fā)表了一篇單獨(dú)的論文,提出了一個(gè)“3.4到13.3TOPS/w3.6的雙核深度學(xué)習(xí)加速器,用于7nm 5G智能手機(jī)SoC中的多功能人工智能應(yīng)用。”
在7nm。通過(guò)沿著摩爾定律曲線向更小的工藝節(jié)點(diǎn)至少多跑一步,從目前的7nm到5nm,可以獲得性能改進(jìn)。洛伊說(shuō),摩爾定律仍然適用。
然而,并非沒(méi)有警告。隨著集成度的增加,晶體管數(shù)量也在增加,繼續(xù)遵循經(jīng)典的摩爾定律曲線,“但是每只晶體管的成本卻沒(méi)有遵循,”Loh說(shuō)。此外,由于芯片設(shè)計(jì)的復(fù)雜性,以及工藝步驟變得越來(lái)越復(fù)雜,尖端設(shè)備的成本正在飆升,禁止小公司使用這項(xiàng)技術(shù)。還有收益率問(wèn)題。
Loh說(shuō),解決這些問(wèn)題的一個(gè)常見(jiàn)方法是拆分模具。作為一個(gè)實(shí)際問(wèn)題,這可能意味著使用諸如芯片技術(shù)之類的方法。他說(shuō):“這會(huì)導(dǎo)致比摩爾定律更好的結(jié)果。”。無(wú)論是芯片還是其他一些架構(gòu)方法,這都意味著互連面臨更多挑戰(zhàn)。
System technology “co-optimization”
系統(tǒng)技術(shù)“協(xié)同優(yōu)化”
Imec的項(xiàng)目總監(jiān)Nadine collarert將全會(huì)的主題推進(jìn)了下一步,討論了分離芯片的必要性,并找出了未來(lái)集成電路的替代結(jié)構(gòu)和體系結(jié)構(gòu)。稱之為系統(tǒng)技術(shù)協(xié)同優(yōu)化,或STOC。
摩爾定律很可能適用于未來(lái)幾年,但CMOS的規(guī)模越來(lái)越具有挑戰(zhàn)性,用一系列越來(lái)越復(fù)雜的器件結(jié)構(gòu)的例子來(lái)說(shuō)明這一點(diǎn),包括(但不限于)finfet、納米片和叉片。
Imec證明了在絕緣體上硅(SOI)背景上以納米脊?fàn)钌L(zhǎng)未指定的III-V材料的能力。
必須有所付出。我們需要一種新的方法,“我們相信3D技術(shù)是最好的方法。這包括多芯片封裝,使用粘接,甚至在設(shè)備級(jí),與其他標(biāo)準(zhǔn)單元進(jìn)行精細(xì)級(jí)連接。”
要想知道要使用哪種技術(shù),需要將系統(tǒng)需求與可用選項(xiàng)的屬性相匹配。“那將是一個(gè)復(fù)雜的練習(xí),”科勒特說(shuō)。這將對(duì)EDA供應(yīng)商施加壓力,要求他們提供工具,使設(shè)計(jì)者能夠權(quán)衡他們的選擇。
無(wú)線通信系統(tǒng)的前端模塊將是一個(gè)特殊的挑戰(zhàn)。“一般來(lái)說(shuō),這些系統(tǒng)是最多樣化的系統(tǒng)-它們有許多不同的組件,采用不同的技術(shù),而且隨著天線、功率放大器、濾波器的增加,這種復(fù)雜性將增加…”
該行業(yè)正朝著更高頻率和更高效率的方向發(fā)展。一種選擇是將III-V材料(例如GaN和SiC)與CMOS結(jié)合,以獲得這兩種材料的優(yōu)點(diǎn)。這可以通過(guò)3D集成來(lái)實(shí)現(xiàn),展示了幾個(gè)例子,包括在絕緣體硅(SOI)襯底上生長(zhǎng)的帶有III-V材料的3D納米脊的圖像,“但要實(shí)現(xiàn)這一點(diǎn),還需要做很多工作。”
至于回憶?Collarert說(shuō):“人工智能和ML等新應(yīng)用正在推動(dòng)路線圖的發(fā)展。”。他們需要快速存取存儲(chǔ)器。“內(nèi)存計(jì)算是一種推動(dòng)力,隨著邏輯和內(nèi)存的緊密結(jié)合,3D封裝當(dāng)然非常重要。”
未來(lái),在高級(jí)應(yīng)用程序中使用flash將意味著堆砌更多的層。也有改善當(dāng)前存儲(chǔ)的希望。“要做到這一點(diǎn),我們必須研究溝道移動(dòng)性,這意味著要研究III-V材料。”并且,通過(guò)擴(kuò)展,我們將研究一層硅和一層III-V材料堆疊在一起的三維結(jié)構(gòu)。
與此同時(shí),在DRAM中,電容器正從低矮的圓柱體發(fā)展到支柱,這是第三維度的又一次轉(zhuǎn)變。其他內(nèi)存選項(xiàng)包括用于緩存替換的磁存儲(chǔ)器,以及3D存儲(chǔ)類存儲(chǔ)器-科勒特指出,Imec已經(jīng)展示了一種垂直FEFEFET(鐵電場(chǎng)效應(yīng)晶體管),但仍需要更多的研究。
所有這些存儲(chǔ)的發(fā)展,“都是在機(jī)器學(xué)習(xí)的背景下進(jìn)行的。人工智能正在蓬勃發(fā)展。其中很多都是在云端,但出于各種原因,我們希望將其移到邊緣,在那里能源將受到限制。” 與聯(lián)發(fā)科一樣,Imec
als相信達(dá)到10K TOPS/W是可能的。
“繼續(xù)擴(kuò)大規(guī)模。派對(duì)還沒(méi)結(jié)束!”她總結(jié)道。“新的存儲(chǔ)可能不會(huì)出現(xiàn)在路線圖中,但它們可能在機(jī)器學(xué)習(xí)中有應(yīng)用。”
量子計(jì)算
IBM研究部主任Dario Gil在全會(huì)結(jié)束時(shí)發(fā)表了“下一步是什么”的演講,他說(shuō)這是廣義人工智能,幾乎可以肯定這將在量子計(jì)算機(jī)上實(shí)現(xiàn)。也就是說(shuō),他演講的主旨是最大的好處可能來(lái)自于比特(數(shù)字處理)、神經(jīng)元(AI)和量子比特(量子計(jì)算)的互補(bǔ)使用。
他指出,IBM在2016年通過(guò)云端開放了第一臺(tái)量子電腦的接入,目前已經(jīng)可以使用15臺(tái)量子電腦,其中包括最新的53量子位機(jī)型。
總結(jié)
以上是生活随笔為你收集整理的会议重点介绍芯片设计中的人工智能的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 堆叠式传感器架构带来先进的视觉功能
- 下一篇: MEMS传感器作为变革的驱动力