机器学习与流体动力学:谷歌AI利用「ML+TPU」实现流体模拟数量级加速
作者|魔王
?來(lái)源|機(jī)器之心
谷歌 AI 最近一項(xiàng)研究表明,利用機(jī)器學(xué)習(xí)和硬件加速器能夠改進(jìn)流體模擬,且不損害準(zhǔn)確率或泛化性能。
流體數(shù)值模擬對(duì)于建模多種物理現(xiàn)象而言非常重要,如天氣、氣候、空氣動(dòng)力學(xué)和等離子體物理學(xué)。流體可以用納維 - 斯托克斯方程來(lái)描述,但大規(guī)模求解這類方程仍屬難題,受限于解決最小時(shí)空特征的計(jì)算成本。這就帶來(lái)了準(zhǔn)確率和易處理性之間的權(quán)衡。
不可壓縮流體通常由如上納維 - 斯托克斯方程來(lái)建模。
最近,來(lái)自谷歌 AI 的研究人員利用端到端深度學(xué)習(xí)改進(jìn)計(jì)算流體動(dòng)力學(xué)(CFD)中的近似,以建模二維渦流。對(duì)于湍流的直接數(shù)值模擬(direct numerical simulation, DNS)和大渦模擬(large eddy simulation, LES),該方法獲得的準(zhǔn)確率與基線求解器相同,而后者在每個(gè)空間維度的分辨率是前者的 8-10 倍,因而該方法實(shí)現(xiàn)了 40-80 倍的計(jì)算加速。在較長(zhǎng)模擬中,該方法仍能保持穩(wěn)定,并泛化至訓(xùn)練所用流以外的力函數(shù)(forcing function)和雷諾數(shù),這與黑箱機(jī)器學(xué)習(xí)方法正相反。此外,該方法還具備通用性,可用于任意非線性偏微分方程。
論文地址:
https://arxiv.org/pdf/2102.01010.pdf
該研究作者之一、谷歌研究員 Stephan Hoyer 表示:這項(xiàng)研究表明,機(jī)器學(xué)習(xí) + TPU 可以使流體模擬加速多達(dá)兩個(gè)數(shù)量級(jí),且不損害準(zhǔn)確率或泛化性能。
至于效果如何呢?論文共同一作 Dmitrii Kochkov 展示了該研究提出的神經(jīng)網(wǎng)絡(luò)與 Ground truth、基線的效果對(duì)比:
首先是雷諾數(shù) Re=1000 時(shí),在 Kolmogorov 流上的效果對(duì)比:
其次是關(guān)于衰變湍流(decaying turbulence)的效果對(duì)比:
最后是雷諾數(shù) Re=4000 時(shí),在更復(fù)雜流上的效果對(duì)比:
方法簡(jiǎn)介
用非線性偏微分方程描述的復(fù)雜物理系統(tǒng)模擬對(duì)于工程與物理科學(xué)而言非常重要。然而,大規(guī)模求解這類方程并非易事。
谷歌 AI 這項(xiàng)研究提出一種方法來(lái)計(jì)算非線性偏微分方程解的準(zhǔn)確時(shí)間演化,并且其使用的網(wǎng)格分辨率比傳統(tǒng)方法實(shí)現(xiàn)同等準(zhǔn)確率要粗糙一個(gè)數(shù)量級(jí)。這種新型數(shù)值求解器不會(huì)對(duì)未解決的自由度取平均,而是使用離散方程,對(duì)未解決的網(wǎng)格給出逐點(diǎn)精確解。研究人員將受分辨率損失影響最大的傳統(tǒng)求解器組件替換為其學(xué)得的組件,利用機(jī)器學(xué)習(xí)發(fā)現(xiàn)了一些算法。
如下圖 1a 所示,對(duì)于渦流的二維直接數(shù)值模擬,該研究提出的算法可以在每個(gè)維度的分辨率粗糙 10 倍的情況下維持準(zhǔn)確率不變,也就是說獲得了 80 倍的計(jì)算時(shí)間改進(jìn)。該模型學(xué)習(xí)如何對(duì)解的局部特征進(jìn)行插值,從而能夠準(zhǔn)確泛化至不同的流條件,如不同受力條件,甚至不同的雷諾數(shù)(圖 1b)。
研究者還將該方法應(yīng)用于渦流的高分辨率 LES 模擬中,獲得了類似的性能提升,在網(wǎng)格分辨率粗糙 8 倍的情況下在 Re = 100, 000 LES 模擬中維持逐點(diǎn)準(zhǔn)確率不變,實(shí)現(xiàn)約 40 倍的計(jì)算加速。
圖 1:該研究提出方法與結(jié)果概覽。a)基線(direct simulation)與 ML 加速(learned interpolation)求解器的準(zhǔn)確率與計(jì)算成本對(duì)比情況;b)訓(xùn)練與驗(yàn)證樣本圖示,展示出該模型強(qiáng)大的泛化能力;c)該研究提出「learned interpolation」模型的單時(shí)間步結(jié)構(gòu),用卷積神經(jīng)網(wǎng)絡(luò)控制標(biāo)準(zhǔn)數(shù)值求解器對(duì)流計(jì)算中學(xué)得的近似。
研究者使用數(shù)據(jù)驅(qū)動(dòng)離散化將微分算子插值到粗糙網(wǎng)格,且保證高準(zhǔn)確率(圖 1c)。具體而言,將求解底層偏微分方程的標(biāo)準(zhǔn)數(shù)值方法內(nèi)的求解器作為可微分編程進(jìn)行訓(xùn)練,在 JAX 框架中寫神經(jīng)網(wǎng)絡(luò)和數(shù)值方法(JAX 框架支持反向模式自動(dòng)微分)。這允許對(duì)整個(gè)算法執(zhí)行端到端的梯度優(yōu)化,與密度泛函理論、分子動(dòng)力學(xué)和流體方面的之前研究類似。研究者推導(dǎo)出的這些方法是特定于方程的,需要使用高分辨率真值模擬訓(xùn)練粗糙分辨率的求解器。由于偏微分方程的動(dòng)態(tài)是局部的,因此高分辨率模擬可以在小型域內(nèi)實(shí)施。
該算法的工作流程如下:在每一個(gè)時(shí)間步中,神經(jīng)網(wǎng)絡(luò)在每個(gè)網(wǎng)格位置基于速度場(chǎng)生成隱向量,然后求解器的子組件使用該向量處理局部解結(jié)構(gòu)。該神經(jīng)網(wǎng)絡(luò)為卷積網(wǎng)絡(luò),具備平移不變性,因而允許解結(jié)構(gòu)在空間中是局部的。之后,使用標(biāo)準(zhǔn)數(shù)值方法的組件執(zhí)行納維 - 斯托克斯方程對(duì)應(yīng)的歸納偏置,如圖 1c 灰色框所示:對(duì)流通量(convective flux)模型改進(jìn)離散對(duì)流算子的近似;散度算子(divergence operator)基于有限體積法執(zhí)行局部動(dòng)量守恒;壓力投影(pressure projection)實(shí)現(xiàn)不可壓縮性,顯式時(shí)間步算子(explicit time step operator)使動(dòng)態(tài)具備時(shí)間連續(xù)性,并允許額外時(shí)變力的插值。「在更粗糙網(wǎng)格上的 DNS」將傳統(tǒng) DNS 和 LES 建模的界限模糊化,從而得到多種數(shù)據(jù)驅(qū)動(dòng)方法。
該研究主要關(guān)注兩種 ML 組件:learned interpolation 和 learned correction。此處不再贅述,詳情參見原論文。
實(shí)驗(yàn)結(jié)果
加速 DNS
一旦網(wǎng)格分辨率無(wú)法捕捉到解的最小細(xì)節(jié),則 DNS 的準(zhǔn)確率將快速下降。而該研究提出的 ML 方法極大地緩解了這一效應(yīng)。下圖 2 展示了雷諾數(shù) Re = 1000 的情況下在 Kolmogorov 流上訓(xùn)練和評(píng)估模型的結(jié)果。
而就計(jì)算效率而言,10 倍網(wǎng)格粗糙度的情況下,learned interpolation 求解器取得與 DNS 同等準(zhǔn)確率的速度也要更快。研究者在單個(gè)谷歌云 TPU v4 內(nèi)核上對(duì)該求解器進(jìn)行了基準(zhǔn)測(cè)試,谷歌云 TPU 是用于機(jī)器學(xué)習(xí)模型的硬件加速器,也適用于許多科學(xué)計(jì)算用例。在足夠大的網(wǎng)格大小(256 × 256 甚至更大)上,該研究提出的神經(jīng)網(wǎng)絡(luò)能夠很好地利用矩陣乘法單元,每秒浮點(diǎn)運(yùn)算的吞吐量是基線 CFD 求解器的 12.5 倍。因此,盡管使用了 150 倍的算術(shù)運(yùn)算,該 ML 求解器所用時(shí)間仍然僅有同等分辨率下傳統(tǒng)求解器的 1/12。三個(gè)維度(兩個(gè)空間維度和一個(gè)時(shí)間維度)中有效分辨率的 10 倍提升,帶來(lái)了 10^3/12 ≈ 80 倍的加速。
此外,研究者還考慮了三種不同的泛化測(cè)試:大型域規(guī)模;非受迫衰減渦流;較大雷諾數(shù)的 Kolmogorov 流。
首先,研究者將同樣的力泛化至較大的域規(guī)模。該 ML 模型得到了與在訓(xùn)練域中同樣的性能,因?yàn)樗鼈儍H依賴流的局部特征(參見下圖 5)。
然后,研究者將在 Kolmogorov 流上訓(xùn)練的模型應(yīng)用于衰減渦流。下圖 3 表明,在 Kolmogorov 流 Re = 1000 上學(xué)得的離散模型的準(zhǔn)確率可以匹配以 7 倍分辨率運(yùn)行的 DNS。
最后,該模型可以泛化至更高的雷諾數(shù)嗎?也就是更復(fù)雜的流。下圖 4a 表明,該模型的準(zhǔn)確率可以匹配以 7 倍分辨率運(yùn)行的 DNS。鑒于該測(cè)試是在復(fù)雜度顯著增加的流上進(jìn)行的,因此這種泛化效果很不錯(cuò)。圖 4b 對(duì)速度進(jìn)行了可視化,表明該模型可以處理更高的復(fù)雜度,圖 4c 的能譜進(jìn)一步驗(yàn)證了這一點(diǎn)。
與其他 ML 模型進(jìn)行對(duì)比
研究者將 learned interpolation 與其他 ML 方法的性能進(jìn)行了對(duì)比,包括 ResNet (RN) [50]、Encoder Processor-Decoder (EPD) [51, 52] 架構(gòu)和之前介紹的 learned correction (LC) 模型。下圖 5 展示了這些方法在所有考慮配置中的結(jié)果。總體而言,learned interpolation (LI) 性能最佳,learned correction (LC) 緊隨其后。
對(duì) LES 的加速效果
研究者已經(jīng)描述了該方法在 DNS 納維 - 斯托克斯方程中的應(yīng)用,但其實(shí)該方法是較為通用的,可用于任意非線性偏微分方程。為了證明這一點(diǎn),研究者將該方法應(yīng)用于 LES 加速。當(dāng) DNS 不可用時(shí),LES 是執(zhí)行大規(guī)模模擬的行業(yè)標(biāo)準(zhǔn)方法。
下圖 6 表明,將 learned interpolation 應(yīng)用于 LES 也能達(dá)到 8 倍的 upscaling,相當(dāng)于實(shí)現(xiàn)大約 40 倍的加速。
????
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
與50位技術(shù)專家面對(duì)面20年技術(shù)見證,附贈(zèng)技術(shù)全景圖總結(jié)
以上是生活随笔為你收集整理的机器学习与流体动力学:谷歌AI利用「ML+TPU」实现流体模拟数量级加速的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 王者荣耀是谁开发的 腾讯推出的MOBA类
- 下一篇: 捷荣技术与华为什么关系 公司实力强为华为