Google发布新API,支持训练更小、更快的AI模型
Google 今天發(fā)布了Quantification Aware Training(QAT)API,使開發(fā)人員可以利用量化的優(yōu)勢來訓練和部署模型 AI 模型。通過這個 API,可以將輸入值從大集合映射到較小集合的輸出,同時,保持接近原始狀態(tài)的準確性。
新的 API 的目標是支持開發(fā)更小、更快、更高效的機器學習(ML)模型,這些模型非常適合在現(xiàn)有的設備上運行,例如那些計算資源非常寶貴的中小型企業(yè)環(huán)境中的設備。
通常,從較高精度到較低精度的過程有很多噪聲。因為量化把小范圍的浮點數(shù)壓縮為固定數(shù)量的信息存儲區(qū)中,這導致信息損失,類似于將小數(shù)值表示為整數(shù)時的舍入誤差(例如,在范圍[2.0,2.3]中的所有值都可以在相同的存儲中表示。)。問題在于,當在多個計算中使用有損數(shù)時,精度損失就會累積,這就需要為下一次計算重新標度。
谷歌新發(fā)布的 QAT API 通過在 AI 模型訓練過程中模擬低精度計算來解決此問題。在整個訓練過程中,將量化誤差作為噪聲引入,QAT API 的算法會嘗試將誤差最小化,以便它學習這個過程中的變量,讓量化有更強的魯棒性。訓練圖是利用了將浮點對象轉換為低精度值,然后再將低精度值轉換回浮點的操作,從而確保了在計算中引入了量化損失,并確保了進一步的計算也可以模擬低精度。
谷歌在報告中給出的測試結果顯示,在開源 Imagenet 數(shù)據(jù)集的圖像分類模型(MobilenetV1 224)上進行測試,結果顯示未經(jīng)量化的精度為 71.03%,量化后的精度達到了 71.06%。
針對相同數(shù)據(jù)集測試的另一種分類模型(Nasnet-Mobile)中測試,在量化后僅有1% 的精度損失(74% 至 73%)。
除了模擬精度降低的計算外,QAT API 還負責記錄必要的統(tǒng)計信息,以量化訓練整個模型或模型的一部分。比如,這可以使開發(fā)人員能夠通過調用模型訓練 API 將模型轉換為量化的 TensorFlow Lite 模型。或者,開發(fā)人員可以在模擬量化如何影響不同硬件后端的準確性的同時嘗試各種量化策略。
Google 表示,在默認情況下,作為 TensorFlow 模型優(yōu)化工具包一部分的 QAT API 配置為與 TensorFlow Lite 中提供的量化執(zhí)行支持一起使用,TensorFlow Lite 是 Google 的工具集,旨在將其 TensorFlow 機器學習框架上構建的模型能夠適應于移動設備,嵌入式和物聯(lián)網(wǎng)設備。
“我們很高興看到 QAT API 如何進一步使 TensorFlow 用戶在其支持 TensorFlow Lite 的產(chǎn)品中突破有效執(zhí)行的界限,以及它如何為研究新的量化算法和進一步開發(fā)具有不同精度特性的新硬件平臺打開大門”,Google 在博客中寫道。
QAT API 的正式發(fā)布是在 TensorFlow Dev Summit 上,也是在發(fā)布了用于訓練量子模型的機器學習框架 TensorFlow Quantum 之后發(fā)布。谷歌也在會議的會話中預覽了 QAT API。
雷鋒網(wǎng)編譯,viaventurebeat
總結
以上是生活随笔為你收集整理的Google发布新API,支持训练更小、更快的AI模型的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 跟谁学CEO回应做空报告:否认粉饰财报、
- 下一篇: 红米6000毫安的手机,小米旗下品牌推出