超 5800 亿美元,微软谷歌神仙打架,让英伟达市值飙升,约为 5 个英特尔
微軟、谷歌、Meta 等大型科技公司為搶占市場先機你追我趕。這場 AI 競賽卻讓英偉達市值飆升,市值約為 5 個英特爾。
ChatGPT 在手,有問必答。
你可知,與它每次對話的計算成本簡直讓人淚目。
此前,分析師稱 ChatGPT 回復一次,需要 2 美分。
要知道,人工智能聊天機器人所需的算力背后燒的可是 GPU。
這恰恰讓像英偉達這樣的芯片公司豪賺了一把。
2 月 23 日,英偉達股價飆升,使其市值增加了 700 多億美元,總市值超 5800 億美元,大約是英特爾的 5 倍。
在英偉達之外,AMD 可以稱得上是圖形處理器行業的第二大廠商,市場份額約為 20%。
而英特爾持有不到 1% 的市場份額。
ChatGPT 在跑,英偉達在賺
隨著 ChatGPT 解鎖潛在的應用案例,這可能迎來人工智能應用的另一個拐點。
為什么這么說?
谷歌母公司 Alphabet 董事長 John Hennessy 在接受路透的采訪時表示,大型語言模型等人工智能的對話成本可能是傳統搜索引擎的 10 倍以上。
Morgan Stanley 分析表示,谷歌去年共計 3.3 萬億次搜索,每次搜索的成本僅為 0.2 美分。
據估計,若將谷歌旗下聊天機器人 Bard 引入搜索引擎,并用其處理谷歌一半的搜索和提問,按照每次答案 50 詞計算,公司在 2024 年的成本可能會增加 60 億美元。
同樣,專注于芯片技術的咨詢公司 SemiAnalysis 稱,受到谷歌內部芯片 Tensor Processing Units 等的影響,將聊天機器人添加至搜索引擎中,可能會讓谷歌額外花費 30 億美元。
他認為谷歌必須降低此類人工智能的運營成本,但這一過程并不容易,最壞的情況也得需要幾年時間。
正是如此,通過 AI 語言模型進行搜索比傳統搜索需要消耗更多的算力。
分析師表示,未來幾年的額外成本可能高達數十億美元。
Gartner 預計,到 2026 年,用于數據中心的 GPU 等專業芯片的份額預計將從 2020 年的不到 3% 上升 15% 以上。
雖然很難確切地指出如今人工智能在英偉達收入中所占的比例有多大,但隨著大型科技公司競相開發類似的 AI 應用程序,人工智能有成倍增長的潛力。
周三,英偉達還宣布了人工智能云服務,并致力于甲骨文、微軟和谷歌合作,為其提供使用 Nvidia GTX,通過簡單的瀏覽器訪問進行人工智能處理的能力。
這個新平臺將由其他云服務商提供,將幫助那些不具備構建自己的基礎設施的技術公司。
黃仁勛稱,「人們對 ChatGPT 的熱情讓商界領袖們看到了人工智能的力量。但是現在,它主要是一個通用軟件。其真正價值的實現,還需要根據公司自身的需求量身定做,這樣就可以改進自家的服務和產品。」
英偉達奪 GPU 市場霸主
New Street Research 稱,英偉達占據了 95% 圖形處理器的市場份額。
在費城證券交易所半導體指數中,英偉達股票今年已經上漲 42%,表現最好。
投資者紛紛投向英偉達,押注在對 ChatGPT 等人工智能系統的需求將推高該公司產品的訂單,使其再次成為全球市值最高的芯片制造商。
一直以來,不管是成為頂流的 ChatGPT,還是 Bard、Stable Diffusion 等模型,背后都是由一個大約價值 1 萬美元的芯片 Nvidia A100 提供算力。
英偉達 A100 能夠同時進行許多簡單的計算,對訓練和使用神經網絡模型非常重要。
A100 背后的技術最初用在游戲中渲染復雜的 3D 圖形。而現在,其目標是處理機器學習任務和在數據中心運行。
投資者 Nathan Benaich 表示,A100 目前已成為人工智能專業人士的「主力」。他的報告還列出了使用 A100 超級計算機部分公司的名單。
機器學習任務可能會占用整臺計算機的處理能力,有時會持續數小時或數天。
這意味著,那些擁有一款暢銷 AI 產品的公司往往需要購買更多的 GPU 來應對訪問高峰期,或改進其模型。
除了卡上可以插入現有服務器的單個 A100 之外,許多數據中心還使用一個包含 8 個 A100 圖形處理器的系統。
這個系統,便是 Nvidia DGX A100,單套系統售價高達 20 萬美元。
英偉達周三表示,將直接出售 DGX 系統的云訪問權限,這可能會降低研究人員的入門成本。
那么運行新版必應需要付出怎樣的成本?
New Street Research 的一項評估發現,必應搜索中基于 OpenAI 的 ChatGPT 模型可能需要 8 個 GPU 才能在不到一秒鐘的時間內給出一個問題的答案。
按照這個速度,微軟需要超過 2 萬臺 8 個 GPU 服務器才能將這個模型部署到每個人手中。
那么微軟可能會花費 40 億美元的基礎設施開支。
這僅是微軟,如果想要達到谷歌每日查詢規模,即每天提供 80 億-90 億個查詢,就需要花費 800 億美元。
再比如,最新版本的 Stable Diffusion,在 256 個 A100 圖形處理器,或 32 臺 DGX A100 進行計算 200,000 小時。
Stability AI 的首席執行官 Mostaque 表示,按照市場價格計算,僅訓練該模型就需要花費 60 萬美元。與競爭對手相比,這個價格非常便宜。這還不包括推斷或部署模型的成本。
黃仁勛在接受采訪時表示,
就這類模型所需的計算量而言,Stability AI 的產品實際上并不昂貴。
我們采用了原本需要 10 億美元才能運行 CPU 的數據中心,然后將其縮小為 1 億美元的數據中心。現在,這 1 億美元數據中心放在云端由 100 家公司共同分擔,都不算什么。
英偉達 GPU 可以讓初創企業以較成本訓練模型。現在你可以構建一個大型語言模型,比如 GPT,大概需要 1000 萬到 2000 萬美元。這真的,真的很實惠。
2022 人工智能現狀報告稱,截至 2022 年 12 月,超過 2.1 萬份開源 AI 論文使用了英偉達芯片。
國家人工智能計算指數 (State of AI Compute Index) 中的大多數研究人員使用的是 2017 年推出的英偉達芯片 V100,但 A100 在 2022 年快速增長,成為使用頻率排在第三的芯片。
A100 最激烈的競爭可能是它的繼任者 H100,2022 年推出并已開始量產。事實上,英偉達周三表示,在截至 1 月份的季度,H100 的收入超過了 A100。
目前來看,英偉達正在乘坐著 AI 的快車向「錢」沖刺了。
參考資料:
-
https://www.reuters.com/technology/tech-giants-ai-like-bing-bard-poses-billion-dollar-search-problem-2023-02-22/
-
https://www.businessinsider.com/ai-expensive-google-chatbot-bard-may-cost-company-billions-dollars-2023-2
-
https://www.bloomberg.com/news/articles/2023-02-22/nvidia-gives-strong-forecast-as-ai-helps-fuel-computing-demand?srnd=technology-vp
-
https://www.reuters.com/technology/nvidia-results-show-its-growing-lead-ai-chip-race-2023-02-23/
-
https://www.cnbc.com/2023/02/23/nvidias-a100-is-the-10000-chip-powering-the-race-for-ai-.html
本文來自微信公眾號:新智元 (ID:AI_era)
總結
以上是生活随笔為你收集整理的超 5800 亿美元,微软谷歌神仙打架,让英伟达市值飙升,约为 5 个英特尔的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 使用NavigationUI更新UI组件
- 下一篇: 硬链接与软链接的区别