AI芯片之戰:六大科技巨頭自研芯片最新進度解讀
2024-02-19 10:13:17 EETOP自從OpenAI 發布ChatGPT后,生成式 AI 造成市場大熱,引發各家科技大廠競相投入。現階段提供算力的主要來源,以英偉達(NVIDIA)提供的AI加速器為大宗,但同時造成其AI加速器在市場上的供不應求,就連OpenAI也因為不想再被緊缺的供應鏈牽制,而打算自行開發芯片。
多家科技大廠決心自研 AI 加速器以滿足需求之外,另一方面,受中美科技戰限制,雖然英偉達提供中國客戶減規版產品,但近期又有消息,減規版產品不受中國客戶青睞,中國廠商轉向華為求助,或自研芯片,不落人后繼續發展大型語言模型。
這波AI浪潮發展下,英偉達無疑是AI算力領先者,A100/H100系列芯片拿下全球AI市場頂尖客戶訂單,研究公司Gartner和Moor Insights&Strategy表示,英偉達的全球人工智能芯片市占率最高可能達90%創新高,但英偉達寡占市場使客戶須有成本高漲認知,還要面對可能搶不到貨,或購買數量太少不知道何時能到貨的壓力。
華爾街投資銀行Bernstein Research資深分析師Stacy Rasgon分析,ChatGPT每次查詢的成本約為0.04美元,如果ChatGPT查詢量增長至Google搜尋規模的十分之一,最初需要部署價值約481億美元的GPU進行運算,每年還需要價值約160億美元的芯片才能維持運作。還有相當于 160 億美元的相關芯片來執行工作。所以,無論是為了減少成本,還是降低對英偉達的過度依賴、甚至是進一步提高議價能力,全球科技大廠都已開始其自研AI加速器的計劃。
根據科技媒體 The Information 引述知情人士的說法報導指出,全球科技大廠包括微軟、OpenAI、特斯拉、Google、亞馬遜、Meta 等六家科技公司,都正投入研發自家 AI 加速器芯片,預計將會與英偉達的旗艦級 H100 AI 加速器芯片競爭。
全球大廠自研芯片進度
一年一度 Microsoft Ignite 2023 大會,終于發布數據中心 AI 芯片 Azure Maia 100 和云計算處理器 Azure Cobalt 100。微軟 2019 年后就傳出開發 AI 專用芯片,為大型語言模型提供動力。大會推出的 Azure Maia 100 是 AI 加速器芯片,能用于 OpenAI 模型、ChatGPT、Bing、GitHub Copilot 等 AI 工作執行。
微軟介紹,Azure Maia 100 是系列第一代產品,5 納米制程生產。Azure Cobalt 為Arm 架構的云端運算處理器,配備128 個運算核心,與目前幾代Azure Arm 芯片相比,效能提升40%,支持 Microsoft Teams、Azure SQL 等服務。
兩款芯片均由臺積電生產,微軟已在設計第二代。 有分析師表示,以ChatGPT每天運營成本約70萬美元,且大部分算力源于昂貴服務器計算,Azure Maia 100與英偉達產品有同等競爭力,每芯片成本可降低三分之一。
Open AI 也正在探索制造自研 AI 加速器芯片,并已開始評估潛在的收購目標。
先前路透社引述知情人士的消息指出,至少從2022年開始,OpenAI就已討論各種方案,以解決AI芯片短缺問題。盡管OpenAI尚未做最終決定,但希望解決AI芯片短缺的選項包括打造自家AI芯片、與英偉達等芯片制造商合作研發,OpenAI并未正式評論。
特斯拉以自動駕駛需求為主,至今推出兩種AI芯片,分別是全自動駕駛的FSD芯片和Dojo D1芯片。FSD 芯片用于特斯拉車自動駕駛系統,Dojo D1 芯片用于特斯拉超級計算機,為通用 CPU,構建 AI 訓練芯片,為 Dojo 系統提供驅動力。
Google 也早在 2013 年就秘密研發專注 AI 機器學習算法芯片,并用于云計算數據中心,取代英偉達 GPU。
這款TPU自研芯片2016年公開,為深度學習模型執行大規模矩陣運算,如自然語言處理、計算機視覺和推薦系統模型。Google 其實 2020 年資料中心便建構 AI 芯片 TPU v4,直到 2023 年 4 月才首次公開細節。
亞馬遜旗下云端運算服務提供商AWS,從2013年推出首顆Nitro1芯片至今,為最先自研芯片的云端廠商,擁有網路芯片、服務器芯片、人工智能機器學習自研芯片三條產品線。
AWS 自研 AI 芯片版圖包括推理芯片 Inferentia 和訓練芯片 Trainium。
另一方面,AWS 專為人工智能打造的Inferentia 2(Inf2)2023年初發布,計算性能提高三倍,加速器總內存提高25%,可透過芯片直接超高速連接支持分布式推理,最多支持1,750億個參數,為AI芯片市場最強自研廠商。
Meta則到2022年仍使用CPU和專為加速AI算法設計的定制芯片組合執行AI工作,但因CPU的AI工作效率不如GPU,Meta取消2022年大規模定制芯片計劃,轉而訂購數十億美元的英偉達GPU。
就在其他各家大廠紛紛投入自研AI加速器芯片,Meta也發布了自研芯片,并2023年5月19日公布AI訓練與推理芯片。芯片功耗僅25瓦,為英偉達相同產品功耗的0.05%,并采RISC-V開源架構。市場消息指出,芯片為臺積電7納米生產。
中國大廠的自研芯片之路,又是另一種光景。
美國去年10月擴大禁止向中國出售先進人工智能(AI)芯片,英偉達雖然迅速為中國市場量身訂造新芯片,以符合美國出口規定。但近日有消息指出,阿里巴巴、騰訊等中國云計算大客戶,并不熱中買功能降低的減規版H20芯片,轉成國內采購,如向華為買。策略轉變顯示透過部分先進半導體訂單轉給中國公司,將更依賴中國本土廠商芯片。
TrendForce表示,中國云端業者約八成高階AI芯片購自英偉達,五年內可能降至50%~60%。若美國繼續加強芯片管制,可能對英偉達中國地區銷售造成額外壓力。
關鍵詞: AI芯片