為什么人工智能如此昂貴?
2024-07-05 12:06:33 EETOP超過18個月的生成式人工智能熱潮后,一些最大的科技公司正在證明人工智能可以成為真正的收入驅動因素。但它也是一個巨大的錢坑。
微軟公司和谷歌在最新季度業績中報告了云計算收入的激增,因為企業客戶在他們的AI服務上花費更多。盡管Meta在技術貨幣化方面稍顯落后,但其AI努力幫助提升了用戶參與度和廣告定位。
為了實現這些早期收益,三家公司已經花費了數十億美元來開發AI——并且計劃進一步增加這些投資。
在4月25日,微軟表示在最近一個季度的資本支出為140億美元,預計這些成本將“大幅增加”,部分原因是AI基礎設施投資。這比去年同期增加了79%。谷歌表示,在該季度花費了120億美元,比去年同期增加了91%,并預計全年將保持或超過這一水平,專注于AI機會。與此同時,Meta提高了今年的投資預期,現在認為資本支出將在350億至400億美元之間,在高端將增長 42%。其理由是對AI研究和產品開發的積極投資。
人工智能成本的上升讓一些投資者措手不及。尤其是 Meta 的股價,因支出預測以及銷售增長低于預期而暴跌。但在科技行業內部,人工智能成本將會上升長期以來一直是一種信念。這有兩個關鍵原因:人工智能模型只會越來越大,開發成本越來越高,而全球對人工智能服務的需求需要建立更多的數據中心來支持它。
正在嘗試此類人工智能服務的企業可以花費數百萬美元來定制OpenAI或Google的產品。一旦它們啟動并運行,每當有人 ping 聊天機器人或要求 AI 服務分析銷售數據時,都會產生額外的成本。但更昂貴的工作是為這些人工智能系統奠定基礎。下面我們來看看這些努力。
當今最知名的人工智能產品,包括 OpenAI 的 ChatGPT,都是由大型語言模型提供支持的——這些系統被輸入大量數據,包括書籍、文章和在線評論,以便對用戶的查詢做出最佳響應。許多領先的人工智能公司都認為,通往更復雜的人工智能的道路——甚至可能是在許多任務上勝過人類的人工智能系統——是讓這些大型語言模型變得更大。
這需要獲取更多的數據,更多的計算能力,以及更長時間的人工智能系統訓練。在 4 月初的一次播客采訪中,OpenAI 競爭對手 Anthropic 的首席執行官 Dario Amodei 表示,目前市場上的 AI 模型訓練成本約為 1 億美元。
“現在正在訓練的模型以及今年晚些時候或明年初發布的模型成本接近10億美元,”他說?!拔艺J為在2025年和2026年,我們將更多地走向50億或100億美元?!?/span>
其中很大一部分成本與芯片有關。這些不是使英特爾公司出名的中央處理單元(CPU)或為數十億智能手機提供動力的縮減版的移動處理器。為了訓練大型語言模型,AI公司依賴于圖形處理單元(GPU),這些單元可以以高速處理大量數據。這些芯片不僅供應緊張,而且價格極其昂貴,最先進的芯片主要由一家公司——英偉達公司制造。
英偉達(Nvidia)的H100圖形芯片是訓練AI模型的黃金標準,其售價估計為30,000美元,一些經銷商的售價是該價格的數倍。大型科技公司需要大量的這種芯片。Meta首席執行官扎克伯格此前表示,他的公司計劃在今年年底前購買350,000顆H100芯片,以支持其AI研究工作。即使他獲得批量購買折扣,這也很容易達到數十億美元。
公司可以在不購買實際芯片的情況下進行這項工作,但租用它們的費用也很高。比如,亞馬遜公司的云部門將以每小時約6美元的價格向客戶租用英特爾制造的大型主力處理器集群。相比之下,一組 Nvidia H100 芯片每小時的成本接近 100 美元。
上個月,英偉達推出了一種新處理器設計,名為Blackwell,這種處理器在處理大型語言模型方面的速度是現有型號的數倍,預計價格與包括H100在內的Hopper系列相似。英偉達表示,訓練一個1.8萬億參數的AI模型大約需要2000個Blackwell GPU。據《紐約時報》提起的一宗關于OpenAI使用其文章訓練AI系統的訴訟估算,這大約是GPT-4的大小。相比之下,英偉達表示,完成同樣任務需要8000個Hopper GPU。但這種改進可能會被行業推動構建更大的人工智能模型所抵消。
購買這些芯片的公司需要有地方放置它們。Meta 與最大的云計算公司——亞馬遜、Microsoft 和谷歌——以及其他租用算力提供商一起競相建造新的服務器群。這些建筑往往是定制的。它們包含硬盤驅動器、處理器、冷卻系統以及成堆的電氣設備和備用發電機。
研究人員Dell'Oro Group估計,公司今年將花費2940億美元建造和裝備數據中心,高于2020年的1930億美元。這種擴張很大程度上反映了數字服務的廣泛增長——流媒體視頻、企業數據的爆炸式增長、社交媒體提要。但是,越來越多的支出被指定用于昂貴的英偉達芯片和其他支持人工智能繁榮所需的專用硬件。
根據市場情報公司DC Byte的數據,全球目前有超過7,000個數據中心,包括處于不同發展階段的設施,高于2015年的3,600個。這些設施也變得越來越大。根據 DC Byte 的數據,全球數據中心建筑的平均面積現在為 412,000 平方英尺,自 2010 年以來幾乎增加了五倍。
雖然芯片和數據中心占據了成本的絕大部分,但一些AI公司還花費數百萬美元從出版商處獲取數據。
OpenAI已經與多家歐洲出版商達成協議,將他們的新聞內容納入ChatGPT,并訓練其AI模型。這些交易的財務條款尚未披露,但據彭博新聞此前報道,OpenAI同意支付數千萬歐元給Axel Springer SE,這是一家德國出版商,擁有《Politico》和《Business Insider》。這家初創公司還與《時代周刊》、《CNN》和《??怂剐侣劇肪蛢热菰S可進行了談判。
雖然OpenAI在獲得許可交易方面更加積極,但大型科技公司也在尋找獲取構建引人注目的人工智能工具所需的語言數據的方法。據路透社報道,谷歌已經達成了一項價值6000萬美元的協議,從Reddit獲得數據許可。據《紐約時報》報道,據報道,Meta 員工正在討論收購圖書出版商 Simon & Schuster。
科技公司也陷入了一場爭奪人工智能人才的狂熱戰爭中。去年,Netflix Inc.曾一度招聘AI產品經理一職,年薪高達90萬美元。
微軟在推動大型語言模型熱潮方面做得最多,該公司最近表示將嘗試不同的方法。該公司預告了三個計算密集度較低的小型AI模型。
微軟表示,大型語言模型“仍然是解決許多復雜任務的黃金標準”,如“高級推理、數據分析和上下文理解”。但對于某些客戶和用例,小型模型可能就足夠了。其他公司,包括由兩名前谷歌員工創立的初創公司Sakana AI,也專注于小型模型。
“你并不總是需要跑車,”Forrester Research專注于AI的高級分析師Rowan Curran說。“有時你需要的是小貨車或皮卡。不會有一類模型適用于所有用例?!?br style=";padding: 0px;outline: 0px;max-width: 100%;box-sizing: border-box !important;overflow-wrap: break-word !important"/>
然而,就目前而言,AI界的傳統觀點是,越大越好。這將是代價高昂的。