顛覆行業!僅29.4萬美元,DeepSeek R1超低訓練成本登上《自然》封面
2025-09-20 10:51:37 EETOP中國人工智能新創企業深度求索(DeepSeek)近日在頂尖學術期刊《自然》(Nature)發表的論文中披露,其專注于推理能力的 R1 模型訓練成本僅為 29.4 萬美元。這一數字不僅遠低于美國競爭對手 OpenAI 所公布的數億美元級別成本,更標志著全球首個通過權威期刊同行評審的大型語言模型正式誕生,引發科技界對 AI 研發范式的重新思考。
9 月 17 日,DeepSeek 的研究論文《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》登上《自然》封面,通訊作者為公司創始人梁文鋒。這距離該公司今年 1 月在 arXiv 平臺發布預印版論文引發熱議已過去 8 個月,經過全球頂尖科學家的嚴苛同行評審后,這份研究成果的含金量獲得學術界公認。
論文首次公開了 R1 模型的詳細訓練成本與技術細節:該模型使用 512 顆英偉達 H800 芯片組成的計算集群,經過 80 小時訓練完成,總成本控制在 29.4 萬美元。《自然》在封面推薦中特別指出,該研究揭示了 "在極少人工輸入下訓練模型進行推理" 的突破性方法,即通過強化學習讓模型在正確解答數學問題時獲得獎勵,從而自主發展出逐步推理能力。
這一成果顛覆了行業對大模型研發的認知。相比之下,OpenAI 首席執行官薩姆?奧爾特曼(Sam Altman)2023 年曾透露,其基礎模型訓練成本 "遠超過 1 億美元",而 Anthropic 首席執行官達里奧?阿莫迪(Dario Amodei)更預測未來三年 AI 模型訓練成本可能飆升至 1000 億美元。美國消費者新聞與商業頻道(CNBC)評價稱,DeepSeek 的成本控制 "令人震驚","已經推翻了只有擁有最先進芯片的國家才能在 AI 競賽中占據主導地位的假設"。
DeepSeek 的低成本突破源于其開創性的技術路徑。論文詳細闡述了一種無需依賴大量人工標注數據的訓練方法 —— 通過純粹的強化學習(RL)激發模型的復雜推理能力,而非傳統方法中必須先用人類解題步驟進行監督微調(SFT)。
該團隊開發的群組相對策略優化(GRPO)算法無需使用與策略模型同等規模的評估模型,直接從群組分數中估算基線,大幅降低了計算資源需求。研究顯示,模型在訓練過程中自發發展出動態調整思考時間、自我反思修正甚至探索多種解題路徑等高級行為,其中 "頓悟時刻"(Aha Moment)的出現尤為引人注目 —— 模型在訓練中期學會了通過重新評估初始方法來合理分配思考時間。
在工程實現上,DeepSeek 采用了 "基座模型 + 強化學習" 的漸進式方案:首先利用 A100 芯片完成小規模模型的實驗準備(即 "冷啟動" 階段),隨后在 512 顆 H800 芯片集群上進行正式訓練。這種分階段優化策略既保證了模型性能,又顯著控制了成本。Hugging Face 機器學習工程師路易斯?湯斯頓(Lewis Tunstall)作為論文審稿人證實,其他實驗室已成功復現 R1 模型的效果,證明該方法的普適性。
值得注意的是,該團隊在訓練中引入 "語言一致性獎勵" 機制,通過計算思維鏈(CoT)中目標語言單詞的比例來優化模型輸出,雖然這導致性能略有下降,但顯著提升了可讀性,體現了技術取舍中的實用主義考量。
DeepSeek 的低成本宣稱也引發了關于技術合規性的爭議。論文披露的 H800 芯片是英偉達公司在美國 2022 年 10 月禁止向中國出口 H100、A100 等高端 AI 芯片后,專為中國市場設計的特供版產品,其計算能力經過調整以符合美國出口管制要求。
在《自然》論文的補充材料中,DeepSeek 首次承認曾在研發準備階段使用過 A100 芯片,"用于較小規模模型的實驗準備",但強調 R1 模型的最終訓練是在 H800 芯片集群上完成。這一細節披露正值中美芯片貿易摩擦升級之際 —— 美國政府今年多次收緊對華 AI 芯片出口限制,而中國商務部已于 9 月 13 日啟動針對美國集成電路領域歧視性措施的反歧視調查。
美國企業和官員此前曾質疑,DeepSeek 能否使用性能受限的特供版芯片訓練出高性能模型。對此,英偉達方面曾回應稱 DeepSeek 使用的是合法采購的 H800 芯片。行業分析指出,H800 作為 A100 的替代產品,雖在計算能力上有所降低,但通過集群優化和算法創新,仍能支撐先進 AI 模型的研發,DeepSeek 的實踐正是這一思路的成功驗證。
DeepSeek 的研究成果不僅具有科學價值,更樹立了 AI 研發透明化的新標桿。論文毫無保留地公開了包括學習率、采樣溫度、"每道題嘗試 16 個答案" 等具體參數設置,甚至坦誠為解決 "中英夾雜" 問題引入的語言一致性獎勵會略微犧牲模型跑分,這種開放態度獲得學術界高度評價。
俄亥俄州立大學 AI 研究員 Huan Sun 評論道:"經歷嚴格的同行評審,無疑能有效驗證模型的可靠性與實用價值。其他公司也應效仿此舉,擺脫發布會上的驚艷演示和不斷刷新的排行榜分數這種行業亂象。"
從行業視角看,R1 模型的成功證明了 "低成本高效研發" 路徑的可行性。DeepSeek 采用的 "最大量免費數據預訓練 + 模型自生成數據微調" 策略,與 Meta 的 Llama 系列開源模式形成呼應,但更進一步實現了頂級性能突破。科技咨詢網站 "Tech Space 2.0" 分析指出:"DeepSeek 已經改變了游戲規則,這種節儉的策略是其他公司目前正在深入研究的模板。"
不過,研究也承認模型存在局限性,包括對非中英文查詢可能出現語言混合、對提示詞較敏感以及在長周期驗證任務上提升有限等問題。這些不足恰恰為后續研究指明了方向,也凸顯了 AI 技術仍需在開放與規范中不斷演進。
隨著 DeepSeek 的研究登上《自然》封面,全球 AI 競爭正從 "資本密集型" 向 "智力密集型" 轉變。29.4 萬美元與數億美元的成本差距背后,不僅是技術路線的差異,更預示著 AI 民主化時代的加速到來 —— 當先進模型的研發門檻大幅降低,人工智能技術的創新活力或將得到前所未有的釋放。
關鍵詞: DeepSeek