Google:機器學習芯片讓AI更快更高效
2017-11-06 11:33:01 n原文:Google Says Machine Learning Chips Make AI Faster and More Efficient
作者: Edd Gent
翻譯:無阻我飛揚
摘要:作者介紹了Google專用機器學習芯片TPU,從TPU的誕生,TPU的作用,TPU與CPU和GPU的比較,以及Google推出TPU的目的等方面做了闡述,以下是譯文。
Google最近對外公布了其專用的機器學習芯片TPU的內部工作原理。在AI硬件至上的軍備競賽中打響了前哨戰。
TPU是Tensor Processing Unit(Tensor處理單元)的縮寫,這個芯片是為Google的開源機器學習庫TensorFlow量身定做的,自2015年以來,Google的數據中心一直在使用該芯片。但在本月初,公司最終提供了該設備的性能數據。
公司表示,目前這一代的TPU設計用于推介—利用已經訓練過的神經網絡執行某種功能。比如通過Google Now識別語音命令。在執行這些任務上,公司表示TPU比同一時期的GPU和CPU快15到30倍,同樣重要的是,TPU的功效也比同一時期GPU和CPU高30到80倍。
CPU,也就是中央處理器是自20世紀60年代以來大多數計算機的核心處理器。但是,CPU不太適合現代機器學習方法,特別是無法滿足深度學習極高的計算需求。
在二十世紀末,研究人員發現,顯卡更適合這些任務的高度并行性,而GPU,也就是圖形處理單元成為實現神經網絡最基本的技術。但是隨著對機器學習使用的不斷發展,Google希望為他們的需求量身打造一些東西,TPU應運而生。
“大約在六年前,當開始在我們產品的愈來愈多的地方使用昂貴的計算深度學習模型時,對TPU的需求就已經出現了。因為使用這些模型的計算費用讓我們擔憂,”Google首席工程師Norm Jouppi 在博客中寫道。
“假設一個場景,人們每天使用谷歌語音搜索僅三分鐘。在我們所使用的處理單元上為語音識別系統運行深度神經網絡,那么Google數據中心的數量就會翻番! ”
Nvidia表示這種比較不完全公平,比較片面。谷歌將其TPU與服務器級英特爾Haswell CPU和Nvidia K80 GPU進行了比較,但從那時起已經有兩代Nvidia GPU。英特爾一直保持沉默,但Haswell也已經有了三代。
公司在一篇博文中說:“隨著NVIDIA的開普勒一代GPU在2009年問世,有助于喚醒全世界將GPU加速計算用于深度學習的可能性。它從未為該任務專門優化過”
為了證明這一點,他們有了自己新的基準,指出最新的P40 GPU的計算速度是之前的兩倍。但重要的是,TPU浮出水面,這并不奇怪,Google已經準備好了,甚至已經在用新一代改進設計的TPU。
也就是說,它不會顛覆芯片市場。Google不會把TPU賣給競爭對手,而是完全專注于推介。Google仍然使用大量的Nvidia的GPU進行機器訓練,這解釋了公司為何對爭論沉默以對。
Google也可能是世界上為數不多的公司之一,用金錢和愿景從頭開始構建一個全新領域的產品。但它也是世界上最大的處理器采購商之一,它決定了滿足自己需求的唯一方法是設計自己的芯片,這也為芯片制造商敲響了警鐘。
事實上,這似乎是這個想法的一部分。網絡世界的Steve Patterson寫道: “Google發布這篇研究論文旨在提高機器學習界和芯片制造商之間的討論水平,現在是實現商業解決方案,大規模運行推介的時候了”
這可能不會太遠,分析師Karl Freund 在《福布斯》雜志上寫道“鑒于市場的快速增長以及對高性能的渴望,我認為硅片廠商將不可避免地推出專為機器學習設計的芯片。”
Nvidia公司不太可能讓其市場領先地位下滑,而在今年晚些時候,英特爾將發布第一個具有機器學習焦點Nervana技術的芯片,intel-buys-a-startup-to-catch-up-in-deep-learning/" target="_blank" style="box-sizing: border-box; background: transparent; color: rgb(202, 12, 22); text-decoration-line: none; margin: 0px; padding: 0px; outline: none;">Nervana在去年的8月份被英特爾收購。甚至手機玩家已經開始行動了。
Arm的Dynamiq微架構允許客戶將AI加速器直接構建到芯片中,從而將原生機器學習引入到智能手機等設備。而高通公司的項目Zeroth發布了一款軟件開發工具包,可以在具有驍龍處理器的智能手機和無人機等設備上運行深度學習程序。
Google發布TPU可能只是一個溫柔的推動,使業界朝著正確的方向前進。