99精品在线观看-99精品在线免费观看-99精品在线视频观看-99精品这里只有精品高清视频-99九九精品国产高清自在线

x

Imec等多家公司正力促AI芯片設計最佳化

2018-05-30 11:23:54 n
點擊關注->創(chuàng)芯網(wǎng)公眾號,后臺告知EETOP論壇用戶名,獎勵200信元

來源:eettaiwan

比利時研究機構Imec在近日舉行的年度技術論壇(ITF BELGIUM 2018)上透露,該機構正在打造一款采用單位元精度的深度學習推論(inference)芯片原型;Imec并期望在明年收集采用創(chuàng)新資料型態(tài)與架構──采用存儲器內(nèi)處理器(processor-in-memory,PIM),或是Analog 存儲器結構(analog memory fabric)──的客戶端裝置有效性資料。

學術界已經(jīng)研究PIM架構數(shù)十年,而該架構越來越受到資料密集的機器演算法歡迎,例如新創(chuàng)公司Mythic以及IBM Research都有相關開發(fā)成果。許多學術研究機構正在實驗1~4位元的資料型別(data type),以減輕深度學習所需的沉重存儲器需求;到目前為止,包括Arm等公司的AI加速器商用芯片設計都集中在8位元或更大容量的資料型別,部分原因是編程工具例如Google的TensorFlow缺乏對較小資料型別的支援。

Imec擁有在一家晶圓代工廠制作的40nm制程加速器邏輯部份,而現(xiàn)在是要在自家晶圓廠添加一個MRAM層;該機構利用SRAM模擬此設計的性能,并且評估5nm節(jié)點的設計規(guī)則。此研究是Imec與至少兩家匿名IDM業(yè)者伙伴合作、仍在開發(fā)階段的專案,從近兩年前展開,很快制作了采用某種電阻式存儲器(ReRAM)的65nm PIM設計原型。

該65nm芯片并非鎖定深度學習演算法,雖然Imec展示了利用它啟動一段迷人的電腦合成音樂;其學習模式是利用了根據(jù)以音樂形式呈現(xiàn)、從感測器所串流之資料的時間序列分析(time-series analysis)。而40nm低功耗神經(jīng)網(wǎng)路加速器(Low-Energy Neural Network Accelerator,LENNA)則會鎖定深度學習,在相對較小型的MRAM單元中運算與儲存二進位權重。

Imec技術團隊的杰出成員Diederik Verkest接受EE Times采訪時表示:「我們的任務是定義出我們應該利用新興存儲器為機器學習開發(fā)什么樣的半導體技術──或許我們會需要制程上的調(diào)整,」以取得最佳化結果。該機構半導體技術與系統(tǒng)部門執(zhí)行副總裁An Steegen則表示:「AI會是制程技術藍圖演化的推手,因此Imec會在AI (以及PIM架構)方面下很多功夫──這方面的工作成果將會非常重要。」

Imec聲稱其LENNA芯片在推論任務上的表現(xiàn)將超越現(xiàn)有的CPUGPU

確實,如來自英國的新創(chuàng)公司Graphcore執(zhí)行長Nigel Toon所言,AI標志著「運算技術的根本性轉變」;該公司將于今年稍晚推出首款芯片。Toon在Imec年度技術論壇上發(fā)表專題演說時表示:「今日的硬體限制了我們,我們需要某種更靈活的方案…我們想看到能根據(jù)經(jīng)驗調(diào)整的(神經(jīng)網(wǎng)路)模型;」他舉例指出,兩年前Google實習生總共花了25萬美元電費,只為了在該公司采用傳統(tǒng)x86處理器或Nvidia GPU的資料中心嘗試最佳化神經(jīng)網(wǎng)路模型。

實現(xiàn)復雜的折衷平衡

Imec希望LENNA能在關于PIM或Analog 存儲器架構能比需要存取外部存儲器的傳統(tǒng)架構節(jié)省多少能量方面提供經(jīng)驗;此外該機構的另一個目標,是量化采用二進制方案在精確度、成本與處理量方面的折衷(tradeoff)。

加速器芯片通常能在一些熱門的測試上提供約90%的精確度,例如ImageNet競賽;Verkest表示,單位元資料型別目前有10%左右的精度削減,「但如果你調(diào)整你的神經(jīng)網(wǎng)路,可以達到最高85%~87%的精確度。」他原本負責督導Imec的邏輯制程微縮技術藍圖,在Apple挖腳該機構的第一個AI專案經(jīng)理之后,又兼管AI專案。

Verkest表示,理論上Analog 存儲器單元應該能以一系列數(shù)值來儲存權重(weights),但是「那些存儲器元件的變異性有很多需要考量之處;」他指出,Imec的開發(fā)專案將嘗試找出能提供最佳化精度、處理量與可靠度之間最佳化平衡的精度水準。

而Toon則認為聚焦于資料型別是被誤導了:「低精度并沒有某些人想得那么嚴重,存儲器存取是我們必須修正之處;」他并未詳細介紹Graphcore的解決方案,但聲稱該公司技術可提供比目前采用HBM2存儲器的最佳GPU高40倍的存儲器頻寬。

芯片架構方面,Imec的研究人員還未決定他們是要設計PIM或采用Analog 存儲器結構;后者比較像是一種Analog SoC,計算是在Analog 區(qū)塊處理,可因此減少或免除數(shù)位-Analog 轉換。不同種類的神經(jīng)網(wǎng)路會有更適合的不同架構,例如卷積神經(jīng)網(wǎng)路(CNN)會儲存與重復使用權重,通常能以傳統(tǒng)GPU妥善運作;歸遞神經(jīng)網(wǎng)路(RNN)以及長短期記憶模型(long short-term memories,LSTMs)則傾向于在使用過后就拋棄權重,因此更適合運算式存儲器結構

Imec可能會以存儲器結構來打造LENNA,讓運算留在Analog 功能區(qū)塊

新的平行架構非常難編程,因此大多數(shù)供應商正在嘗試建立在TensorFlow等現(xiàn)有架構中攝取程式碼的途徑。而Graphcore則是打造了一種名為Poplar的軟體層,旨在以C++或Python語言來完成這項工作;Toon表示:「我們把在處理器中映射圖形(graphs)的復雜性推到編譯器(也就是扮演該角色的Poplar)。」

Graphcore的客戶很快就會發(fā)現(xiàn)該程序會有多簡單或是多困難;這家新創(chuàng)公司預計在年中將第一款產(chǎn)品出貨給一線大客戶,預期他們會在今年底采用該款芯片執(zhí)行大型云端供應商的服務。Toon聲稱,其加速器芯片將能把CNN的速度提升五至十倍,同時間采用RNN或LSTM的更復雜模型則能看到100倍的效能提升。

關鍵詞:

  • EETOP 官方微信

  • 創(chuàng)芯大講堂 在線教育

  • 半導體創(chuàng)芯網(wǎng) 快訊

全部評論

主站蜘蛛池模板: 国产一区免费观看| 成人免费视频一区二区| 黄色网址网站在线观看| 黑人巨大vsさとう遥希| 亚洲 欧洲 另类 综合 自拍| 一级黄色a视频| 日韩国产欧美一区二区三区| 成年人视频黄色| 欧美日本黄色| 国产成人a毛片在线| 视频在线二区| 韩国一级特黄清高免费大片| 国产精品videosse| 加勒比一本一道在线| 欧美亚洲另类久久综合| 亚洲国产精品一区二区三区| 91精品国产9l久久久久| 九九精品久久久久久久久| 中文字幕免费在线观看动作大片| 成人在线精品| 男女国产一级毛片| 劲爆激情欧美毛片| 国外成人免费高清激情视频| 国产乱码一区二区三区| 国产精品国产三级国产爱网| 黄色一级视频| 第一区| 91视频黄| 9966久久精品免费看国产| 国产成人综合欧美精品久久| 国产午夜在线观看| 九九亚洲精品| 久久久精品久久久久特色影视| 欧美综合另类| 青青热久免费精品视频在线观看| 午夜在线视频国产| 亚洲国产日韩欧美一区二区三区| 亚洲码一区二区三区| 亚洲综合图片人成综合网| 中文日韩字幕一区在线观看| 66av99精品福利视频在线|