伴隨著蘋果全新一代 iPhone 智能手機 iPhone 8、iPhone 8 Plus 和 iPhone X 的發布,所有最初我們想了解的任何信息現在幾乎都已一清二楚,包括零售價格、全新命名、機型數量,還有諸多最新功能等等,其實大多數信息在發布會之前就已經被爆料出來了。盡管如此,iPhone X、面部識別技術,以及 AR 現實增強技術這些新特性,依然十分引人注目。
在今天移動互聯網時代數據爆炸,大數據的出現讓 AI人工智能變得越來越好用。雖然很多移動設備的數據可以在云計算中得到更深入的分析,因為有例如 Google TPU,NVIDIA Volta 這種強大的 AI 運算解決方案。但問題是,數據需要花費一定時間才能到達云端,而蘋果考慮隱私不會將數據傳到云端,因此讓一款移動設備提供略微接近云硬件的計算性能相當用必要。
蘋果在發布會上解釋稱,有一種 AI人工智能叫作機器學習,即讓設備通過觀察的方式進行學習。因此,一枚移動 SoC 芯片中,應該有專門負責虛擬神經元和深度學習的 AI 處理單元,而神經網絡引擎就是專為機器學習而開發的硬件,它不僅能執行神經網絡所需的高速運算,而且具有杰出的能效。
簡而言之,通過神經網絡引擎能夠擔 CPU 和 GPU 的任務,大幅提升芯片的運算效率,以更少的能耗更快的完成更多任務。在 A11 仿生中,蘋果自家的神經網絡引擎采用雙核設計,兩個核心專為 AI人工智能特定的機器學習算法而設計的,實時處理過程中,每秒運算次數最高可達 6000 億次。
蘋果表示,神經網絡可以在 CPU 主處理單元或 GPU 圖形處理單元上運行,但對于這種神經網絡類型的編程模型,利用針對這些應用的定制芯片,在執行相同任務時,它將比使用圖形引擎更加節能。神經網絡引擎的神秘之處在于,它能夠處理矩陣乘法和浮點處理的能力,分擔 CPU 和 GPU 之外的特定任務,實現了硬件性能大幅改善。
其實蘋果很早就十分清楚移動 AI 處理單元的趨勢。幾天前,蘋果硬件技術高級副總裁斯強尼·斯洛基接受采訪時表示,3 年前發布搭載 A8 芯片的 iPhone 6 時,蘋果就已經在開發 A11 仿生芯片了,然而三年前移動行業關于 AI 和機器學習的話題還不多。斯強尼·斯洛基特別強調,“內置神經網絡引擎是蘋果在 3 年打的一個賭。”
神經網絡引擎服務于現在和未來
蘋果稱,有了“神經網絡引擎服”的 A11 變得十分智能,因為能夠把云端基于大數據深度學習訓練成型的神經網絡傳輸到手機中,與本地的神經網絡引擎結合提供完整的 AI 知識和能力。而對于本地的 AI人工智能處理,目前神經網絡引擎已勝任諸多任務,包括更智能的夠識別人物、地點和物體,為“面容 ID”和“動話表情”等創新的功能提供強大的性能等等。
其中對于 iPhone X 的“面容 ID”就運用到了智能面部識別和機器學習這些 AI人工智能技術。其原深感攝像頭系統,通過泛光感應元件會借助不可見的紅外光線,來“照亮”識別人的臉,然后點陣投影器將 30000 多個肉眼不可見的光點投影在人臉部,繪制出精確細致、獨一無二的深度面譜,而紅外攝像頭會探測點陣反射的細微變化,讀取點陣圖案,捕捉它的紅外圖像數據。
關鍵是,被捕捉到的這些非常精確的紅外圖像和點陣圖案的深度數據,將會被發送至 A11 仿生這枚芯片中的神經網絡,創建臉部的數學模型,再將這些精準繪制面譜的數據發送至安全隔區,以確認數據是否匹配。蘋果從來不會將生物識別的數據傳輸到網絡上,面容 ID 功能的面譜數據同樣如此。
與此同時,面容 ID 功能在神經網絡引擎的 AI人工智能技術下,就算人臉的樣貌隨著時間而改變,也能隨之進行調整適應,哪怕是化妝、卸妝、戴上眼鏡、帽子或留起胡須時也能一眼認出。一般使用照片或面具這種欺騙性手段來破解面容 ID,在 AI 技術下基本是不可能的事情。
AI 技術除了服務于面容 ID 之外,新一代 iPhone 的相機系統也受益于此。例如人像模式自拍現在有了神經網絡引擎的 AI 技術加持,景深虛化效果更加突出,而且所延伸出的“人像光效”這一特性,也利用到了 AI 復雜的算法,計算出容貌特征會怎樣受到光線影響,利用數據創造出色的光效。至于“動話表情”,AI 技術能夠讓捕捉到的運動更準確的分析肌肉運動,以便于重現神態。 當然了,A11 的神經網絡引擎是是蘋果 AR 增強現實體驗和 Siri 私人助理的核心,而且未來還將運用到更多方面,并擴展到更多蘋果生態的領域當中,包括醫療健康相關應用、無人駕駛汽車系統、Apple Watch、Apple TV 和 HomePod 音箱等,讓更多原本生硬的設備也能采用與人類同樣的方式進行交互,變得真正會思考。