0

蘋果一貫高冷和神秘,那些在加州庫比蒂諾進行的研究鮮有人知。在人工智能大潮之下,蘋果也是出奇的“穩得住”,很少有公開露面。原因并不難理解,嘈雜的猜測本身對研究就是干擾,況且蘋果還是世界范圍內最受關注的科技公司之一。
但也不是沒有例外,12月6日,在神經信息處理系統大會(Neural Information Processing Systems ,NIPS)的閉門會議上,蘋果選擇適當公開他們正在進行的研究工作及成果——至少在人工智能(Artificial Intelligence)方面。蘋果機器學習部門新任負責人Russ Salakhutdinov(此前他是卡耐基·梅隆大學的杰出研究專家)在演講中提到了該公司是如何利用AI解決一些具體問題,同時也具體介紹了蘋果與競爭對手相比有優勢的特定領域。

與其他在進行機器學習探索的公司一樣,蘋果也在這些領域進行研究和產品化:圖像識別、語音識別(模型化語言)、用戶行為預測在智能助手方面的應用,同時嘗試去理解一些算法無法作出決定的不確定性因素。目前,蘋果已經將具體的產品Siri應用到了iOS以及macOS上,iPhone以及Mac用戶都可以使用。
除此之外,雖然沒有明確提及蘋果在自動駕駛系統/汽車方面的研究,但是演講中,與車相關的兩個板塊出現在了Keynote當中。“激光雷達測距(LiDAR)”和“物體識別與預測”赫然在列。LiDAR大家并不陌生,激光測距在目前自動駕駛汽車中的應用非常廣泛。
蘋果此前一直被傳正在制造自動駕駛汽車,甚至在本月初向美國國家交通安全委員會寫公開信要求平等路測權——無論是新晉的團隊還是像Google和Uber這樣的老玩家(已經有自動駕駛原型車)。
此外,蘋果還介紹了他們在神經網絡構建方面的能力。目前他們的神經網絡的體積比原始版本小了4.5倍,同時,識別的精確并未損失,速度反而快了兩倍。該技術使用一個更大、更強健的神經網絡來訓練其他的網絡在各種情況下作出決定。“學生網絡”(“student”network)將具備“教師網絡”(“teacher”network)的知識,實質上,在圖片和語音識別上,二者將不相上下。
眾所周知,蘋果從事硬件設計和研發,將這些經過“瘦身”的神經網絡嵌入到系統中,iPhone和iPad便可以識別照片中的人臉和地點,或者了解你的心率變化,而這些并不需要依賴遠程服務器。如果你是蘋果設備的使用者,應該能體會到這項工作對于蘋果來說有多重要。

將整個流程應用在手機上成效顯著,也保證了數據不需要編碼/解碼并上傳到無線網絡上去。
演講中,Russ Salakhutdinov提到蘋果的另一大殺器——圖形處理單元及算法(GPU)——應用在服務器上加速深度學習的過程。據蘋果方面宣稱,他們的圖片識別算法效率可以做到Google的兩倍,只使用其三分之一的GPU陣列。

有分析人士認為,這些研究可能是蘋果自動駕駛系統/汽車研究的一個分支。
當其他公司開始依賴于特制的芯片來加速機器學習的效率之時(Google的Tensor處理單元以及微軟的FPGAs),蘋果還在使用標準的GPU。而且,也沒有任何證據表明蘋果是否正在定制自己的GPU或者從Nvidia這類公司購買。
蘋果用于訓練神經網絡進行圖片識別的數據庫目前已經申請了專利,其容量是標準的ImageNet數據庫的兩倍。

當然,多年來蘋果在機器學習方面的封閉也遭到了業內一些研究社團的詬病。Salakhutdinov在演講中表示,蘋果將開始公開發表一些研究成果,并且和研究社團一起攜手致力于機器學習方面的研究。而蘋果CEO庫克也在最近表示,將在日本橫濱的研究基地,推動機器學習(深度學習)的發展,有別于語音助手Siri。
作為全球最偉大公司之一的蘋果,絕對不會錯失這股人工智能的風潮,在今年8月的一次采訪中,蘋果CEO蒂姆·庫克便將AI作為蘋果未來技術發展的核心。
無論是語音/圖像識別,還是自動駕駛,都表明蘋果已經在AI領域積極布局。但是,蘋果能否在該領域再創以往的輝煌,還需要時間檢驗。
畢竟,從宏觀來看,人工智能本身還處在初級階段。
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。