分析:物聯網的下一站是人工智能

論文類別:計算機論文 > 互聯網研究論文
上傳時間:2016/8/13 7:31:00

  (免費論文下載中心訊)2016年7月爆出了舉世震驚的軟銀234億英鎊收購ARM公司事件,軟銀首席執行官孫正義就此表示,這一收購標誌著軟銀的一次“範式轉變”——投資物聯網。誠然,ARM作為壟斷了智能手機業的芯片設計公司,最近一兩年來正積極向物聯網拓展。

  然而,ARM僅僅提供物聯網芯片的設計,即便真如Gartner所預測在2020年將有260億物聯網設備,但這也只是物聯網的物理基礎。如何對這260億物聯設備7×24源源不斷產生出來的數據進行分析、判斷和商業變現,單靠人工則遠遠不能滿足這一需求,而必須依靠自動化的算法,這就是Gartner所積極倡導的算法經濟。

  人工智能將成主流商業競爭策略

  為什麽說人工智能將成主流商業競爭策略?這是因為在算法經濟時代,人工智能是終極算法,對終極算法的追求必將成為主流商業競爭策略。

  在華盛頓大學教授Pedro Domingos的2015年新書《終極算法》中,有這樣論斷:“終極算法”就是通過機器學習的方式,自動發現和創造其它所有算法的“主算法”。這個所謂的“主算法”是單一的、全球通用的算法,這個“主算法”對於生物界來說是人類大腦,對於以物聯網為基礎的機器世界來說就是人工智能。

  在過去60年間,全球最頂尖的科學家們一直在研究如何用數學的方式來模擬人類的智能。早期可證明《數學原理》的“邏輯理論家”程序讓機器具備邏輯推理能力,中期的專家系統讓機器能獲得人類的知識,再到後來旨在讓機器自主學習知識的機器學習算法,科學家們對人工智能的探索一直沒有停止。

  進入到2016年,也是人工智能學科誕生60周年之際,基於深度學習的機器學習算法成為人工智能主流,而深度學習的核心就是多層深度神經元網絡DNN,這也是目前主流科學家能達到的最為成熟的機器智能。

  2016年7月21日,技術解決方案提供商SoftServe發布了Big Data Snapshot研究報告,研究顯示62%的大中型公司希望在未來的兩年內能將機器學習用於商業分析。這意味著商用多層深度神經元網絡DNN,即將成為各大企業追逐的主流商業競爭策略。

  硬件進步推動人工智能商用

  我們正在進入人工智能的商用時代。經過60年的發展,基於DNN的人工智能已經從高校和實驗室走進了企業,並從企業擴散向千家萬戶。谷歌今年剛發布的智能硬件Google Home、即將量產的阿裏互聯網汽車、微軟人工智能助理Cortana等,都是基於DNN的規模化商業應用。

  在更為廣泛的傳統企業應用層面,一場大規模的人工智能商用化正在開始,這是基於硬件的進步,其中一個顯著的進步是GPU在人工智能商用中的崛起。《連線》雜誌在2015年底發表了一篇名為《與Google競爭,Facebook開源了人工智能硬件》文章中談及GPU在人工智能商用時代的崛起。現在,Facebook、Google、微軟、百度等大型互聯網公司正在轉向利用GPU完成人工智能商業應用。

  在過去,算法模型依靠CPU計算得出,但人工智能算法的獨特性在於分布式並行計算,這並非基於串行計算的CPU所擅長。實際上針對圖形圖像處理的GPU從一開始就是大規模並行計算,這也是為什麽斯坦福大學的吳恩達教授會考慮采用GPU優化人工智能算法的初衷。研究表明,12顆NVIDIA GPU可以提供相當於2,000顆CPU的深度學習性能。

  盡管從長期來看,開發真正的人工智能芯片依然是全球學界與企業界共同需要完成的任務,但那仍需要很長時間的探索與實驗。從當前人工智能商業化需求來看,把GPU用於人工智能商用顯然具有極大的優勢。這就是2016年4月,NVIDIA推出基於GPU的全球首款深度學習超級計算機DGX-1的原因。

  首款GPU深度學習超級計算機

  首款GPU深度學習超級計算機NVIDIA DGX-1基於NVIDIA Tesla P100 GPU,該GPU采用2016年最新的NVIDIA Pascal GPU架構。Pascal是第五代GPU架構,於兩年前的GPU技術大會(GTC)上公布,產品將於2016年上市,這就是Tesla P100 GPU。

  作為新一代GPU架構,Pascal相比於前一代的Maxwell有較大的性能提升。根據NIVIDIA的數據,Pascal GPU在訓練深度神經網絡的性能方面有1個數量級的提高。2015年GTC大會上,用4顆Maxwelll GPU訓練Alexnet深度神經網絡需要25小時,到了2016年GTC大會上用8顆Pascal GPU則只用2小時;對比英特爾雙路至強E5服務器訓練Alexnet網絡需要150個小時,而DGX-1只需要2個小時。

  Alexnet神經網絡是2012年國際ImageNet計算機圖形識別大賽的冠軍深度學習算法,著名的開源深度學習算法Caffe就是基於Alexnet。而到2015年的ImageNet大賽中所有的最好成績,都是基於深度學習且在GPU加速的深度神經網絡,這也難怪《連線》雜誌驚嘆GPU在人工智能時代的崛起。

  Pascal GPU架構的優勢在於:引入了NVIDIA獨家的新高速總線NVLink,專門用於GPU以及GPU與CPU的高速互連,GPU最高能夠以160 GB/s的雙吐帶寬訪問系統內存,相當於PCIe傳統帶寬的5倍;采用了目前最快、容量最高的堆疊式內存技術HBM2,Tesla P100也是全球首款采用HBM2內存的GPU;顯著改進編程模型的統一內存,以單一統一虛擬地址來訪問系統中所有CPU和GPU內存,極大簡化了程序的可移植性及數據吞吐能力等。

  微軟研究院首席語音科學家黃學東表示:“微軟正在開發具有1,000多層的超級深度神經網絡。NVIDIA Tesla P100的驚人性能將讓微軟CNTK能夠加速實現人工智能的突破。”

  80萬的AI服務器,到底值不值?

  NVIDIA DGX-1的定價為12,900美金,約合80萬人民幣。那麽,這個價格到底值不值呢?

  NVIDIA DGX-1提供8顆Tesla P100加速器、每顆GPU 16GB內存、7TB固態硬盤DL高速緩存等配置,吞吐量相當於250臺E5雙路X86服務器。那麽,按2萬元人民幣一臺E5服務器簡單估算,250臺即500萬的成本,這還不包括機房、網絡、能源等額外成本。而DGX-1采用3U架上型機箱,可單獨使用也可以集成到集群當中,顯然用DGX-1做集群更劃算。

  在集成的軟件方面,NVIDIA DGX-1提供了一整套優化的深度學習軟件,屬於開箱即用型。在NVIDIA的開發者網站Developer.nvidia.com上,有一個Deep Learning深度學習專區,裏面提供了Deep Learning SDK開發工具包、NVIDIA DIGITS圖像分類與識別軟件、Deep Learning開源框架等定制化軟件為深度學習提供了全方位的軟件支持,可供下載和使用。

  其中,Deep Learning SDK開發工具包內含強大的工具及類庫,可用於設計、開發和部署面向GPU優化的深度學習應用。其中的類庫包括深度學習基礎cuDNN、線性代數、稀疏矩陣、多GPU通信以及全面的CUDA C\C++開發環境。NVIDIA DIGITS深度學習管理調度平臺為圖像視頻類數據分類和識別,提供了包括LeNet、AlexNet、GoogLeNet等在內的預設優化算法。除此之外,NVIDIA還定期更新開發者網站,為開發者提供更多的優化算法——如果說GPU已經是深度學習領域不能或缺的組成,那麽這款面向人工智能機器學習的NVIDIA DGX-1則讓更多企業拋開束縛,以更快的步伐邁向人工智能。

  基於NVIDIA GPU的商用人工智能軟件還有一個很大的優勢,在於GPU的普適性:針對個人電腦的GeForce、針對雲和超級計算機的Tesla、針對機器人和無人機的Jetson以及針對汽車的DRIVE PX等所有NVIDIA GPU都共用同一種架構。

  百度、谷歌、Facebook、微軟是首批把NVIDIA GPU應用於深度學習的企業,在近兩年內與NVIDIA在深度學習方面合作的企業激增了近35倍至3,400多家,涉及醫療、生命科學、能源、金融服務、汽車、制造業以及娛樂業等多個行業。

  考慮到NVIDIA DGX-1在硬件、軟件和集成服務等方面的明顯優勢,80萬的價格並不為高。NVIDIA DGX-1顯然能夠大幅提升AI模型的學習和訓練時間,加快對於來自物聯網上各類圖片、視頻、語音等非結構化數據的處理速度,比如工業生產線檢測的圖片、醫療影像視頻、道路交通圖片與視頻分析等等,幫助企業盡快、盡早地從AI算法中受益。

  中科曙光成為NVIDIA DGX-1在中國最重要的戰略合作夥伴之一,而全球領先的監控產品供應商、中國平安城市解決方案提供商海康威視也成為NVIDIA DGX-1的首單客戶,後者將把DGX-1用於視頻監控方面的深度學習超級計算機項目上。

  NVIDIA DGX-1已經於今年7月正式上市,DGX-1的上市有望激活人工智能的大規模商用。對於企業來說,在跟投物聯網項目的同時,需要開始考慮人工智能策略。在大的產業趨勢到來之前,只有領先一步,才能步步占據先機。(來源:雲科技時代 編選:免費論文下載中心)

下载论文

論文《分析:物聯網的下一站是人工智能》其它版本

互聯網研究論文服務

網站聲明 | 聯系我們 | 網站地圖 | 論文下載地址 | 代寫論文 | 作者搜索 | 英文版 | 手機版 CopyRight@2008 - 2017 免費論文下載中心 京ICP备17062730号