訂閱
糾錯
加入自媒體

有了這款可擴展、分布式的深度學習軟件,IBM就能和AI巨人一起共舞

IBM公司在21世紀早期引進了Watson,從而進入了人工智能現(xiàn)在的周期,并且從那時候開始在不斷加大力度。最近,IBM發(fā)布了PowerAI,IBM的軟件工具包解決方案與OpenPower系統(tǒng)配合使用,針對那些不想完全從頭開始開發(fā)自己的AI解決方案,但是仍然希望定制滿足自己特定深度學習需求的企業(yè)。如今,IBM Research公布了一項新突破,這將只會進一步加強PowerAI和其它的AI產(chǎn)品,這是一個在過去六個月中我所看到的突破性的分布式深度學習軟件。

擺脫單點瓶頸

所有一直關注人工智能的人都知道,深度學習在近幾年才真正發(fā)展起來。它為商業(yè)領域和消費者的百個應用程序提供支持,并且在持續(xù)增加。然而,阻礙深度學習進一步激增的最大問題之一是可擴展性問題,F(xiàn)在大多數(shù)AI服務器只是一個單一的系統(tǒng),而不是多個系統(tǒng)的組合。最流行的開源深度學習軟件框架在多個服務器上表現(xiàn)不佳,造成了一個耗時的瓶頸。換句話說,盡管許多數(shù)據(jù)科學家已經(jīng)可以訪問4到8個GPU服務器,他們不能利用它擴展到單個節(jié)點之外,到目前為止,這個軟件并不是為此而設計的。

輸入IBM DDL庫:這個庫使用IBM Research的獨特集群方式構(gòu)建,連接到領先的開源AI框架(如:TensorFlow, Caffee, Torch, 和Chainer)。通過DDL,這些框架能擴展到數(shù)十臺IBM服務器,利用數(shù)百個GPU—一種舊的晝夜不同的處理模型。為了描繪一張照片,當IBM最初試圖用 ImageNet-22K 數(shù)據(jù)集來訓練一個模型時,使用ResNet-101模型,在一臺Power “Minsky” 服務器上,加上4臺英偉達P100 GPU加速器,花費16天。16天的訓練意味著大大延遲了洞察力,以及嚴重阻礙生產(chǎn)力。

IBM稱DDL為“深度學習的噴氣式引擎”—一個吸引人的名字,確實不太離譜。IBM表示,使用DDL技術,能夠在64臺Power “Minsky”服務器上,一共256個英偉達的P100GPU,將相同的流程縮減到7個小時。讓我重申一下:16天縮減到7個小時。如果這些結(jié)果精確的話,那么為什么IBM認為它可以真正的改變游戲規(guī)則?在7個小時內(nèi),IBM的新的圖像識別準確度33.8%的記錄,超過了微軟在業(yè)界創(chuàng)立的10天精確度29.9%的記錄。為了完成這一切,IBM表示,DDL可以高效擴展,上升到256個GPU,Caffe深度學習框架的效率提升到95%。

測試版已經(jīng)上線

開發(fā)者不用非要等到嘗試這項新技術。IBM research正在為IBM系統(tǒng)提供一個DDL測試版,IBM系統(tǒng)現(xiàn)在已經(jīng)發(fā)布了新版本IBM PowerAI (TensorFlow 和 Caffe,  Torch 和 Chainer 即將推出)的第四個版本。我認為這將是IBM電源系統(tǒng)的一個重要的補充,他被稱作“瑞士軍刀加速器”—標準PCI Express、CAPI和NVLink標準,都被封裝在一個平臺上。

關于DDL,另外一個需要特別注意的是,它將不僅可以在本地使用,還可以在云端使用—通過云端服務商Nimbix提供。今天的異構(gòu)環(huán)境,靈活性是顯而易見的。開發(fā)者能夠在Nimbix者在IBM Power系統(tǒng)服務器上,使用測試版本。

總結(jié)

很有意思的事情是,這項新技術是來自于IBM,而不是其它如谷歌或者Facebook,這樣更大更響亮的AI組件支持者?雌饋,IBM能夠繼續(xù)攜“第一”到桌面上,IBM不僅是企業(yè)領的主要參與者,還在深度學習領域也是。DDL和OpenPOWER是秘密資源—我相信未來將給IBM所需要的結(jié)果—大大縮短訓練時間,提高精確度和效率。我認為消除了瓶頸,DDL有潛力去實現(xiàn)打開深度學習的門閘。這對IBM、PowerAI和OpenPOWER是真正改變游戲規(guī)則。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號