訂閱
糾錯(cuò)
加入自媒體

AI芯片有多強(qiáng)大?TPU竟然比CPU快80倍!

2018-09-05 09:07
小彭
關(guān)注

我們生活在一個(gè)技術(shù)推動(dòng)整個(gè)文明基石的時(shí)代。但是,盡管擁有所有輝煌的發(fā)明和技術(shù)進(jìn)步,今天世界比以往更傾向于速度和敏捷性。我們已經(jīng)從傳統(tǒng)的有線撥號(hào)互聯(lián)網(wǎng)連接轉(zhuǎn)移到第四代無(wú)線網(wǎng)絡(luò)。光纖的廣泛分布使得連接到互聯(lián)網(wǎng)并以快速的速度訪問(wèn)數(shù)據(jù)成為可能。同樣,當(dāng)涉及到處理器和GPU時(shí),我們已經(jīng)從僅包含6000個(gè)晶體管的傳統(tǒng)8位8080微處理器芯片轉(zhuǎn)變?yōu)闀r(shí)鐘速度高達(dá)1.7 GHz的最先進(jìn)的Octa核心處理器。

人工智能的發(fā)展越來(lái)越抽象,越來(lái)越復(fù)雜。從早期簡(jiǎn)單的是與否的判斷,到后來(lái)精準(zhǔn)的識(shí)別,可以在復(fù)雜的場(chǎng)景里找出特定的目標(biāo),再到后來(lái),出現(xiàn) AlphaGo 這樣可以做出主動(dòng)的決策的 AI,甚至智能如 AlphaGo Zero,可以完全依靠自學(xué)實(shí)現(xiàn)快速成長(zhǎng)。

人工智能經(jīng)過(guò)這么長(zhǎng)時(shí)間的發(fā)展,在網(wǎng)絡(luò)的種類(lèi)、復(fù)雜程度和處理的信息量上都發(fā)生了天翻地覆的變化。網(wǎng)絡(luò)種類(lèi)上,從早期的 AlexNet 和 GoogleNet 到現(xiàn)在各種各樣的 GAN(生成對(duì)抗網(wǎng)絡(luò))以及各種深度強(qiáng)化學(xué)習(xí)的網(wǎng)絡(luò),它們各自網(wǎng)絡(luò)結(jié)構(gòu)都有不同,開(kāi)發(fā)者在適應(yīng)最新的網(wǎng)絡(luò)上常常會(huì)遇到一些麻煩。

處理的信息量也在成倍地增長(zhǎng),算力需求越來(lái)越高的情況下,對(duì)搭載處理單元的體積有更多限制的機(jī)器人實(shí)際上存在著在智能水平上升級(jí)的障礙。這就是為什么人工智能芯片不斷升級(jí)迭代的原因。

人工智能的終極目標(biāo)是模擬人腦,人腦大概有1000億個(gè)神經(jīng)元,1000萬(wàn)億個(gè)突觸,能夠處理復(fù)雜的視覺(jué)、聽(tīng)覺(jué)、嗅覺(jué)、味覺(jué)、語(yǔ)言能力、理解能力、認(rèn)知能力、情感控制、人體復(fù)雜機(jī)構(gòu)控制、復(fù)雜心理和生理控制,而功耗只有10~20瓦。

可能有很多人會(huì)問(wèn),目前在人工智能領(lǐng)域,NVidia GPU為什么具有無(wú)可撼動(dòng)的霸主地位,為什么AMD的GPU和NVidia GPU性能相差不多,但是在人工智能領(lǐng)域的受歡迎的程度卻有天壤之別。

2011年,負(fù)責(zé)谷歌大腦的吳恩達(dá)通過(guò)讓深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練圖片,一周之內(nèi)學(xué)會(huì)了識(shí)別貓,他用了12片GPU代替了2000片CPU,這是世界上第一次讓機(jī)器認(rèn)識(shí)貓。

2016年,谷歌旗下Deepmind團(tuán)隊(duì)研發(fā)的機(jī)器人AlphaGo以4比1戰(zhàn)勝世界圍棋冠軍職業(yè)九段棋手李世石(AlphaGo的神經(jīng)網(wǎng)絡(luò)訓(xùn)練用了50片GPU,走棋網(wǎng)絡(luò)用了174片GPU),引發(fā)了圍棋界的軒然大波,因?yàn)閲逡恢北徽J(rèn)為是人類(lèi)智力較量的巔峰,這可以看做是人工智能史上的又一個(gè)重大里程碑事件。

谷歌并不是唯一一家為這種設(shè)備上的AI任務(wù)設(shè)計(jì)芯片的公司。 ARM,Qualcomm,Mediatek和其他公司都制造了自己的AI加速器,而Nvidia制造的GPU在培訓(xùn)算法市場(chǎng)上占據(jù)了主導(dǎo)地位。

然而,Google的競(jìng)爭(zhēng)對(duì)手并沒(méi)有控制整個(gè)AI堆棧。 客戶(hù)可以將他們的數(shù)據(jù)存儲(chǔ)在Google的云端; 使用TPU訓(xùn)練他們的算法; 然后使用新的Edge TPU進(jìn)行設(shè)備上推斷。而且,他們很可能會(huì)使用TensorFlow創(chuàng)建他們的機(jī)器學(xué)習(xí)軟件--TensorFlow是由Google創(chuàng)建和運(yùn)營(yíng)的編碼框架。

這種垂直整合具有明顯的好處。 Google可以確保所有這些不同的部分盡可能高效,順暢地相互通信,使客戶(hù)更容易在公司的生態(tài)系統(tǒng)中玩游戲。

2016年5月的谷歌I/O大會(huì),谷歌首次公布了自主設(shè)計(jì)的TPU,2017年谷歌I/O大會(huì),谷歌宣布正式推出第二代TPU處理器,在今年的Google I/0 2018大會(huì)上,谷歌發(fā)布了新一代TPU處理器——TPU 3.0。TPU 3.0的性能相比目前的TPU 2.0有8倍提升,可達(dá)10億億次。

TPU全名為T(mén)ensor Processing Unit,是谷歌研發(fā)的一種神經(jīng)網(wǎng)絡(luò)訓(xùn)練的處理器,主要用于深度學(xué)習(xí)、AI運(yùn)算。在7月份的Next 云端大會(huì),谷歌又發(fā)布了 Edge TPU 芯片搶攻邊緣計(jì)算市場(chǎng)。雖然都是 TPU,但邊緣計(jì)算用的版本與訓(xùn)練機(jī)器學(xué)習(xí)的 Cloud TPU 不同,是專(zhuān)門(mén)用來(lái)處理AI預(yù)測(cè)部分的微型芯片。Edge TPU可以自己運(yùn)行計(jì)算,而不需要與多臺(tái)強(qiáng)大計(jì)算機(jī)相連,因此應(yīng)用程序可以更快、更可靠地工作。它們可以在傳感器或網(wǎng)關(guān)設(shè)備中與標(biāo)準(zhǔn)芯片或微控制器共同處理AI工作。

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)