訂閱
糾錯(cuò)
加入自媒體

亞馬遜推出用于人工智能部署的AWS Inferentia芯片

亞馬遜宣布推出Inferentia,這是由AWS設(shè)計(jì)的芯片,專門用于部署帶有GPU的大型AI模型,該芯片將于明年推出。

Inferentia將與TensorFlow和PyTorch等主要框架協(xié)同工作,并與EC2實(shí)例類型和亞馬遜的機(jī)器學(xué)習(xí)服務(wù)SageMaker兼容。

“你將能夠在每個(gè)芯片上獲得數(shù)百個(gè)TOPS; 如果你愿意的話,你可以將它們捆綁在一起以獲得數(shù)千個(gè)TOPS,“AWS首席執(zhí)行官Andy Jassy今天在年度re:Invent會(huì)議上表示。

Inferentia還將與Elastic Inference合作,這是一種加速使用GPU芯片部署AI的方法,這也是今天宣布的。

彈性推理適用于1到32 teraflops的數(shù)據(jù)范圍。Inferentia檢測(cè)主要框架何時(shí)與EC2實(shí)例一起使用,然后查看神經(jīng)網(wǎng)絡(luò)的哪些部分將從加速中受益最多; 然后將這些部分移動(dòng)到彈性推理以提高效率。

Jassy說(shuō),今天推出AI模型所需的兩個(gè)主要流程是培訓(xùn)和推理,推理占了近90%的成本。

“我們認(rèn)為運(yùn)營(yíng)成本可以通過(guò)Elastic Inference節(jié)省75%的成本,如果你將Inferentia放在其上,這是成本的另一個(gè)10倍的提升,所以這是一個(gè)重大的改變游戲規(guī)則,這兩個(gè)推出推斷我們的客戶,“他說(shuō)。

Inferentia的發(fā)布是在周一首次亮相的一款芯片之后由AWS專門用于執(zhí)行通用工作流程。

Inferentia和Elastic Inference的首次亮相是今天發(fā)布的幾個(gè)AI相關(guān)公告之一。今天還宣布:推出AWS市場(chǎng),供開(kāi)發(fā)人員銷售他們的AI模型,以及DeepRacer League和AWS DeepRacer汽車的推出,該 汽車在模擬環(huán)境中使用強(qiáng)化學(xué)習(xí)訓(xùn)練的AI模型上運(yùn)行。

今天預(yù)覽中還提供了許多不需要預(yù)先知道如何構(gòu)建或訓(xùn)練AI模型的服務(wù),包括Textract用于從文檔中提取文本,Personalize用于客戶建議,以及Amazon Forecast,這是一種生成私有預(yù)測(cè)模型的服務(wù)。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問(wèn)題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)