人工智能商業(yè)落地:風云再起,產業(yè)爆發(fā)
谷歌WaveNet可以合成更逼真的人聲
2016年9月9日,Google的DeepMind人工智慧團隊(就是開發(fā)了AlphaGo的那個)利用了神經元網絡,開發(fā)了第三種方式--也就是直接拆解出聲源樣本,產生出一個更深層的語言「習慣」資料,之后再從這些習慣直接建構出音訊檔來。取決于喂給WaveNet AI的資料,它甚至可以模擬出嘴型動作和換氣的細微聲音,在音調和語速上也更有個人風格。而且WaveNet的應用并不止于人聲而已,研究人員喂給它古典樂做為參考,它也能組合出相當有模有樣的古典樂出來。
Elon Musk宣布Tesla所有新車將安裝Autopilot2.0系統(tǒng)
2016年10月,Elon Musk宣布Tesla所有新車將安裝具有完全自動駕駛功能的硬件系統(tǒng)Autopilot2.0,并計劃在2017年年底之前以完全自動駕駛模式讓無人駕駛汽車從洛杉磯開往紐約
谷歌開源TensorFlow圖說生成模型,可真正理解圖像
9月22號,谷歌宣布開源圖說生成系統(tǒng)Show and Tell最新版在TensorFlow上的模型。該系統(tǒng)采用編碼器-解碼器神經網絡架構,分類準確率達93.9%,在遇到全新的場景時能夠生成準確的新圖說。谷歌表示,這說明該系統(tǒng)能夠真正理解圖像。這次發(fā)布的版本對系統(tǒng)計算機視覺組件的一些重大技術提升,訓練速度更快、生成的圖說也更加準確、豐富。
Facebook、Amazon、谷歌、IBM和微軟結成史上最大AI聯盟
9月28號,Facebook、Amazon、谷歌Alphabet、IBM和微軟自發(fā)聚集在一起,宣布締結新的人工智能(AI)伙伴關系,旨在進行研究和推廣最佳做法。這意味著高科技公司將經常聚在一起討論人工智能的進展情況。他們還將正式建立一種體制,實現公司間的溝通。值得注意的是,在日常工作中,這些團隊將不斷競爭,利用機器智能開發(fā)出最好的產品和服務。
機器學習也要反歧視?谷歌提出機會均等框架
隨著機器學習技術的快速發(fā)展,人們對理解其社會影響的興趣也越來越大。機器學習中一個尤其成功的分支是監(jiān)督學習(supervised learning)。只要有足夠的歷史數據和計算資源,學習算法通常都能得出有效得讓人驚訝的未來事件預測器。即使最好的預測器也會犯錯。盡管機器學習的目標是最小化錯誤的可能性,但我們可以如何防止特定的群體經受不成比例的這類錯誤?10月7號,為了解決機器學習中的反歧視問題,谷歌提出機會均等框架。
Facebook推出AI和機器學習戰(zhàn)略
在11月份的Web峰會上,Facebook首席技術官Mike Schroepfer闡述了人工智能和機器學習將在公司今后改善全球連通性、技術可及性和人機交互能力方面將發(fā)揮的重要作用。并再次表示,未來十年Facebook的發(fā)展愿景是“連接全世界”,而具體創(chuàng)新點則落實到“連接”、人工智能(AI)和虛擬現實(VR)三個領域上。
谷歌人工智能翻譯工具獲新突破
2016年11月22日,谷歌發(fā)布了人工智能翻譯工具。此前其可以把英文日文,英文韓文進行互譯,但現在機器可以在前兩對翻譯訓練的基礎上,“無師自通”地把日文直接翻譯成韓文,整個過程不再借助英文的“橋接”。這或許意味著計算機自己內部形成了一套更深層次的概念體系,其更像是一個哲學的進步。
OpenAI發(fā)布人工智能訓練平臺Universe
2016年12月5日,特斯拉首席執(zhí)行官伊隆馬斯克(Elon Musk)創(chuàng)辦的人工智能非營利性組織OpenAI發(fā)布了一款名為“Universe”的虛擬訓練平臺,以加快人工智能技術的發(fā)展。具體來說,開發(fā)人員可以將視頻游戲、應用程序等內容放在這個平臺上,對人工智能進行訓練。
自動唇讀系統(tǒng)LipNet唇語識別準確率為95.2%
2016年12月,英國牛津大學、谷歌DeepMind等研發(fā)的自動唇讀系統(tǒng)LipNet對Gird語料庫實現了準確率為95.2%的唇語識別,其對BBC電視節(jié)目嘉賓進行唇語解讀,準確率為46.8%,遠遠超過專業(yè)的人類唇語專家(僅為12.4%)
2017年AI實現產業(yè)落地
“小度”人臉識別戰(zhàn)勝最強大腦代表
2017年1月6日,百度人工智能機器人“小度”利用其超強的人臉識別能力,以3:2的成績戰(zhàn)勝人類最強大腦代表王峰。
Alpha Go成功戰(zhàn)勝人類棋手
2017年5月份,圍棋天才柯潔與AlphaGo進行了對決?聺嵸惽暗睦潇o與斗志,在與AlphaGo對弈中逐漸消磨,最終柯潔以0:3戰(zhàn)敗。賽后柯潔曾一度哽咽:“它太完美我很痛苦,看不到任何勝利的希望!
AlphaGO的開發(fā)者之一黃士杰稱,AlphaGo的成功融合深度學習(Deep Learning)、強化學習(Reinforcement learning)與樹搜索(Tree Search)三大技術,讓程序自我對弈,自己便是自己的老師。談及AlphaGO對圍棋界的沖擊時,黃士杰表示,“未來AI是人類的工具,跟人類合作,而非跟人類對抗,現在最強的學習技能仍在人類的腦袋里!
谷歌正式發(fā)布第二代TPU,對標英偉達GPU Tesla V100
5月19日凌晨,在谷歌I/O 2017大會上,谷歌正式發(fā)布了第二代TPU。
從2016年谷歌公布了這一項目計劃之后,一直等到了2017年4月才看到詳細的文檔介紹以及論文。TPU的目標很簡單,為多種深度神經網絡設計,能夠高速、高能耗比地執(zhí)行深度學習模型的推理任務。在當時的幾種方案中,ASIC的功能完全固定,FPGA的速度優(yōu)勢不大,GPU做模型訓練沒問題但推理任務成本太高,TPU的靈活性稍高于ASIC,并提供了大幅高于GPU的推理任務能耗比。雖然論文中的對比對象有爭議、TPU在某些任務中的表現也并不理想,但以TPU為代表的定制芯片方案注定將會是深度學習大規(guī)模商業(yè)化應用的必備基礎設施。谷歌正式發(fā)布的第二代TPU,運算能力、存儲能力都有大幅提高。相比較上周英偉達剛剛推出的GPU Tesla V100,每秒達到120萬億次浮點運算,谷歌二代TPU最高可達到每秒180萬億次的浮點運算性能。最重要的是它還可以支持模型訓練。

請輸入評論內容...
請輸入評論/評論長度6~500個字