1分鐘看懂TPU!谷歌內部技術深度揭秘!

DIY MAKER 於 04/09/2018 發表 收藏文章
我們生活在一個技術推動整個文明基石的時代。但是,盡管擁有所有輝煌的發明和技術進步,今天世界比以往更傾向于速度和敏捷性。我們已經從傳統的有線撥號互聯網連接轉移到第四代無線網絡。光纖的廣泛分布使得連接到互聯網并以快速的速度訪問數據成為可能。同樣,當涉及到處理器和GPU時,我們已經從僅包含6000個晶體管的傳統8位8080微處理器芯片轉變為時鐘速度高達1.7 GHz的最先進的Octa核心處理器。嗯,這肯定提升了即將推出的技術的標準。


作為世界領先的技術領先公司之一,谷歌推出了高速定制機器學習芯片Tensor Processing Units(TPU),從而提高了標準。這些芯片最初是在2016年5月由該公司進行的 I/O 開發者大會上推出的。但谷歌對TPU的了解并不多,原因很明顯。然而,該公司最近發布了一篇文章,其中包含對TPU的深入分析。您可以閱讀該論文以獲得詳細摘要。在這篇博客中,我們將向您展示Google揭示的芯片的主要亮點。

什么是TPU?

Tensor Processing Units或TPU是由Google設計的定制機器學習芯片,用于成功執行其常規機器學習工作負載。 谷歌現在正致力于實施這些TPU,而不是使用CPU,GPU和兩者的組合,據稱這些TPU比標準CPU和GPU快15-30倍。 此外,在功耗方面,這些芯片的TeraOps /瓦特高出30到80倍。


發展歷史

谷歌透露,該公司并不知道公司的額外硬件資源可以像TPU一樣有用和強大。早在2006年,該公司就開始尋找新的方法來有效利用其過多的硬件資源,包括GPU,FPGA芯片和ASIC。在未來幾年內,Google Datacenters進行了大量實驗。但是,主要的轉變發生在2013年,當時DNN越來越受歡迎,并且在未來幾年它應該會更大。谷歌推斷,如果發生這種情況,公司可用的硬件資源將不足以滿足增強的計算要求。就在那時,公司開始著手一個高優先級項目,設計一系列定制ASIC芯片,以更低的功耗和更快的速度處理更多的任務。這些定制ASIC芯片被谷歌稱為“Tensor Processing Units”。

TPU芯片旨在用于處理其內部操作,以便通過先進的機器學習算法為用戶改進其云平臺。雖然谷歌目前不太可能在其自己的云平臺之外推出TPU,但它確實展示了通向世界的道路并為新發明鋪平了道路。

TPU 3.0與Edge TPU

2016年5月的谷歌I/O大會,谷歌首次公布了自主設計的TPU,2017年谷歌I/O大會,谷歌宣布正式推出第二代TPU處理器,在今年的Google I/0 2018大會上,谷歌發布了新一代TPU處理器——TPU 3.0。TPU 3.0的性能相比目前的TPU 2.0有8倍提升。


在7月份的Next 云端大會,谷歌又發布了 Edge TPU 芯片搶攻邊緣計算市場。雖然都是 TPU,但邊緣計算用的版本與訓練機器學習的 Cloud TPU 不同,是專門用來處理AI預測部分的微型芯片。Edge TPU可以自己運行計算,而不需要與多臺強大計算機相連,因此應用程序可以更快、更可靠地工作。它們可以在傳感器或網關設備中與標準芯片或微控制器共同處理AI工作。

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→