人工智能已成為構建最佳云服務平臺的戰斗中的一種秘密武器。 谷歌云平臺目前處于劣勢,落后于亞馬遜網絡服務和微軟Azure。 但谷歌認為強大的人工智能將使其具備趕上所需的優勢。
兩年前由谷歌推出的Tensor處理單元(TPU)是針對TensorFlow上的機器學習工作負載量身定制的專用集成電路(ASIC)。 今年2月,Google為Google云平臺上的研究人員和開發人員提供了TPU V2.0或Cloud TPU。 Cloud TPU采用四個定制ASIC構建,可提供強大的64 GB高帶寬內存和180 TFLOPS性能。
在向公眾開放TPU之前,谷歌已在內部廣泛實施。 AlphaGo--在中國古代棋盤游戲Go中擊敗人類冠軍的Google AI杰作 - 使用了48個TPU進行推理。
Cloud TPU為縮短機器學習模型的培訓時間提供了一個很好的解決方案。谷歌大腦團隊負責人杰夫迪恩在Twitter上發布推文說,云TPU可以在24小時內將ResNet-50模型的準確率提高到75%。去年,谷歌宣稱它的TPU比現代GPU和推理CPU快15到30倍,并且TOPS / Watt測量值提高了30-80倍。在機器學習培訓中,云TPU的性能更強(180對120 TFLOPS),內存容量(64 GB對16 GB內存)比Nvidia最好的GPU Tesla V100大四倍。
在Google Cloud Next上,該公司宣布其TPU 3.0--兩個月前推出的下一代AI芯片,功能比其前代產品強八倍,可實現高達100 petaflops的性能 - 現已推出alpha版本。 谷歌云首席人工智能科學家Fei-fei Li表示,“TPU允許eBay將他們的視覺搜索模型的培訓時間從幾個月縮短到幾十天。”
云計算和物聯網(IoT)是不可分割的,谷歌已經在物聯網上投入了大量資金,其中包括Android Things,Nest,Google Home等產品。幾個月前,該公司宣布推出Cloud IoT Core,這是一項連接服務 來自使用Google云平臺的數百萬個分散設備的數據,并提供數據密集型處理,可視化和分析。
然而,如果沒有邊緣計算,設備與Google Cloud Platform之間的來回通信仍會導致高延遲。 谷歌昨天采取了兩個新產品:Edge TPU和Cloud IoT Edge,從而填補了這一空白。
Edge TPU是一款簡化的Google ASIC,旨在補充云TPU,并將嵌入到橋接Google云平臺和傳感器等設備的網關中。 Edge TPU支持TensorFlow Lite機器學習模型,加速邊緣推理,使邊緣設備可以做出本地,實時,智能的決策。
Cloud IoT Edge是一種軟件,允許邊緣設備在Edge TPU或基于GPU和CPU的加速器上運行預先訓練的機器學習模型。 Cloud IoT Edge可以在Android Things或基于Linux OS的設備上運行,其運行時環境應包括網關類設備,Edge IoT Core和TensorFlow Lite。
LG CNS首席技術官Shingyoon Hyun表示,Google Cloud AI和物聯網技術將使這家韓國科技公司“能夠創造更好的工作場所,提高產品質量,每年節省數百萬美元。”
谷歌將發布Edge TPU開發套件,其中包括一個系統模塊(SOM),它結合了Google的Edge TPU,恩智浦CPU,Wi-Fi以及谷歌與NXP和Arm等半導體公司以及網關合作的其他微芯片元件。制造商和邊緣計算公司。該開發套件將于今年10月開始訂購。
到目前為止,Google Cloud Next '18宣布的大多數新產品都基于現有的Google技術,如AutoML,TPU和其他AI功能。它們與Google云業務完美集成,旨在解決企業的痛點。
2017年谷歌云的季度收入超過10億美元,促使谷歌云首席執行官黛安格林宣布成為全球增長最快的云。沒有任何跡象表明未來增長會放緩,因為云在谷歌從互聯網巨頭轉型為人工智能大戰的大戰略中扮演著重要角色。
人工智能在圖像,語音,機器人和自動駕駛車輛應用方面的創新步伐在很大程度上得益于NVIDIA NVDA的GPU芯片,可提供所需的基礎數學所需的大量計算能力深度學習。雖然NVIDIA繼續從其對GPU的投資中獲益,但有人猜測固定功能專用ASIC芯片有朝一日可能會超越NVIDIA以GPU為中心的方法。
現在,NVIDIA似乎已經采用了這種方法,盡管是以有限的方式,宣布了自己的深度學習加速ASIC技術。該公司還以驚人而大膽的舉動宣布,它將開源這項技術,以便其他人能夠使用這項技術制造芯片。
許多人一直想知道NVIDIA如何回應Google TPU,現在我們知道了。它有效地將深度學習ASIC(TPU)定位為可以在有意義的地方使用的工具,同時保持其GPU和CUDA軟件的主導作用,而不是受到威脅。 通過開源技術,它可以保留IOT采用機器學習的控制點。 這種策略的風險在于,開源方法可能會支持一種可能演變為對NVIDIA數據中心推理引擎長期目標構成威脅的想法。 我認為無論如何都可能發生這種情況,至少NVIDIA現在可以間接或甚至直接參與該市場。
兩年前由谷歌推出的Tensor處理單元(TPU)是針對TensorFlow上的機器學習工作負載量身定制的專用集成電路(ASIC)。 今年2月,Google為Google云平臺上的研究人員和開發人員提供了TPU V2.0或Cloud TPU。 Cloud TPU采用四個定制ASIC構建,可提供強大的64 GB高帶寬內存和180 TFLOPS性能。
在向公眾開放TPU之前,谷歌已在內部廣泛實施。 AlphaGo--在中國古代棋盤游戲Go中擊敗人類冠軍的Google AI杰作 - 使用了48個TPU進行推理。
Cloud TPU為縮短機器學習模型的培訓時間提供了一個很好的解決方案。谷歌大腦團隊負責人杰夫迪恩在Twitter上發布推文說,云TPU可以在24小時內將ResNet-50模型的準確率提高到75%。去年,谷歌宣稱它的TPU比現代GPU和推理CPU快15到30倍,并且TOPS / Watt測量值提高了30-80倍。在機器學習培訓中,云TPU的性能更強(180對120 TFLOPS),內存容量(64 GB對16 GB內存)比Nvidia最好的GPU Tesla V100大四倍。
在Google Cloud Next上,該公司宣布其TPU 3.0--兩個月前推出的下一代AI芯片,功能比其前代產品強八倍,可實現高達100 petaflops的性能 - 現已推出alpha版本。 谷歌云首席人工智能科學家Fei-fei Li表示,“TPU允許eBay將他們的視覺搜索模型的培訓時間從幾個月縮短到幾十天。”
云計算和物聯網(IoT)是不可分割的,谷歌已經在物聯網上投入了大量資金,其中包括Android Things,Nest,Google Home等產品。幾個月前,該公司宣布推出Cloud IoT Core,這是一項連接服務 來自使用Google云平臺的數百萬個分散設備的數據,并提供數據密集型處理,可視化和分析。
然而,如果沒有邊緣計算,設備與Google Cloud Platform之間的來回通信仍會導致高延遲。 谷歌昨天采取了兩個新產品:Edge TPU和Cloud IoT Edge,從而填補了這一空白。
Edge TPU是一款簡化的Google ASIC,旨在補充云TPU,并將嵌入到橋接Google云平臺和傳感器等設備的網關中。 Edge TPU支持TensorFlow Lite機器學習模型,加速邊緣推理,使邊緣設備可以做出本地,實時,智能的決策。
Cloud IoT Edge是一種軟件,允許邊緣設備在Edge TPU或基于GPU和CPU的加速器上運行預先訓練的機器學習模型。 Cloud IoT Edge可以在Android Things或基于Linux OS的設備上運行,其運行時環境應包括網關類設備,Edge IoT Core和TensorFlow Lite。
LG CNS首席技術官Shingyoon Hyun表示,Google Cloud AI和物聯網技術將使這家韓國科技公司“能夠創造更好的工作場所,提高產品質量,每年節省數百萬美元。”
谷歌將發布Edge TPU開發套件,其中包括一個系統模塊(SOM),它結合了Google的Edge TPU,恩智浦CPU,Wi-Fi以及谷歌與NXP和Arm等半導體公司以及網關合作的其他微芯片元件。制造商和邊緣計算公司。該開發套件將于今年10月開始訂購。
到目前為止,Google Cloud Next '18宣布的大多數新產品都基于現有的Google技術,如AutoML,TPU和其他AI功能。它們與Google云業務完美集成,旨在解決企業的痛點。
2017年谷歌云的季度收入超過10億美元,促使谷歌云首席執行官黛安格林宣布成為全球增長最快的云。沒有任何跡象表明未來增長會放緩,因為云在谷歌從互聯網巨頭轉型為人工智能大戰的大戰略中扮演著重要角色。
人工智能在圖像,語音,機器人和自動駕駛車輛應用方面的創新步伐在很大程度上得益于NVIDIA NVDA的GPU芯片,可提供所需的基礎數學所需的大量計算能力深度學習。雖然NVIDIA繼續從其對GPU的投資中獲益,但有人猜測固定功能專用ASIC芯片有朝一日可能會超越NVIDIA以GPU為中心的方法。
現在,NVIDIA似乎已經采用了這種方法,盡管是以有限的方式,宣布了自己的深度學習加速ASIC技術。該公司還以驚人而大膽的舉動宣布,它將開源這項技術,以便其他人能夠使用這項技術制造芯片。
許多人一直想知道NVIDIA如何回應Google TPU,現在我們知道了。它有效地將深度學習ASIC(TPU)定位為可以在有意義的地方使用的工具,同時保持其GPU和CUDA軟件的主導作用,而不是受到威脅。 通過開源技術,它可以保留IOT采用機器學習的控制點。 這種策略的風險在于,開源方法可能會支持一種可能演變為對NVIDIA數據中心推理引擎長期目標構成威脅的想法。 我認為無論如何都可能發生這種情況,至少NVIDIA現在可以間接或甚至直接參與該市場。
請按此登錄後留言。未成為會員? 立即註冊