TensorFlow 1.9 正式發佈!用TensorFlow玩轉Google AIY

DIY MAKER 於 06/08/2018 發表 收藏文章
TensorFlow 1.9 現已正式發佈!請查看相應公告,及時瞭解一些主要特點和重大改變,輕鬆升級您的代碼。


主要特點和改進

● tf.keras 檔升級: 新的基於 Keras 的入門以及程式員指導頁

● tf.keras 升級到 Keras 2.1.6 API

● 添加 tf.keras.layers.CuDNNGRU 和 tf.keras.layers.CuDNNLSTM 層

● 對梯度提升樹估算器 (gradient boosted trees estimators) 添加核心功能欄和損失 (feature columns andlosses) 的支持

● TFLite 優化轉換器的 Python 介面有所擴展,命令行介面 (AKA:toco,tflite_convert) 再次包含在了標準 pip 安裝中

● 優化了數據載入和文本處理:

tf.decode_compressed

tf.string_strip

tf.strings.regex_full_match

● 實驗性地增加了對新的預製估算器的支持:

tf.contrib.estimator.BaselineEstimator

tf.contrib.estimator.RNNClassifier

tf.contrib.estimator.RNNEstimator

● distributions.Bijector API 支持使用新的API變化為 Bijectors 進行廣播

重大改變

● 如果你正在打開空變數範圍,用 variable_scope (tf.get_variable_scope(), ...) 替換 variable_scope ('', ...)

● 用於構建自定義操作的標題已從 site-packages/external 移至 site-packages/tensorflow/include/external

Bug 修復及其他一些變更

● tfe.Network 已棄用。請從 tf.keras.Model 指定繼承

● 分層變數名稱在以下條件中已更改:

使用帶自定義變數範圍的 tf.keras.layers

在子類 tf.keras.Model 類別中使用 tf.layers

● tf.data :

Dataset.from_generator() 現能接受一個 args 列表,以便創建嵌套生成器

當 shuffle = False 或一個 SEED 通過的情況下,Dataset.list_files() 現在將會產生確定性結果

tf.contrib.data.sample_from_datasets() 和 tf.contrib.data.choose_from_datasets() 將更容易採樣或更容易確定地從多個數據集中選擇元素

tf.contrib.data.make_csv_dataset() 現支持引用字串中的換行符,並刪除了兩個不經常使用的參數

(C++) DatasetBase::DebugString() 現已設為常量

(C++) DatasetBase::MakeIterator() 已重新更名為 DatasetBase::MakeIteratorInternal()

(C++) IteratorBase::添加了Initialize()method 以支持在迭代器構建期間提出錯誤

● Eager Execution :

通過 tf.GradientTape.stop_recording 添加暫停梯度計算的記錄操作功能

更新文檔,介紹手冊

● tf.keras :

將 Keras code從_impl 檔夾中移出並移除API檔

tf.keras.Model.save_weights 現在默認以 TensorFlow 格式保存

啟用數據集迭代器以傳遞至 tf.keras.Model 訓練/評價方法
● TensorFlow Debugger (tfdbg)

修復了 TensorBoard 調試器插件在原始檔案大小超過 gRPC 消息限制 (4 MB) 時無法處理的問題

● tf.contrib :

tf.contrib.framework.zero_initializer 支持 ResourceVariable

添加 "constrained_optimization" 到 tensorflow/contrib????


眾所周知,穀歌的AIY專案Vision Kit主要組件是 Raspberry Pi 的 Vision Bonnet 配件板。VisionBonnet板是該專案的核心,採用Intel Movidius MA2450晶片。 這種低功率視覺處理單元能夠運行神經網路模型來識別物體。



附帶的軟體運行三個基於TensorFlow的神經網路。 其中一個基於穀歌的MobileNets平臺,能夠識別超過1,000個日常物品。 第二個可以在圖像中發現面部和表情。 最後一個是專門用於識別貓,狗和人的神經網路。 Google還為AIY Vision創建了一個工具,允許您使用TensorFlow訓練新模型。 該套件支持Python API以進行基本更改,例如更改按鈕LED的顏色,調整揚聲器音量等。

AIY Vision Kit(視覺套件)也是穀歌推出的一款DIY人工智慧套件。AIY Vision Kit讓您可以構建自己的智能相機,可以使用機器學習查看和識別對象。 所有這些都裝在一個方便的小紙板盒子裏,由Raspberry Pi和Intel movidius提供動力。它可以運行具有低耗處理能力的深度學習演算法。
標籤: google  google AIY  人工智慧  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→