人工智慧的“黑鏡”——人臉識別,是否侵犯個人隱私?

DIY MAKER 於 11/12/2018 發表 收藏文章
安全專家警告說,人臉識別技術可能會造成大規模的隱私侵犯,因為機器人在你走在街上時默默地監視著你。 有人擔心“偽裝面部識別”技術可能侵蝕個人匿名。





根據IEEE計算機視覺研討會國際會議的一份新研究論文,人工智慧可能很快就能夠識別被服裝隱藏的面孔。 正如CB Insights報道的那樣,研究人員創造了一種人工智慧,在識別用圍巾遮蓋的面部時,準確率達到67%。

對于隱私組織來說,這項技術的發展是一個嚴重的威脅。 它可以結束所有以前的面部識別系統所帶來的限制:如果你遮住臉,就不會被人看見。 即使你看不到他們的臉,人工智慧很快就會以你認識朋友或家人的方式猜測你是誰。

研究人員開發的技術通過識別始終可見的14個面部“關鍵點”來工作。 即使面部被遮蓋,這些特征仍然有些明顯。




通過使用神經網絡,人工智慧通過查找已經過訓練發現的14個特征來設法識別模糊的面部。 它將他們在主題面部的位置與之前用于訓練的非偽裝面部的位置進行比較。 然后它能夠識別關鍵點在被遮擋時移動的方式。

偽裝的面部識別系統可能對社會產生重大影響。通過消除有效偽裝自己的能力,他們會使逃避檢測變得更加困難。

研究人員設計的系統目前是有限的。它是在小型數據集上進行訓練的,當主體背景復雜時,精度會降低。然而,67%的總體成功率表明,當以更大規模運行時,該技術可能更有效。如果使用照片數據庫中的所有圖像進行訓練,AI的效力可能會顯著提高。

盡管研究人員表示該系統的目的是為了善用,但惡意群體顯然有可能惡意使用該技術。由英國和印度學生創建的AI目前仍處于開發階段。




開發神經網絡模型的關鍵挑戰之一在于選擇正確的框架。 數據科學家和開發人員必須從眾多選擇中選擇合適的工具,包括Caffe2,PyTorch,Microsoft Cognitive Toolkit和TensorFlow等等。



說到面部識別,谷歌曾經在2017年發布了一款AI硬件紙盒套件,也是旗下AI開源項目(AIY Projects)的作品。Vision Kit 是一套簡單的計算機視覺系統,它可以檢測幾千種常見物體,但也可以對人類的臉部表情進行檢測,并顯示出情緒,比如微笑、皺眉、憤怒、開心等等。

如果喜歡我們的文章,請即分享到︰

留言

會員
我要評論
請按此登錄後留言。未成為會員? 立即註冊
快捷鍵:←
快捷鍵:→