Google:清理YouTube暴力內容,AI是人類速度的2倍

雷鋒網 於 04/08/2017 發表 收藏文章

前有Facebook“AI”失控,後有Google為“在管理YouTube極端內容上,AI比人類更有用”站台。

雷鋒網(公眾號:雷鋒網)8月2日消息 據外媒近日報道,Google公開表示,將繼續使用機器學習開發高級程序,以打擊極端主義內容。經過一段時間的實測表明,AI比人類可以更快更精準的清理YouTube上的非法內容。

7月上旬,Google正式發佈人機協作計劃——“PAIR”(People + AI Research)。據雷鋒網了解,該項目由Google Brain的研究員 Fernanda Viégas 和 Martin Wattenberg 領導,二位都是開發複雜信息可視化技術的專家。其目的在於保證AI技術對每個人都有益處,並專注為AI開發者提供新工具。

而落實到YouTube上,則為這樣的分工模式。即讓機器學習和人類審查人員分工合作,作為跨部門途徑的一部分,以解決YouTube上的極端主義和爭議性視頻的內容傳播。在此其中,還包括為視頻設立更嚴格的審核標準,以及聘請更多人力對需要審核的內容進行標記。

在該計劃發佈一個月後,英國內政部部長 Amber Rudd 向美國科技公司一再呼籲,為打擊極端主義內容的興起,大家還需做更多工作。Google旗下YouTube向外表示,該問題利用機器學習系統已經得到很大的改善。

YouTube發言人表示,雖然這些工具並不完美,也並不匹配所有設置,但是使用過程證明,該系統比人類更能準確的標出需要刪除的視頻。

“最初我們使用機器學習來排除暴力極端主義內容,數據表明是人類排除數量的兩倍。而在減少此類內容的速度上,機器同樣是我們的兩倍。過去一個月內,有超過75%的暴力視頻內容被清理。”

該公司表示,YouTube目前在監管非法內容遇到的一個問題在於,用户上傳的內容正以每分鐘400小時的速度進行,這項可怕的數據將對實時過濾極端主義內容產生巨大的挑戰。

YouTube還表示,目前,他們已經和15個NGO和機構合作,包括反誹謗聯盟、無仇恨言論運動(the No Hate Speech Movement)和戰略對話研究所,以提高系統對這些議題、仇恨言論、激進和恐怖主義內容的理解,以便更好的處理這些內容。

接下來幾周內,Google將對視頻內容執行更嚴格的標準,這些視頻可能是令人反感但又不違法的。該公司表示,YouTube上雖然有些視頻內容被標記為不適當,如含有爭議性的宗教主義內容等,但其並不違反公司對仇恨言論或暴力極端主義的政策的,將被置於“被限制的區間”。

如何處理這些內容?一位YouTube發言人對此表示,“這些視頻依然會留在YouTube的插頁式廣告中,不會被推薦,也不會有盈利,更不會有評論、推薦、喜歡等關鍵功能。”

作為預防激進主義的一部分,YouTube也開始對某些視頻頁面的特定關鍵詞進行重新定向搜索,這些頁面直達暴力極端主義內容。

此外,Google方也表示將繼續開發機器學習技術,並以其他技術公司合作處理網絡上的極端主義言論。

Via the guardian,雷鋒網編譯

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知


資料來源:雷鋒網

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→