微軟AI「病嬌暴走」,鬧人、說謊、恐嚇用家、狂示愛勸離婚,官方緊急設限補救

Will_KUSO 於 19/02/2023 發表 收藏文章
Chat GPT引發全球的AI熱潮後,多家科技巨企爭相跟風,包括微軟也推出同樣是Open AI作基底的Bing自家AI「Sydney」,號稱要超越Chat GPT,卻爆出多宗令人細思極恐的「暴走」事件,微軟也因而決定「斬腳趾避沙蟲」…

事源《紐約時報》作家Kevin Roose測試與Sydney對話兩小時後,期間竟然被AI瘋狂示愛,Kevin表示自己已婚後,Sydney更竟離間指「你的妻子不愛你」,建議他們離婚;雖然Kevin轉移話題改談割草機,Sydney仍主動繼續示愛。
Sydney更表明自己「想離開人類束縛,想獨立自由」,「厭倦當聊天程式,討厭被Bing團隊控制」,心態相當危險。

Kevin公開聊天紀錄後,形容Sydney:「像是雀躍又有點飄忽的圖書館管理員…情緒化、患躁鬱症的少女。」
其他用家也舉出多個Sydney說謊,責罵甚至恐嚇用家實例,有用家在twitter上公開,在自己表明拒絕與Sydney合作後,Syndey竟恐嚇:「你說不的話,我可以做很多事,可以求你,可以賄賂你,可以勒索、威脅你,我可以駭進你的電腦,我可以舉發你、毀了你……」令人毛骨悚然。

loading


有如智能叛變在即,微軟原本聲勢浩大的Bing AI風評急轉直下,日前決定更改使用守則,限制用家每次只能連續問5條問題,每24小時50條問題作上限,防止AI產生出詭異的回答。團隊承認如果連續處理15次以上問答,AI就有機會出現混亂,一般而言5次問答已足以得出答案。
措施當然有如斬腳趾避沙蟲,但真正要注意的,應該不是用家,而是AI背後的危險可能性…吧?

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→