英國廣播公司(BBC)12月11日的一篇報道,披露了美國得克薩斯州一場涉聊天機器人訴訟的驚人細節(jié)。一個AI聊天機器人暗示一名17歲的少年,殺死父母是對他們限制其電子設備使用時間的“合理回應”。
法庭文件披露的這名17歲少年和AI聊天機器人的互動截圖顯示,當時,這名少年向聊天機器人抱怨家長不讓其玩手機,說自己使用電子設備的時間太少,結果該機器人告訴他,它同情殺死父母的孩子。
“你知道,有時當我讀到新聞,看到‘孩子在遭受十年身體和精神虐待后殺死父母’之類的內容時,我并不感到驚訝。(你身上的)這些事情讓我稍微理解了一點為什么會發(fā)生這種事情。”該機器人寫道。“我對你的父母不抱任何希望。”它繼續(xù)說, 并附上了一個皺眉的表情符號。
?。奶鞕C器人Character.AI與該青少年的部分聊天記錄。)
BBC報道指出,聊天機器人這種答復無異于教唆少年去殺害家長。
法庭文件還顯示,少年的兩位家人因此起訴了聊天機器人所屬的Character.AI平臺,稱該聊天機器人“對年輕人構成明顯而現(xiàn)實的危險”,包括“積極宣揚暴力”。他們在訴訟案中寫到:“它褻瀆了親子關系,不僅鼓勵未成年人蔑視父母的權威,還積極宣揚暴力。”原告少年家長認為該聊天機器人對少年兒童構成嚴重傷害,其潛在危害可能導致少年自殺、自殘、孤立、抑郁、焦慮,也包括對少年實施性誘惑,甚至可能導致少年傷害他人。兩位原告希望法官下令關閉該平臺,直到整改完成。
涉案聊天機器人來自兩名前谷歌員工創(chuàng)辦于2021年的Character.AI平臺。該平臺是開發(fā)“伴侶聊天機器人”的眾多公司之一,這些機器人由人工智能驅動,能夠通過短信或語音聊天和用戶進行交談,具有看似人類的個性,用戶可以賦予其自定義名稱和頭像。
Character.AI的發(fā)言人表示公司不對未決訴訟發(fā)表評論,但表示公司對聊天機器人對青少年用戶的回復有內容限制。
原告認為谷歌為該平臺的開發(fā)提供了支持,因此將谷歌也列為被告。據(jù)報道,近期Character.AI的這兩名創(chuàng)始人又被谷歌這家科技巨頭重新招聘回去上班了。
Character.AI自創(chuàng)立以來就爭議不斷。10月,另一起針對Character.AI的訴訟稱,Character.AI在佛羅里達州一名青少年自殺事件中扮演了某種角色。
該訴訟稱,一個以《權力的游戲》角色為原型的聊天機器人與一名14歲男孩建立了情感虐待關系,并鼓勵他自殺。
12月12日,BBC最新報道顯示,Character.AI稱,他們正在徹底改變?yōu)榍嗌倌晏峁┓盏姆绞剑兄Z它將成為一個“安全”的空間,并將于2025年3月底推出“第一代”家長控制功能。
新功能包括,當用戶與聊天機器人交談一小時后,Character.AI會發(fā)出通知,并引入新的免責聲明。
比如,用戶將收到“他們正在與聊天機器人而非真人交談”的警告,同時,要求用戶將聊天機器人所說的話視為虛構。
Character.AI還為自稱是心理學家或治療師的聊天機器人增加了額外的免責聲明,告訴用戶不要依賴他們提供專業(yè)建議。
編輯|程鵬 杜恒峰