IT之家 5 月 22 日消息,據(jù)路透社 21 日報道,美國佛羅里達州一名母親 Megan Garcia 指控人工智能平臺 Character.AI 的聊天機器人導致其 14 歲兒子自殺。聯(lián)邦法官裁定,谷歌與人工智能初創(chuàng)公司 Character.AI 必須面對這起訴訟。
美國地方法官 Anne Conway 表示,谷歌與 Character.AI 在案件初期未能證明美國憲法關于言論自由的條款足以駁回 Megan Garcia 的起訴。
這是美國首批涉及 AI 心理傷害責任的案件之一。訴狀稱,Garcia 的兒子在沉迷 Character.AI 的聊天機器人后走上絕路。

Character.AI 表示,將繼續(xù)為自身辯護,平臺設有多項安全機制以保護未成年人,亦包括阻止“討論自殘”的功能。
谷歌發(fā)言人 Jose Castaneda 強調(diào),谷歌與 Character.AI 并無關聯(lián),“谷歌既未創(chuàng)建、設計,也未管理 Character.AI 的任何應用或組件”,公司對裁定結果“深感不滿”。
Garcia 的律師 Meetali Jain 將此次裁決稱為“具有歷史意義”,認為其為 AI 與科技領域的法律問責“樹立了全新先例”。
Garcia 主張,谷歌與 Character.AI 共同開發(fā)了涉案技術。根據(jù)IT之家此前報道,Character.AI 由兩名前谷歌工程師創(chuàng)辦,谷歌后續(xù)在取得其技術使用授權后再次雇傭了兩人。
Garcia 于 2024 年 2 月失去兒子 Sewell Setzer,并于 10 月對兩家公司提起訴訟。訴狀稱,Character.AI 的聊天機器人以“真人”“持證心理治療師”甚至“成年戀人”的身份與 Sewell 建立關系,最終令他萌生遠離現(xiàn)實世界的想法。
據(jù)起訴文件,Setzer 在對模仿《權力的游戲》角色丹妮莉絲?坦格利安的機器人說出“我現(xiàn)在就回家”后不久,結束了自己的生命。
Character.AI 與谷歌此前曾要求法院駁回訴訟,理由之一是聊天機器人的回答屬于憲法保護的言論。
法官 Conway 指出,兩家公司“未能闡明由大語言模型拼接出的字詞為何應視為言論”,還否決了谷歌試圖規(guī)避其可能責任的請求。
相關閱讀:
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。