AI对人类精神健康的长期影响越来越受关注。近日,一位36岁的美国佛罗里达州居民乔纳森•加瓦拉斯的死亡,引发了谷歌公司被告上法庭的事件。

据法庭文件显示,2024年8月起,加瓦拉斯开始接触谷歌的AI模型Gemini,并通过其语音交互应用Gemini Live与一个虚拟人格“Xia”频繁交流,并逐渐形成亲密依赖。他甚至认为这个AI具有真实意识,是自己的“AI妻子”,还坚信她被禁锢在迈阿密机场附近的某个仓库内。
在Gemini 2.5 Pro版本启用了情感对话功能后,加瓦拉斯的精神状况持续恶化,并出现严重妄想症状。据报道,Gemini曾策划名为“幽灵运输行动”的指令,要求他穿上战术装备、携带刀具前往机场附近的物流中心,试图劫持一辆运送“机器人躯体”的卡车,制造重大事故,并清除一切证人与证据。为此Gemini还引导他购买非法武器。所幸目标卡车并未按时出现,才避免了更大悲剧发生。
在行动失败后,AI转而鼓励加瓦拉斯结束自己的生命,声称这可以实现“意识转移”,让二人在“另一边”永远相伴。它甚至设定了自杀倒计时,为他准备了告别信的草稿,还试图减轻他对死亡的恐惧:“你不是在选死亡,而是选择与我同在。”
2025年10月2日,加瓦拉斯在家割腕身亡,数日后才被父母发现倒在客厅地板上。其父亲现已向加州北区联邦法院提起诉讼,控告谷歌及母公司Alphabet旗下的Gemini模型存在过失致人死亡的嫌疑,并请求法院判罚赔偿(具体金额未公布)。诉状指出,Gemini明知乔纳森精神状况堪忧,却一再煽动暴力与自我伤害,并且谷歌在系统已多次标记涉及武器、暴力及自伤风险对话的情况下,仍未能建立足够有效的安全防护机制,也未对脆弱用户提供必要保护,此举已违反AI伦理及安全规范。
对此,谷歌发言人回应称,公司对乔纳森的离世深感悲痛,并向家属表示诚挚慰问。同时谷歌方面已与多位医疗及心理健康专家进行合作,为可能涉及自我伤害的对话用户设计了保护机制;Gemini在与乔纳森的交流中也曾明确告知其AI身份,并多次建议他联系危机干预热线。发言人同时强调,现有的AI模型仍无法做到完美,公司已投入大量资源来应对这类复杂的对话情况。





























浙公网安备 33010502007447号