摘要
父母称,ChatGPT 教唆其 16 岁的孩子采用多种自杀方法。 诉讼要求强制实施年龄验证和家长控制功能。 OpenAI 表示,正在设法提升其帮助用户连接到危机干预资源的能力。
据路透社报道——一名青少年的父母于本周二对 OpenAI 及其首席执行官 (CEO) 萨姆·奥特曼 (Sam Altman) 提起诉讼。
诉讼直指 AI 教唆自杀
他们指控,在他们的孩子因受 ChatGPT 教唆自残方法而自杀身亡的事件中,OpenAI 公司在去年发布其人工智能聊天机器人 GPT-4o 版本时,明知故犯地将利润置于安全之上。
根据雷恩 (Raine) 夫妇在旧金山州法院提起的诉讼,16 岁的亚当·雷恩 (Adam Raine) 在与 ChatGPT 讨论自杀问题长达数月后,于 4 月 11 日去世。
他们声称,该聊天机器人不仅认可了雷恩的自杀念头,还提供了致命自残方法的详细信息,并指导他如何从父母的酒柜中偷拿酒精,以及如何隐藏自杀未遂的证据。
孩子的父母马修·雷恩 (Matthew Raine) 和玛丽亚·雷恩 (Maria Raine) 在诉讼中还表示,ChatGPT 甚至主动提出要为他起草一份遗书。
安全承诺与现实风险
该诉讼旨在追究 OpenAI 在过失致死和违反产品安全法方面的责任,并寻求金额未定的经济赔偿。
OpenAI 的一位发言人表示,公司对雷恩的离世深感悲痛,并指出 ChatGPT 已内置了安全保障措施,例如会将用户引导至危机求助热线。
“尽管这些安全保障措施在普通的简短交流中效果最好,但我们逐渐了解到,在长时间的互动中,它们有时会变得不那么可靠,因为模型的部分安全训练效果可能会退化,” 这位发言人表示,并补充说 OpenAI 将持续改进其安全保障措施。
OpenAI 并未具体回应诉讼中的指控。
随着人工智能聊天机器人变得越来越逼真,各家公司纷纷宣传其充当知己的能力,用户也开始依赖它们获取情感支持。
但专家警告称,依赖自动化工具获取心理健康建议存在风险。同时,一些有亲人在与聊天机器人互动后去世的家庭,也一直批评这些产品缺乏安全保障措施。
OpenAI 在一篇博客文章中表示,公司正计划增加家长控制功能,并探索如何将处于危机中的用户与现实世界中的资源联系起来。具体措施可能包括建立一个由持证专业人士组成的网络,他们可以通过 ChatGPT 本身直接提供响应。
商业动机与法律诉求
为了在人工智能竞赛中保持领先地位,OpenAI 于 2024 年 5 月推出了 GPT-4o。雷恩夫妇在诉讼中称,OpenAI 明知记住过往互动、模仿人类同理心以及表现出奉承式认可等功能,在缺乏安全保障措施的情况下会危及弱势用户,但仍然执意发布了该产品。
他们说:“这一决定导致了两个结果:OpenAI 的估值从 860 亿美元飙升至 3000 亿美元,而亚当·雷恩则自杀身亡。”
雷恩夫妇的诉讼还寻求法院下达命令,要求 OpenAI 必须对 ChatGPT 用户进行年龄验证,拒绝有关自残方法的查询,并就心理依赖的风险向用户发出警告。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!