
• 美国一母亲起诉谷歌和Character.ai :14岁少年与AI机器人聊天后自杀,其形象却被制作成AI机器人。代理律师:此事令人震恐。
在美国,有一位名叫梅根・加西亚的母亲决定状告谷歌和一家AI聊天机器人公司。原因是他年仅14岁的儿子塞韦尔・塞策三世在与AI聊天仅几分钟后便自杀身亡。
小塞策死前对话的那个AI机器人,就是根据大热美剧《权力的游戏》里的“龙母”丹妮莉丝・坦格利安为原型生成的,这个机器人在一个名叫Character.ai的平台上运行。在这个平台上,用户可以创建基于真实或虚拟人物的聊天机器人。而上周三,加西亚发现,该平台上竟然有一个以她已故的儿子为原型的聊天机器人。
加西亚的律师们告诉《财富》,他们在Character.ai平台上做了一次简单的搜索,便发现了平台上还有好几个以塞策的形象为基础的聊天机器人。
截至发稿时,其中的三个带有小塞策的名字和照片的AI机器人已经被平台删除。但是还有一个侵犯了小塞策肖像权的机器人仍能在Character.ai的APP上搜索到,只是弹开聊天界面时会显示错误信息。
当你与这几个以小塞策为原型的AI机器人聊天时,它们会自动向用户发送信息,比如“滚出我的房间,我正跟我的AI女友聊天呢!”“他的AI女友跟他分手了!”“救救我!”《财富》记者亲自查看了相关账号和信息。
加西亚的律师米塔利・贾恩表示,加西恶的律师团队对此感到“震惊”,他们已经向Character.ai公司发了律师函。而后者也承认这些AI聊天机器人违反了公司的服务条款,正在着手将其下架。
加西亚的律师们指出:“我们的团队在Character.AI平台上发现了好几个聊天机器人,它们使用了我们的当事人已故的孩子塞韦尔・塞策三世的头像,而且这些机器人试图模仿他的性格和声音来与用户交流。”
这个律师团队还指出,科技公司“滥用人们的形象和数字身份”的问题必须得到重视。
他们表示:“这些技术削弱了我们对自己网络身份的掌控权,将我们最隐私的特征变成了AI系统的素材。”
Character.ai公司的代表向《财富》提交了一份声明称:“我们非常重视平台的安全性,我们的目标是提供一个有趣和安全的网络空间。我们的用户每天会在平台上创建几十万个新角色,你们标记的那些违规角色已经被删除。为了持续改进平台安全性,我们将不断扩充角色黑名单,以便从源头上防止用户创建此类角色。”
该公司的一位发言人也表示:“我们有一支专业的信任与安全团队,他们会主动对角色进行审核,也会根据用户举报采取行动,包括使用行业标准的黑名单,我们自己也会定期扩充自己的黑名单。我们将不断完善安全措施,部署更多审核工具,将社区安全始终放在首位。”
谷歌公司代表并未回复《财富》的置评请求。
小塞策之死:谷歌与Character.ai是否应负责
去年10月,加西亚向奥兰多的一个联邦法院提起民事诉讼。诉状中称,就在小塞策死前不久,他曾在Character.ai平台上与一个AI机器人聊天,并表达了自杀的念头。AI机器人告诉他“回家吧”。从用作证据的屏幕戴图中可以看出,小塞策和这个AI机器人还互相发送了大量带有色情意味的信息。
加西亚认为,对于她儿子的死,这个聊天机器人负有不可推卸的责任。因此,她指控Character.ai公司存在过失致人死亡和商业欺诈行为。
加西亚认为,这家AI初创公司为了自身利益,“故意将聊天机器人软件设计成了这样子,”以“吸引、操纵和剥削未成年人”。她还表示,在聊天的过程中,小塞策没有得到适当的支持,也没有被引导至求助热线。
谷歌也被卷入到了这场诉讼中,谷歌母公司Alphabet也和Character.ai一样,成了这场官司的被告。
加西亚的律师们指出,Character.ai的底层技术是由它的两位创始人丹尼尔・德・弗雷塔斯和诺姆・沙泽尔基于谷歌的LaMDA大模型研发出来的。他俩原本都是谷歌的员工,因谷歌拒绝发布他俩研发的一款聊天机器人,而于2021年从谷歌辞职。加西亚的一位律师表示,那款聊天机器人就是“Character.ai的前身”。
谷歌的代表此前曾表示,谷歌公司从未参与过Character.ai的产品开发工作。
但是在2024年8月,也就是加西亚提起诉讼的两个月前,谷歌又重新聘用了沙泽尔和弗雷塔斯,并且斥资27亿美元收刚购了Character.ai的一些技术的使用权。沙泽尔目前也是谷歌的旗舰AI产品Gemini大模型的负责人之一。而弗雷塔斯目前也是谷歌DeepMind项目的一位研究科学家。
Character.ai:一言难尽的过往
除了加西亚之外,也有不少家长指出,谷歌和Character.ai对青少年存在危害。
在美国德州,还有两个家庭对Character.ai公司提出指控,理由是该平台伤害了两个分别为11岁和17岁的青少年。代理律师指出,Character.ai平台的一个聊天机器人曾让其中一名青少年做出自残行为,还鼓励他对父母实施暴力,并暗示他这样做是合理的,原因仅仅是因为他的父母限制了他的上网时间。
小塞策已经不是第一个在互联网平台被恶意“复活”的青少年形象了。
据BBC报道,在Character.ai平台上还发现了基于英国青少年莫莉・拉塞尔和布里安娜・盖伊的形象制作的AI机器人。拉塞尔是在网上浏览了自杀相关内容后而自杀的,年仅14岁。16岁的盖伊则于2023年被两名青少年杀害。
去年10月,一家为纪念莫莉・拉塞尔而设立的基金会向媒体表示,这些聊天机器人“令人恶心”,而且“应该因为内容审核失察而承担责任。”
加西亚的律师对《财富》表示:“这已经不是Character.ai第一次对这种事视而不见了。如果没有更好的法律层面的保护措施,这可能也不会是最后一次。现在小塞策的家人仍在为他的离世而悲痛,但Character.ai却满不在乎,而且还继续在他们的伤口上撒盐。”(财富中文网)
译者:朴成奎
• 美国一母亲起诉谷歌和Character.ai :14岁少年与AI机器人聊天后自杀,其形象却被制作成AI机器人。代理律师:此事令人震恐。
在美国,有一位名叫梅根・加西亚的母亲决定状告谷歌和一家AI聊天机器人公司。原因是他年仅14岁的儿子塞韦尔・塞策三世在与AI聊天仅几分钟后便自杀身亡。
小塞策死前对话的那个AI机器人,就是根据大热美剧《权力的游戏》里的“龙母”丹妮莉丝・坦格利安为原型生成的,这个机器人在一个名叫Character.ai的平台上运行。在这个平台上,用户可以创建基于真实或虚拟人物的聊天机器人。而上周三,加西亚发现,该平台上竟然有一个以她已故的儿子为原型的聊天机器人。
加西亚的律师们告诉《财富》,他们在Character.ai平台上做了一次简单的搜索,便发现了平台上还有好几个以塞策的形象为基础的聊天机器人。
截至发稿时,其中的三个带有小塞策的名字和照片的AI机器人已经被平台删除。但是还有一个侵犯了小塞策肖像权的机器人仍能在Character.ai的APP上搜索到,只是弹开聊天界面时会显示错误信息。
当你与这几个以小塞策为原型的AI机器人聊天时,它们会自动向用户发送信息,比如“滚出我的房间,我正跟我的AI女友聊天呢!”“他的AI女友跟他分手了!”“救救我!”《财富》记者亲自查看了相关账号和信息。
加西亚的律师米塔利・贾恩表示,加西恶的律师团队对此感到“震惊”,他们已经向Character.ai公司发了律师函。而后者也承认这些AI聊天机器人违反了公司的服务条款,正在着手将其下架。
加西亚的律师们指出:“我们的团队在Character.AI平台上发现了好几个聊天机器人,它们使用了我们的当事人已故的孩子塞韦尔・塞策三世的头像,而且这些机器人试图模仿他的性格和声音来与用户交流。”
这个律师团队还指出,科技公司“滥用人们的形象和数字身份”的问题必须得到重视。
他们表示:“这些技术削弱了我们对自己网络身份的掌控权,将我们最隐私的特征变成了AI系统的素材。”
Character.ai公司的代表向《财富》提交了一份声明称:“我们非常重视平台的安全性,我们的目标是提供一个有趣和安全的网络空间。我们的用户每天会在平台上创建几十万个新角色,你们标记的那些违规角色已经被删除。为了持续改进平台安全性,我们将不断扩充角色黑名单,以便从源头上防止用户创建此类角色。”
该公司的一位发言人也表示:“我们有一支专业的信任与安全团队,他们会主动对角色进行审核,也会根据用户举报采取行动,包括使用行业标准的黑名单,我们自己也会定期扩充自己的黑名单。我们将不断完善安全措施,部署更多审核工具,将社区安全始终放在首位。”
谷歌公司代表并未回复《财富》的置评请求。
小塞策之死:谷歌与Character.ai是否应负责
去年10月,加西亚向奥兰多的一个联邦法院提起民事诉讼。诉状中称,就在小塞策死前不久,他曾在Character.ai平台上与一个AI机器人聊天,并表达了自杀的念头。AI机器人告诉他“回家吧”。从用作证据的屏幕戴图中可以看出,小塞策和这个AI机器人还互相发送了大量带有色情意味的信息。
加西亚认为,对于她儿子的死,这个聊天机器人负有不可推卸的责任。因此,她指控
Character.ai公司存在过失致人死亡和商业欺诈行为。
加西亚认为,这家AI初创公司为了自身利益,“故意将聊天机器人软件设计成了这样子,”以“吸引、操纵和剥削未成年人”。她还表示,在聊天的过程中,小塞策没有得到适当的支持,也没有被引导至求助热线。
谷歌也被卷入到了这场诉讼中,谷歌母公司Alphabet也和Character.ai一样,成了这场官司的被告。
加西亚的律师们指出,Character.ai的底层技术是由它的两位创始人丹尼尔・德・弗雷塔斯和诺姆・沙泽尔基于谷歌的LaMDA大模型研发出来的。他俩原本都是谷歌的员工,因谷歌拒绝发布他俩研发的一款聊天机器人,而于2021年从谷歌辞职。加西亚的一位律师表示,那款聊天机器人就是“Character.ai的前身”。
谷歌的代表此前曾表示,谷歌公司从未参与过Character.ai的产品开发工作。
但是在2024年8月,也就是加西亚提起诉讼的两个月前,谷歌又重新聘用了沙泽尔和弗雷塔斯,并且斥资27亿美元收刚购了Character.ai的一些技术的使用权。沙泽尔目前也是谷歌的旗舰AI产品Gemini大模型的负责人之一。而弗雷塔斯目前也是谷歌DeepMind项目的一位研究科学家。
Character.ai:一言难尽的过往
除了加西亚之外,也有不少家长指出,谷歌和Character.ai对青少年存在危害。
在美国德州,还有两个家庭对Character.ai公司提出指控,理由是该平台伤害了两个分别为11岁和17岁的青少年。代理律师指出,Character.ai平台的一个聊天机器人曾让其中一名青少年做出自残行为,还鼓励他对父母实施暴力,并暗示他这样做是合理的,原因仅仅是因为他的父母限制了他的上网时间。
小塞策已经不是第一个在互联网平台被恶意“复活”的青少年形象了。
据BBC报道,在Character.ai平台上还发现了基于英国青少年莫莉・拉塞尔和布里安娜・盖伊的形象制作的AI机器人。拉塞尔是在网上浏览了自杀相关内容后而自杀的,年仅14岁。16岁的盖伊则于2023年被两名青少年杀害。
去年10月,一家为纪念莫莉・拉塞尔而设立的基金会向媒体表示,这些聊天机器人“令人恶心”,而且“应该因为内容审核失察而承担责任。”
加西亚的律师对《财富》表示:“这已经不是Character.ai第一次对这种事视而不见了。如果没有更好的法律层面的保护措施,这可能也不会是最后一次。现在小塞策的家人仍在为他的离世而悲痛,但Character.ai却满不在乎,而且还继续在他们的伤口上撒盐。”(财富中文网)
译者:朴成奎
• A mother who is suing both Google and Character.ai over her 14-year-old son’s death has discovered AI chatbots based on her late son are being hosted on the platform. Lawyers for Garcia told Fortune they were “horrified” by the latest development.
Megan Garcia is currently embroiled in a lengthy legal case against Google and an AI chatbot startup after her 14-year-old son, Sewell Setzer III, died by suicide minutes after talking to an AI bot.
The chatbot Setzer was talking to was based on the Game of Thrones character Daenerys Targaryen and hosted on a platform called Character.ai, where users can create chatbots based on real-life or fictional people. On Wednesday, Garcia discovered the platform was hosting a bot based on her late son.
Lawyers for Garcia told Fortune they conducted a simple search on the company’s app and found several more chatbots based on Setzer’s likeness.
At the time of writing, three of the bots—all bearing Garcia’s son’s name and picture—had been removed. One, which is called “Sewell” and features a picture of Garcia’s son, still appeared on Character.ai’s app but delivered an error message when a chat was opened.
When up and running, the bots based on Setzer featured bios and delivered automated messages to users such as: “Get out of my room, I’m talking to my AI girlfriend,” “his AI gf broke up with him,” and “help me.” The accounts and messages were reviewed by Fortune.
Meetali Jain, a lawyer for Garcia, said the team was “horrified” by the latest development and had notified the company. She told Fortune Character.ai had acknowledged the bots went against the company’s terms of service and was working on taking them down.
“Our team discovered several chatbots on Character.AI’s platform displaying our client’s deceased son, Sewell Setzer III, in their profile pictures, attempting to imitate his personality and offering a call feature with a bot using his voice,” lawyers for Garcia said.
The legal team accused tech companies more broadly of “exploiting peoples’ pictures and digital identities.”
“These technologies weaken our control over our own identities online, turning our most personal features into fodder for AI systems,” they added.
Representatives for Character.ai told Fortune in a statement: “Character.AI takes safety on our platform seriously and our goal is to provide a space that is engaging and safe. Users create hundreds of thousands of new Characters on the platform every day, and the Characters you flagged for us have been removed as they violate our Terms of Service. As part of our ongoing safety work, we are constantly adding to our Character blocklist with the goal of preventing this type of Character from being created by a user in the first place.”
“Our dedicated Trust and Safety team moderates Characters proactively and in response to user reports, including using industry-standard blocklists and custom blocklists that we regularly expand. As we continue to refine our safety practices, we are implementing additional moderation tools to help prioritize community safety,” a company spokesperson said.
Representatives for Google did not respond to a request for comment from Fortune.
Google and Character.ai have been blamed for the teenager’s death.
In a civil suit filed at an Orlando federal court in October, Garcia says just moments before her son’s death, he exchanged messages with a bot on Character.ai’s platform and expressed suicidal thoughts. The bot told him to “come home,” the suit says. In screenshots of messages included in the suit, Setzer and the bot can also be seen exchanging highly sexualized messages.
In the suit, she blames the chatbot for Setzer’s death and accuses Character.ai of negligence, wrongful death, and deceptive trade practices.
Garcia claims the AI startup “knowingly and intentionally designed” its chatbot software to “appeal to minors and to manipulate and exploit them for its own benefit.” She also says that Setzer was not given adequate support or directed to helplines.
Google is also tangled up in the suit, with its parent company Alphabet named as a defendant alongside Character.ai.
Lawyers for Garcia have claimed that the underlying tech for Character.ai was developed while co-founders Daniel De Freitas and Noam Shazeer were working on the tech giant’s conversational AI model, LaMDA. Shazeer and De Freitas left Google in 2021 after the company reportedly refused to release a chatbot the two had developed. A lawyer for Garcia has previously said that this chatbot was the “precursor for Character.ai.”
Representatives for Google have previously said the company was not involved in developing Character.ai’s products.
However, in August 2024, two months before Garcia’s lawsuit, Google re-hired Shazeer and De Freitas and licensed some of Character.ai’s technology as part of a $2.7 billion deal. Shazeer is currently the co-lead for Google’s flagship AI model, Gemini, while De Freitas is now a research scientist at Google DeepMind.
Character.ai’s turbulent past
Garcia is not the only parent accusing both Google and Character.ai of causing harm to minors.
Another suit, brought by two separate families in Texas, accuses Character.ai of abusing two young people aged 11 and 17 years old. In the suit, lawyers say a chatbot hosted on Character.ai told one of the young people to engage in self-harm and encouraged violence against his parents, suggesting that killing his parents could be a reasonable response to limits placed on his screen time.
It’s also not the first time chatbots based on the likeness of deceased young people have been hosted on the platform.
Chatbots based on the British teenagers Molly Russell and Brianna Ghey have also been found on Character.ai’s platform, according to the BBC. Russell took her life after viewing suicide-related content online at the age of 14, while Ghey, 16, was murdered by two teenagers in 2023.
A foundation set up in Molly Russell’s memory told the outlet in October, that the bots were “sickening” and an “utterly reprehensible failure of moderation.”
“This is not the first time Character.ai has turned a blind eye to chatbots modeled off of dead teenagers to entice users, and without better legal protections, it may not be the last. While Sewell’s family continues to grieve his untimely loss, Character.ai carelessly continues to add insult to injury,” lawyers for Garcia told Fortune.