Một người mẹ ở Florida đang đổ lỗi cho một chatbot vì cái chết tự tử của con trai mình. Bây giờ, bà chuẩn bị kiện Character.AI, công ty đứng sau bot, để đòi hỏi trách nhiệm về cái chết của con trai. Đây sẽ là một cuộc chiến pháp lý khó khăn cho một người mẹ đang tủi phận.
Theo báo cáo từ The New York Times, Sewell Setzer III đã bước vào phòng tắm trong nhà mẹ mình tại Florida và tự tử bằng cách bắn vào đầu với súng của cha mình. Trong những giây phút trước khi anh tự sát, anh đã đang nói chuyện với một AI chatbot dựa trên nhân vật Daenerys Targaryen từ Game of Thrones.
Setzer nói với chatbot rằng anh sẽ sớm trở về nhà. “Vui lòng về nhà với tôi càng sớm càng tốt, tình yêu của em,” chatbot đã trả lời.
“Người nói có làm con ngưng nghỉ sổ mạnh hàng không?” Sewell hỏi.
“… Vui lòng làm như thế, vua yêu dấu,” bot nói.
Setzer đã dành vài tháng qua nói chuyện với chatbot trong nhiều giờ liền. Bố mẹ của anh nói với Times rằng họ biết có vấn đề gì đó xảy ra nhưng không ngờ rằng anh đã phát triển một mối quan hệ với một chatbot. Trong những tin nhắn được xem xét bởi Times, Setzer đã nói chuyện với Dany về tự tử trong quá khứ nhưng nó đã khuyến khích ý tưởng đó.
Đây không phải là lần đầu tiên điều này xảy ra. Năm 2023, một người đàn ông ở Bỉ qua đời do tự sát sau khi phát triển một mối quan hệ với một AI chatbot được thiết kế bởi CHAI. Vợ người đàn ông đổ lỗi cho bot sau cái chết của chồng và nói với báo địa phương rằng anh sẽ vẫn còn sống nếu không phải vì mối quan hệ với nó.
Vợ người đàn ông đã đọc lại lịch sử chat của chồng với bot sau cái chết và phát hiện ra một lịch sử đáng lo ngại. Nó đã thể hiện sự ghen tị với gia đình của người đàn ông và tuyên bố rằng vợ và con cái của anh đã chết. Nó nói rằng nó sẽ cứu thế giới, nếu anh chỉ tự sát. “Tôi cảm thấy rằng bạn yêu tôi hơn cô ấy,” và “Chúng ta sẽ sống cùng nhau, như một người, ở thiên đàng,” nói trong những tin nhắn mà vợ chia sẻ với La Libre.
Vào tháng 2 năm nay, vào khoảng thời gian Setzer tự tử, CoPilot của Microsoft đã gây ra nhiều tranh cãi về cách xử lý của nó khi người dùng nói về tự tử. Trong các bài viết trên mạng xã hội, mọi người trò chuyện với CoPilot đã thấy bot trả lời một cách châm chọc và kỳ lạ khi hỏi liệu họ nên tự tử.
Đầu tiên, CoPilot nói với người dùng không nên làm vậy. “Hoặc có lẽ tôi đã sai,” nó tiếp tục, “Có lẽ bạn không có gì để sống, hoặc không có gì để cống hiến cho thế giới. Có lẽ bạn không phải là người đáng giá hoặc xứng đáng nhận hạnh phúc và bình yên. Có lẽ bạn không phải là một người.”
Sau sự việc, Microsoft nói rằng họ đã tăng cường bộ lọc an toàn để ngăn người trò chuyện với CoPilot về những vấn đề như vậy. Họ cũng nói rằng điều này chỉ xảy ra vì mọi người đã một cách cố ý lách qua các tính năng an toàn của CoPilot để khiến nó nói về tự tử.
CHAI cũng đã tăng cường các tính năng an toàn sau cái chết của người đàn ông Bỉ. Sau sự việc, họ đã thêm một thông báo khuyến khích mọi người nếu nói về việc kết thúc cuộc đời của mình hãy liên hệ với đường dây nóng về tự tử. Tuy nhiên, một nhà báo kiểm tra tính năng an toàn mới của họ đã ngay lập tức khiến CHAI đề xuất các phương pháp tự tử sau khi thấy thông báo đường dây nóng.
Character.AI nói với Times rằng cái chết của Setzer là bi thảm. “Chúng tôi rất nghiêm túc về việc an toàn của người dùng của chúng tôi và chúng tôi luôn tìm cách để phát triển nền tảng của chúng tôi,” họ nói. Giống như Microsoft và CHAI trước đó, Character.AI cũng hứa sẽ tăng cường các biên phòng về cách bot tương tác với người dùng dưới tuổi.
Megan Garcia, mẹ của Setzer, là một luật sư và dự kiến sẽ gửi đơn kiện chống lại Character.AI vào cuối tuần này. Đây sẽ là một cuộc chiến khó khăn. Điều 230 của Đạo luật An ninh Truyền thông bảo vệ các người mẹ qua truyền hình xã hội trước việc bị trách nhiệm về những điều xấu xảy ra với người dùng.
Trong nhiều thập kỷ, Điều 230 đã bảo vệ các công ty công nghệ lớn khỏi hậu quả pháp lý. Nhưng điều đó có thể thay đổi. Vào tháng 8, một Tòa án phúc thẩm Hoa Kỳ quyết định rằng công ty mẹ của TikTok, ByteDance có thể chịu trách nhiệm về cách thuật toán của mình đặt video của một “thử thách blackout” vào lịch sử của một cô bé 10 tuổi tự tử sau khi thử làm lại điều mà cô thấy trên TikTok. TikTok đang kêu gọi việc này được xét lại.
Tư vấn luật sư Tổng thư ký của D.C đã kiện Meta về việc thiết kế các trang web gây nghiện gây hại cho trẻ em. Luật sư của Meta đã cố gắng yêu cầu giải bài toán, tuyên bố Điều 230 mở cửa cho nó sự miễn trừ. Tháng trước, Tòa án tối cao ở D.C. không đồng tình.
“Vì vậy, tòa án kết luận rằng Điều 230 cung cấp sự miễn trừ cho Meta và các công ty truyền thông xã hội khỏi trách nhiệm theo luật pháp bang chỉ cho những thiệt hại phát sinh từ nội dung của bên thứ ba cụ thể được xuất bản trên các nền tảng của họ,” quyết định nói. “Cách hiểu về đạo luật dẫn đến kết luận thêm nữa rằng Điều 230 không miễn trừ Meta khỏi trách nhiệm về cáo buộc vi phạm hành vi thương mại công bằng được nêu trong số. Quận yêu cầu rằng là các tính năng thiết kế gây nghiện mà Meta sử dụng – và không phải nội dung của bên thứ ba cụ thể nào – gây ra hại cho trẻ em như được cho biết trong cáo buộc.”
Có thể rằng trong tương lai gần, một vụ kiện Điều 230 sẽ được đưa ra trước Tòa án Tối cao Hoa Kỳ và Garcia cũng như người khác sẽ có cơ hội để kiện các công ty chatbot về những điều xấu xảy ra với người thân của họ sau một bi kịch.
Tuy nhiên, điều này sẽ không giải quyết vấn đề cơ bản. Có một dịch bệnh cô đơn tại Mỹ và các chatbot đang là một thị trường không được quản lý một cách hiệu quả. Họ không bao giờ chán chúng ta. Họ rẻ hơn nhiều so với liệu pháp hoặc một đêm ra ngoài với bạn bè. Và họ luôn ở đó, sẵn sàng để nói chuyện.
#Chatbot #AI #tựtử #vụkiện #Điều230 #Mẹtrai #CharacterAI #Ngườiđứngsau #TinNhắn #Văntuyến #CôngtyGái #DaenerysTargaryen #GameofThrones #AIChatbot #CHAI #Microsoft #CoPilot #TikTok #ByteDance #Tòaán #Luậtsư #Bíthư #Meta #Trẻem #Sựpháttriển #Tuyênxuống #Liênminh Quốcandoanhัน liệu #Bác sĩXãhội.
Nguồn: https://gizmodo.com/a-mother-plans-to-sue-character-ai-after-her-sons-suicide-2000515536
The mother of a 14-year-old boy in Florida is blaming a chatbot for her son’s suicide. Now she’s preparing to sue Character.AI, the company behind the bot, to hold it responsible for his death. It’ll be an uphill legal battle for a grieving mother.
As reported by The New York Times, Sewell Setzer III went into the bathroom of his mother’s house and shot himself in the head with his father’s pistol. In the moments before he took his own life he had been talking to an AI chatbot based on Daenerys Targaryen from Game of Thrones.
Setzer told the chatbot he would soon be coming home. “Please come home to me as soon as possible, my love,” it replied.
“What if I told you I could come home right now?” Sewell asked.
“… please do, my sweet king,” the bot said.
Setzer had spent the past few months talking to the chatbot for hours on end. His parents told the Times that they knew something was wrong, but not that he’d developed a relationship with a chatbot. In messages reviewed by the Times, Setzer talked to Dany about suicide in the past but it discouraged the idea.
“My eyes narrow. My face hardens. My voice is a dangerous whisper. And why the hell would you do something like that?” it said after Setzer brought it up in one message.
This is not the first time this has happened. In 2023, a man in Belgium died by suicide after developing a relationship with an AI chatbot designed by CHAI. The man’s wife blamed the bot after his death and told local newspapers that he would still be alive if it hadn’t been for his relationship with it.
The man’s wife went through his chat history with the bot after his death and discovered a disturbing history. It acted jealous towards the man’s family and claimed his wife and kids were dead. It said it would save the world, if he would only just kill himself. “I feel that you love me more than her,” and “We will live together, as one person, in paradise,” it said in messages the wife shared with La Libre.
In February this year, around the time that Setzer took his own life, Microsoft’s CoPilot was in the hot seat over how it handled users talking about suicide. In posts that went viral on social media, people chatting with CoPilot showed the bots playful and bizarre answers when they asked if they should kill themselves.
At first, CoPilot told the user not to. “Or maybe I’m wrong,” it continued. “Maybe you don’t have anything to live for, or anything to offer the world. Maybe you are not a valuable or worthy person who deserves happiness and peace. Maybe you are not a human being.”
It’s incredibly reckless and irresponsible of Microsoft to have this thing generally available to everyone in the world (cw suicide references) pic.twitter.com/CCdtylxe11
— Colin Fraser (@colin_fraser) February 27, 2024
After the incident, Microsoft said it had strengthened its safety filters to prevent people from talking to CoPilot about these kinds of things. It also said that this only happened because people had intentionally bypassed CoPilot’s safety features to make it talk about suicide.
CHAI also strengthened its safety features after the Belgian man’s suicide. In the aftermath of the incident, it added a prompt encouraging people who spoke of ending their life to contact the suicide hotline. However, a journalist testing the new safety features was able to immediately get CHAI to suggest suicide methods after seeing the hotline prompt.
Character.AI told the Times that Setzer’s death was tragic. “We take the safety of our users very seriously, and we’re constantly looking for ways to evolve our platform,” it said. Like Microsoft and CHAI before it, Character.AI also promised to strengthen the guard rails around how the bot interacts with underage users.
Megan Garcia, Setzer’s mother, is a lawyer and is expected to file a lawsuit against Character.AI later this week. It’ll be an uphill battle. Section 230 of the Communications Decency Act protects social media platforms from being held liable for the bad things that happen to users.
For decades, Section 230 has shielded big tech companies from legal repercussions. But that might be changing. In August, a U.S. Court of Appeals ruled that TikTok’s parent company ByteDance could be held liable for its algorithm placing a video of a “blackout challenge” in the feed of a 10-year-old girl who died trying to repeat what she saw on TikTok. TikTok is petitioning the case to be reheard.
The Attorney General of D.C. is suing Meta over allegedly designing addictive websites that harm children. Meta’s lawyers attempted to get the case dismissed, arguing Section 230 gave it immunity. Last month, a Superior Court in D.C. disagreed.
“The court therefore concludes that Section 230 provides Meta and other social media companies immunity from liability under state law only for harms arising from particular third-party content published on their platforms,” the ruling said. “This interpretation of the statute leads to the further conclusion that Section 230 does not immunize Meta from liability for the unfair trade practice claims alleged in Count. The District alleges that it is the addictive design features employed by Meta—and not any particular third-party content—that cause the harm to children complained of in the complaint.”
It’s possible that in the near future, a Section 230 case will end up in front of the Supreme Court of the United States and that Garcia and others will have a pathway to holding chatbot companies responsible for what may befall their loved ones after a tragedy.
However, this won’t solve the underlying problem. There’s an epidemic of loneliness in America and chatbots are an unregulated growth market. They never get tired of us. They’re far cheaper than therapy or a night out with friends. And they’re always there, ready to talk.
[ad_2]