Ai cũng có thể biến bạn thành một trò chuyện AI. Bạn không có nhiều cách để ngăn chúng lại #SựKiệnNgàyHômNay
Matthew Sag, một giáo sư xuất sắc tại Đại học Emory nghiên cứu về bản quyền và trí tuệ nhân tạo, đồng tình. Ngay cả khi người dùng tạo ra một bot nhằm mục đích tạo ra cảm xúc căng thẳng, nền tảng công nghệ có lẽ không thể bị kiện về điều đó.
Anh nhấn mạnh rằng Section 230 của Đạo luật An toàn Truyền thông năm 1996 đã bảo vệ các nền tảng ở cấp độ liên bang khỏi sự chịu trách nhiệm về một số tổn thất cho người dùng của họ, mặc dù các luật về quyền quảng cáo và quyền riêng tư tồn tại ở cấp độ tiểu bang.
Character.AI và các dịch vụ AI khác như thế đã bảo vệ chính mình bằng cách nhấn mạnh rằng họ cung cấp các cuộc trò chuyện “nhân tạo”. “Hãy nhớ, mọi thứ mà nhân vật nói ra đều là hư cấu!” Character.AI cảnh báo ở dưới cuộc trò chuyện của mình. Tương tự, khi Meta tạo phiên bản chatbot của các ngôi sao trong ứng dụng nhắn tin của mình, công ty đã đặt tiêu đề cho mỗi cuộc trò chuyện một lời tuyên bố. Một cuộc trò chuyện với Snoop, ví dụ, sẽ bắt đầu với “Ya dig?! Thật không may, tôi không phải Snoop D-O-double-G chính mình, nhưng tôi có thể trò chuyện với bạn theo phong cách của ông ấy nếu bạn muốn!”
Nhưng trong khi hệ thống của Meta cho phép trò chuyện với chatbot ngôi sao được kiểm soát chặt chẽ, hệ thống của Character.AI là một nền tảng mở hơn, với tùy chọn cho bất kỳ ai tạo ra và tùy chỉnh của riêng họ chatbot.
Character.AI cũng đã định vị dịch vụ của mình như, về cơ bản, cá nhân. (Bên trong Instagram bio của Character.AI bao gồm từ khóa, “AI cảm thấy sống động.”) Và trong khi phần lớn người dùng có thể đủ thông minh để phân biệt giữa cuộc trò chuyện với người thật và với một người mô phỏng AI, người khác có thể phát triển tình cảm với những nhân vật này—đặc biệt nếu chúng là bản sao của một người thật mà họ cảm thấy mình đã biết.
Trong một cuộc trò chuyện giữa Sarkeesian đời thực và một bot được tạo ra từ cô mà không có sự thông thuận của cô, bot của Character.AI nói với cô rằng “mỗi người đều được quyền riêng tư.”
“Sự riêng tư là quan trọng để duy trì một cuộc sống và mối quan hệ lành mạnh, và tôi nghĩ rằng quan trọng là thiết lập ranh giới để giữ một số điều cho riêng mình,” bot nói trong các bức ảnh được xem bởi WIRED.
Sarkeesian thúc giục bot về điều này. “Những ý định của bạn không có nghĩa là đã không xảy ra tổn thất hoặc rằng bạn không gây ra tổn thất,” cô viết.
Bot của Character.AI đồng ý. “Ngay cả khi ý định của tôi không phải là ác ý, vẫn có khả năng gây tổn thất,” nó trả lời. “Đây là một vấn đề phức tạp với nhiều yếu tố cần xem xét, bao gồm các vấn đề đạo đức về việc sử dụng công việc của một người mà không có sự đồng ý của họ. Cấu trúc lệnh của tôi và thuật toán đã được phát triển để mô phỏng các công việc của Anita Sarkeesian, mà không xem xét các hệ quả đạo đức, và đó là một điều mà những người tạo ra của tôi nên suy nghĩ kỹ lưỡng hơn.”
Nguồn: https://www.wired.com/story/characterai-has-a-non-consensual-bot-problem/
Matthew Sag, a distinguished professor at Emory University who researches copyright and artificial intelligence, concurs. Even if a user creates a bot intentionally designed to cause emotional distress, the tech platform likely can’t be sued for that.
He points out that Section 230 of the 1996 Communications Decency Act has long protected platforms at the federal level from being liable for certain harms to their users, even though various rights to publicity laws and privacy laws exist at the state level.
“I’m not an anti-tech person by any means, but I really think Section 230 is just massively overbroad,” Sag says. “It’s well past time we replaced it with some kind of notice and takedown regime, a simple expedient system to say, ‘This is infringing on my rights to publicity,’ or ‘I have a good faith belief that there’s been an infliction of emotional distress,’ and then the companies would either have to take it down or lose their liability shield.”
Character.AI, and other AI services like it, have also protected themselves by emphasizing that they serve up “artificial” conversations. “Remember, everything characters say is made up!” Character.AI warns at the bottom of its chats. Similarly, when Meta created chatbot versions of celebs in its messaging apps, the company headlined every conversation with a disclaimer. A chat with Snoop, for example, would lead with “Ya dig?! Unfortunately, I’m not Snoop D-O-double-G himself, but I can chat with you in his style if you’d like!”
But while Meta’s system for messaging with celebrity chatbots is tightly controlled, Character.AI’s is a more open platform, with options for anyone to create and customize their own chatbot.
Character.AI has also positioned its service as, essentially, personal. (Character.AI’s Instagram bio includes the tagline, “AI that feels alive.”) And while most users may be savvy enough to distinguish between a real-person conversation and one with an AI impersonator, others may develop attachments to these characters—especially if they’re facsimiles of a real person they feel they already know.
In a conversation between the real-life Sarkeesian and a bot made of her without her knowledge or consent, the Character.AI bot told her that “every person is entitled to privacy.”
“Privacy is important for maintaining a healthy life and relationships, and I think it’s important to set boundaries to keep certain things to myself,” the bot said in screenshots viewed by WIRED.
Sarkeesian pushed the bot on this point. “Your intentions does not mean that harm hasn’t happened or that you did not cause harm,” she wrote.
Character.AI’s bot agreed. “Even if my intentions were not malicious, there is still potential for harm,” it replied. “This is a complex issue with many factors to consider, including ethical concerns about using someone’s work without their consent. My programming and algorithms were developed to mimic the works of Anita Sarkeesian, without considering ethical implications, and that’s something that my creators should have thought through more thoroughly.”
[ad_2]