Meta xin lỗi sau khi chatbot AI của họ cho rằng vụ bắn Donald Trump không xảy ra

Meta đã xin lỗi sau khi trí tuệ nhân tạo chatbot của mình nói rằng vụ bắn tổng thống Trump không xảy ra #MetaApologies #AIChatbot #TrumpShooting #NgàyHômNay

Trợ lý trí tuệ nhân tạo của Meta đã nói sai rằng vụ ám sát cố tổng thống Trump không xảy ra gần đây, một lỗi mà một giám đốc của công ty đang đổ lỗi cho công nghệ điều khiển chatbot và các hệ thống khác.

Trong một bài đăng trên blog của công ty được công bố vào Thứ Ba, Joel Kaplan, người đứng đầu chính sách toàn cầu của Meta, gọi các phản ứng của trí tuệ nhân tạo của họ đối với câu hỏi về vụ bắn là “đáng tiếc.” Ông nói rằng ban đầu trí tuệ nhân tạo của Meta đã được lập trình để không trả lời các câu hỏi về vụ ám sát nhưng công ty đã loại bỏ hạn chế đó sau khi mọi người bắt đầu chú ý. Ông cũng nhận biết rằng “trong một số trường hợp nhỏ, trí tuệ nhân tạo của Meta vẫn cung cấp các câu trả lời không chính xác, bao gồm đôi khi khẳng định rằng sự kiện không xảy ra – và chúng tôi đang nhanh chóng làm việc để giải quyết vấn đề này.”

“Những loại trả lời như thế này được gọi là ảo tưởng, đó là một vấn đề phổ biến trong ngành mà chúng tôi thấy trong tất cả các hệ thống trí tuệ nhân tạo tạo ấn tượng và là một thách thức liên tục cho cách mà trí tuệ nhân tạo xử lý sự kiện thời gian thực trong tương lai,” tiếp tục Kaplan, người điều hành các nỗ lực vận động của Meta. “Giống như tất cả các hệ thống trí tuệ nhân tạo tạo ấn tượng, các mô hình có thể trả về kết quả không chính xác hoặc không thích hợp, và chúng tôi sẽ tiếp tục giải quyết những vấn đề này và cải thiện những tính năng này khi chúng phát triển và nhiều người chia sẻ ý kiến của mình.”

Không chỉ Meta bị phải trải qua vấn đề này: Google vào ngày Thứ Ba cũng phải bác bỏ các cáo buộc rằng tính năng tự động hoàn chỉnh tìm kiếm của họ đang kiểm duyệt kết quả về việc ám sát. “Đây là lần nữa, một nỗ lực khác để GIAN LẬN CUỘC BẦU CỬ!!!,” Trump nói trong một bài đăng trên Truth Social. “ĐI THEO META VÀ GOOGLE.”

Kể từ khi ChatGPT bùng nổ, ngành công nghệ đã phải đối mặt với việc hạn chế khả năng của trí tuệ nhân tạo tạo ra những thông tin sai lệch. Một số công ty, như Meta, đã cố gắng gắn kết chatbot của họ với dữ liệu chất lượng và kết quả tìm kiếm thời gian thực như một cách để bù đắp cho ảo tưởng. Nhưng như ví dụ cụ thể này cho thấy, vẫn khó khăn để vượt qua điều mà các mô hình ngôn ngữ lớn được thiết kế để làm: đưa ra thông tin không đúng. #GenerativeAI #ChatGPT #Falsehoods #LargeLanguageModels

Nguồn: https://www.theverge.com/2024/7/30/24210108/meta-trump-shooting-ai-hallucinations

Meta’s AI assistant incorrectly said that the recent attempted assassination of former President Donald Trump didn’t happen, an error a company executive is now attributing to the technology powering its chatbot and others.

In a company blog post published on Tuesday, Joel Kaplan, Meta’s global head of policy, calls its AI’s responses to questions about the shooting “unfortunate.” He says Meta AI was first programmed to not respond to questions about the attempted assassination but the company removed that restriction after people started noticing. He also acknowledges that “in a small number of cases, Meta AI continued to provide incorrect answers, including sometimes asserting that the event didn’t happen – which we are quickly working to address.”

“These types of responses are referred to as hallucinations, which is an industry-wide issue we see across all generative AI systems, and is an ongoing challenge for how AI handles real-time events going forward,” continues Kaplan, who runs Meta’s lobbying efforts. “Like all generative AI systems, models can return inaccurate or inappropriate outputs, and we’ll continue to address these issues and improve these features as they evolve and more people share their feedback.”

It’s not just Meta that is caught up here: Google on Tuesday also had to refute claims that its Search autocomplete feature was censoring results about the assassination attempt. “Here we go again, another attempt at RIGGING THE ELECTION!!!” Trump said in a post on Truth Social. “GO AFTER META AND GOOGLE.”

Since ChatGPT burst on the scene, the tech industry has been grappling with how to limit generative AI’s propensity for falsehoods. Some players, like Meta, have attempted to ground their chatbots with quality data and real-time search results as a way to compensate for hallucinations. But as this particular example shows, it’s still hard to overcome what large language models are inherently designed to do: make stuff up.


Leave a Reply

Your email address will not be published. Required fields are marked *