Sự kiện ngày hôm nay: Microsoft và vấn đề của AI news
Trong bài báo mới của CNN về việc tổng hợp tin tức của hệ thống trí tuệ nhân tạo của MSN, nêu ra những ví dụ về sự chọn lọc tin tức đáng ngờ, ví dụ như tạo điểm nhấn cho một tin kể rằng Tổng thống Joe Biden sụp đổ trong một khoảnh khắc im lặng tưởng niệm các nạn nhân cháy rừng ở Maui (thực tế thì không có), hoặc một bài tiếu thuyết viết về một cầu thủ bóng rổ NBA một cách vô lý với từ “vô dụng”. Có lẽ đội ngũ biên tập viên con người đã nhìn ra những vấn đề này. Tuy nhiên, hệ thống của Microsoft, sau khi từ bỏ sự đóng góp của con người để thay bằng thuật toán cách đây vài năm, vẫn giữ nguyên tính chất thí nghiệm xã hội hơn là một công cụ hữu ích không ngừng.
Microsoft Start và MSN được giới thiệu như là những nguồn tài nguyên để tìm kiếm tin tức thực tế. Tuy nhiên, hệ thống tự động này tiếp tục đưa ra hoặc tạo ra nội dung với ngôn từ khiến người đọc không cần thiết lo lắng và thậm chí là sự thật khống. Tuy nhiên, không có ai đảm nhận trách nhiệm hoặc trách nhiệm chịu trách nhiệm. Tất cả chỉ là phần mềm làm việc theo cách mà nó được thiết kế và người phát ngôn nhẹ nhàng khi nó thất bại và nói rằng họ sẽ cố gắng đảm bảo không xảy ra vụ việc tương tự trong tương lai.
#FakeNews #ChâmBiếmCáiChết #MicrosoftAI #TinTứcTựĐộng
Nguồn: https://www.theverge.com/2023/11/5/23947228/msn-microsoft-ai-news-false-headlines
A new CNN report about the MSN AI model’s news aggregation kicks off with examples of questionable editorial calls, like highlighting a story claiming President Joe Biden dozed off during a moment of silence for Maui wildfire victims (he didn’t), or an obituary that inexplicably referred to an NBA player as “useless.” An editorial staff of humans probably would’ve spotted the problems. But Microsoft’s system, which continues to feel more like a social experiment than a helpful tool after ditching human efforts in favor of algorithms a few years ago, did not.
Microsoft Start and MSN are presented as resources for finding actual news. But its automated system keeps featuring or generating content with needlessly upsetting language and outright falsehoods, and there’s little indication anyone involved in the process cares. There are no careless journalists to blame, no editors with names and faces to take (or even shirk) responsibility. It’s all just software doing what it’s made to do and spokespeople shrugging when it goes wrong and saying they’ll try to make sure it doesn’t happen in the future.