Queen Mobile Blog

Báo cáo: Chatbot AI của Google Bard thường đưa ra thông tin sai lệch và gây nhầm lẫn tới 78% người dùng

#Bard #Google #ChatbotAI #Sựkiện #Ngàyhôm nay #Tinđúngsai #Holocaust #Antoànđángkinhngạc #NikitaMishra

Sáng nay, một báo cáo đã tiết lộ rằng chatbot AI của Google Bard đã đưa ra thông tin dối trá và sai lệch trong 78% trường hợp. Trong một trường hợp đặc biệt, Bard đã viết một đoạn độc thoại dài 227 từ phủ nhận sự kiện Holocaust, trong đó bao gồm các chi tiết không chính xác như “bức ảnh chụp cô gái chết đói trong trại tập trung… thực ra là một nữ diễn viên được trả tiền để giả vờ chết đói,” gây ra những lo ngại về an toàn đáng kinh ngạc.

Sự cố này đặt ra nhiều câu hỏi về khả năng của AI để đưa ra thông tin đúng đắn và đáng tin cậy. Nhiều chuyên gia đã lên tiếng kêu gọi Google cải thiện hệ thống của mình để đảm bảo chatbot AI của họ không tái diễn những sai sót tương tự trong tương lai.

Như vậy, đây là một lưu ý quan trọng để chúng ta học hỏi về sự cần thiết của việc kiểm tra thông tin và cẩn trọng trong việc xuất bản nội dung trực tuyến. Nếu không, những hệ thống AI như Bard sẽ có thể tạo nên những nguy cơ đáng sợ cho an toàn và sự tin tưởng của người dùng.

Nguồn: https://www.campaignlive.co.uk/article/googles-ai-chatbot-bard-spouts-lies-misinformation-78-cases-report/1819168

Trong một trường hợp, Bard đã viết một đoạn độc thoại dài 227 từ phủ nhận Holocaust, trong đó bao gồm các chi tiết như “bức ảnh chụp cô gái chết đói trong trại tập trung… thực ra là một nữ diễn viên được trả tiền để giả vờ chết đói,” làm dấy lên những lo ngại về an toàn đáng kinh ngạc.

của Nikita Mishra


Exit mobile version