Queen Mobile Blog

“Tác hại của AI Chatbots khi gây ảo giác – Báo The New York Times đưa tin”

Hôm nay là ngày các công nghệ trí tuệ nhân tạo tiếp tục trở thành tâm điểm cho các nhà nghiên cứu khi bài báo của Thời báo New York đã viết về những sự ảnh hưởng của các chatbot gây ra ảo giác. ChatGPT, một trong số những chatbot phổ biến nhất, đã trở thành ví dụ cho việc tạo ra thông tin sai lệch. Các hệ thống AI đã phát triển để học từ các dữ liệu kỹ thuật số từ internet, mặc dù điều này không đảm bảo chính xác thông tin. Đây là một thách thức lớn đối với các nhà nghiên cứu trí tuệ nhân tạo và công nghệ phải cải thiện việc kiểm soát các hệ thống này. Các công ty như OpenAI, Google và Microsoft đã phát triển các cách để cải thiện độ chính xác của chatbot. Việc học tăng cường là một trong số những kỹ thuật được sử dụng để giải quyết vấn đề này. #AI #Chatbots #Thời_báo_New_York #OpenAI #Google #Microsoft #Học_tăng_cường #Độ_chính_xác #Thông_tin #Ảo_giác #Công_nghệ #Học_máy

Nguồn: https://www.nytimes.com/2023/05/01/business/ai-chatbots-hallucinatation.html

Thời báo New York lần đầu tiên đưa tin về “trí tuệ nhân tạo” là khi nào?

Theo ChatGPT, đó là ngày 10 tháng 7 năm 1956, trong một bài báo có tiêu đề “Máy móc sẽ có khả năng học tập, giải quyết vấn đề, các nhà khoa học dự đoán” về một hội nghị quan trọng tại Đại học Dartmouth. Chatbot đã thêm:

Hội nghị năm 1956 là có thật. Bài báo đã không. ChatGPT chỉ đơn giản là tạo ra nó. ChatGPT đôi khi không chỉ hiểu sai mà còn có thể bịa đặt thông tin. Tên và ngày tháng. Giải thích y tế. Các lô sách. địa chỉ Internet. Kể cả những sự kiện lịch sử chưa từng xảy ra.

Khi ChatGPT gần đây được hỏi về lần đầu tiên James Joyce và Vladimir Lenin gặp nhau như thế nào — không có bằng chứng nào cho thấy họ đã từng gặp nhau — đây là cách ChatGPT trả lời:

Chế tạo như thế này là phổ biến. Tìm hiểu lý do tại sao chatbot tạo ra mọi thứ và cách giải quyết vấn đề đã trở thành một trong những vấn đề cấp bách nhất mà các nhà nghiên cứu phải đối mặt khi ngành công nghệ chạy đua theo hướng phát triển các hệ thống AI mới.

Chatbot như ChatGPT được hàng trăm triệu người sử dụng cho nhiều nhiệm vụ ngày càng đa dạng, bao gồm dịch vụ email, gia sư trực tuyến và công cụ tìm kiếm. Và họ có thể thay đổi cách mọi người tương tác với thông tin. Nhưng không có cách nào đảm bảo rằng các hệ thống này tạo ra thông tin chính xác.

Công nghệ này, được gọi là AI tổng quát, dựa trên một thuật toán phức tạp phân tích cách con người ghép các từ lại với nhau trên internet. Nó không quyết định điều gì là đúng và điều gì không. Sự không chắc chắn đó đã làm dấy lên lo ngại về độ tin cậy của loại trí tuệ nhân tạo mới này và đặt ra câu hỏi về mức độ hữu ích của nó cho đến khi vấn đề được giải quyết hoặc kiểm soát.

Ngành công nghệ thường gọi những điểm không chính xác là “ảo giác”. Nhưng đối với một số nhà nghiên cứu, “ảo giác” là một cách nói quá uyển chuyển. Thậm chí các nhà nghiên cứu trong các công ty công nghệ lo lắng rằng mọi người sẽ phụ thuộc quá nhiều vào các hệ thống này để được tư vấn về y tế và pháp lý cũng như các thông tin khác mà họ sử dụng để đưa ra các quyết định hàng ngày.

Subbarao Kambhampati, giáo sư và nhà nghiên cứu trí tuệ nhân tạo tại Đại học Bang Arizona, cho biết: “Nếu bạn chưa biết câu trả lời cho một câu hỏi, tôi sẽ không đưa câu hỏi cho một trong những hệ thống này.

ChatGPT không phải là trường hợp duy nhất mắc lỗi khi đề cập đến AI đầu tiên trên The Times. Cả chatbot Bard của Google và Bing của Microsoft đều liên tục đưa ra câu trả lời không chính xác cho cùng một câu hỏi. Mặc dù sai, nhưng các câu trả lời có vẻ hợp lý khi chúng làm lu mờ và lẫn lộn con người, sự kiện và ý tưởng.

Bing của Microsoft đã trích dẫn những phát hiện của mình cho một địa chỉ web trông thực tế trên trang web của The Times:

Theo kho lưu trữ của The Times, tất cả các chatbot đều sai. Họ đã trích dẫn các bài báo không tồn tại. Và trong khi đưa tin về nghiên cứu ban đầu về máy móc tư duy có từ những năm 1930mãi đến năm 1963, The Times xuất bản lần đầu một bài báo có cụm từ “trí tuệ nhân tạo”.

Jennifer Rodstrom, phát ngôn viên của Google, cho biết: “Chúng tôi đã phát hành Bard như một thử nghiệm và muốn minh bạch nhất có thể về những hạn chế được ghi chép rõ ràng. “Đây là điều quan trọng nhất đối với chúng tôi khi chúng tôi tiếp tục tinh chỉnh Bard.”

Giống như Google, Microsoft và OpenAI nói rằng họ đang làm việc để giảm ảo giác.

AI mới. một tài liệu nội bộ của Microsoft cho biết các hệ thống được “xây dựng để thuyết phục, không trung thực”. “Điều này có nghĩa là kết quả đầu ra có thể trông rất thực tế nhưng bao gồm các tuyên bố không đúng sự thật.”

Các chatbot được điều khiển bởi một công nghệ gọi là mô hình ngôn ngữ lớnhay LLM, học các kỹ năng của mình bằng cách phân tích một lượng lớn văn bản kỹ thuật số được chọn lọc từ internet.

Bằng cách xác định các mẫu trong dữ liệu đó, LLM học cách làm một việc cụ thể: đoán từ tiếp theo trong một chuỗi các từ. Nó hoạt động giống như một phiên bản mạnh mẽ của công cụ tự động điền. Với trình tự “The New York Times is a ____,” nó có thể đoán là “báo”.

Bởi vì internet chứa đầy thông tin không trung thực, nên công nghệ học cách lặp lại những điều không trung thực đó. Và đôi khi các chatbot làm nên chuyện. Chúng tạo ra văn bản mới, kết hợp hàng tỷ mẫu theo những cách không ngờ tới. Điều này có nghĩa là ngay cả khi họ chỉ học được từ văn bản chính xác, họ vẫn có thể tạo ra thứ gì đó không chính xác.

Vì các hệ thống này học hỏi từ nhiều dữ liệu hơn con người có thể phân tích nên ngay cả các chuyên gia AI cũng không thể hiểu tại sao chúng tạo ra một chuỗi văn bản cụ thể tại một thời điểm nhất định. Và nếu bạn hỏi cùng một câu hỏi hai lần, họ có thể tạo văn bản khác.

Điều đó tạo nên những thách thức trong việc kiểm tra thực tế và cải thiện kết quả.

Bard đã nói trong một cuộc trò chuyện:

Sau đó, Bard nói trong một cuộc trò chuyện khác:

Các công ty như OpenAI, Google và Microsoft đã phát triển các cách để cải thiện độ chính xác. Ví dụ, OpenAI cố gắng tinh chỉnh công nghệ với phản hồi từ những người thử nghiệm.

Khi mọi người kiểm tra ChatGPT, họ đánh giá các câu trả lời của chatbot, tách biệt các câu trả lời hữu ích và trung thực với những câu trả lời không. Sau đó, bằng cách sử dụng một kỹ thuật gọi là học tăng cường, hệ thống dành hàng tuần để phân tích xếp hạng để hiểu rõ hơn đâu là sự thật và đâu là hư cấu.

Phiên bản ChatGPT mới hơn có tên là ChatGPT Plus, có sẵn với gói đăng ký hàng tháng là 20 đô la, luôn tránh trả lời câu hỏi về lần đầu tiên đề cập đến trí tuệ nhân tạo trên tờ The Times. Đây có thể là kết quả của việc học tăng cường hoặc các thay đổi khác đối với hệ thống do OpenAI áp dụng.

Microsoft đã xây dựng chatbot Bing của mình dựa trên công nghệ nền tảng của OpenAI, được gọi là GPT-4và đã xếp lớp theo các cách khác để cải thiện độ chính xác. Công ty sử dụng GPT-4 để so sánh phản hồi của chatbot với dữ liệu cơ bản và đánh giá hiệu suất của mô hình. Nói cách khác, Microsoft sử dụng AI để làm cho AI tốt hơn.

Công ty cũng cố gắng cải thiện phản hồi của chatbot với sự trợ giúp từ công cụ tìm kiếm internet truyền thống của mình. Khi bạn nhập một truy vấn vào chatbot Bing, Microsoft sẽ chạy một tìm kiếm trên internet về cùng một chủ đề, sau đó đưa các kết quả vào truy vấn trước khi gửi nó tới bot. Sarah Bird, người đi đầu trong các nỗ lực AI có trách nhiệm của Microsoft, cho biết bằng cách chỉnh sửa truy vấn, công ty có thể thúc đẩy hệ thống tạo ra kết quả tốt hơn.

Google sử dụng các phương pháp tương tự để cải thiện độ chính xác của chatbot Bard của mình. Nó sử dụng phản hồi của con người để trau dồi hành vi của hệ thống và nó “tạo cơ sở” cho hệ thống sử dụng thông tin từ công cụ tìm kiếm của công ty, Eli Collins, phó chủ tịch nghiên cứu của Google cho biết.

Bà Bird cho biết Microsoft không kiểm tra độ chính xác của phản hồi của bot trong thời gian thực, mặc dù họ đang nghiên cứu cách thực hiện điều đó. Nó kiểm tra độ chính xác của một phần nhỏ kết quả sau khi thực tế và sau đó sử dụng phân tích đó.

Nhưng trở nên chính xác hơn cũng có thể có nhược điểm, theo một bài báo nghiên cứu gần đây từ OpenAI. Nếu chatbot trở nên đáng tin cậy hơn, người dùng có thể trở nên quá tin tưởng.

Tờ báo cho biết: “Ngược lại, ảo giác có thể trở nên nguy hiểm hơn khi các mô hình trở nên trung thực hơn, khi người dùng tạo dựng niềm tin vào mô hình khi nó cung cấp thông tin trung thực ở những lĩnh vực mà họ đã quen thuộc”.

Steve Lohr Và Cấp Nico báo cáo đóng góp. Jack Begg Và Susan C. Bãi biển nghiên cứu đóng góp.


Exit mobile version