#SựKiệnNgàyHômNay #AItrongChínhTrị
Gặp gỡ Bản ngã thay thế cánh hữu của ChatGPT – một sự kiện gây ra sự xôn xao đáng kể trong tuần qua khi Elon Musk, người đứng sau ChatGPT, thông báo về kế hoạch xây dựng “TruthGPT” – một đối thủ cạnh tranh với mô hình Trò chuyệnGPT của OpenAI. Tuy nhiên, nhiều người lo lắng về sự thiên vị chính trị trong các mô hình ngôn ngữ.
David Rozado, một nhà khoa học dữ liệu đến từ New Zealand, là người đầu tiên đưa ra ý tưởng về vấn đề này. Ông đã tinh chỉnh mô hình ngôn ngữ Davinci GPT-3 để tạo ra một bot có tên gọi là RightWingGPT, thể hiện quan điểm bảo thủ hơn. Ông cũng đang lên kế hoạch xây dựng hai mô hình ngôn ngữ khác.
Tuy nhiên, việc giải quyết các sự chia rẽ chính trị thông qua các mô hình ngôn ngữ có thể trở thành một thách thức lớn. Các bot AI được xây dựng dựa trên các thuật toán phức tạp và sử dụng lượng lớn văn bản để đào tạo. Chúng có thể nắm bắt được nhiều thành kiến tinh vi từ tài liệu đào tạo mà họ sử dụng và có xu hướng bịa đặt mọi thứ.
Vì vậy, việc xây dựng các bots AI phù hợp với chính trị hơn có thể đe dọa gây ra sự chia rẽ chính trị. Các tổ chức bảo thủ đã xây dựng các đối thủ cạnh tranh với ChatGPT và có khả năng ảnh hưởng đến quan điểm đạo đức của người dùng. Chính phủ Trung Quốc mới đây đã ban hành hướng dẫn để chế ngự hành vi của những mô hình này và định hình sự nhạy cảm chính trị của họ.
Vì vậy, việc học cách tạo ra các AI tập trung vào việc xây dựng các cây cầu hơn là gieo rắc sự chia rẽ là một khát vọng đáng ngưỡng mộ.
Nguồn: https://www.wired.com/story/fast-forward-meet-chatgpts-right-wing-alter-ego/
Elon Musk gây ra xôn xao tuần trước khi anh ấy nói các (bị sa thải gần đây) kẻ khiêu khích cánh hữu Tucker Carlson rằng ông dự định xây dựng “TruthGPT”, một đối thủ cạnh tranh với OpenAI’s Trò chuyệnGPT. Musk cho biết bot cực kỳ phổ biến này thể hiện sự thiên vị “đã đánh thức” và phiên bản của anh ấy sẽ là một “AI tìm kiếm sự thật tối đa” — chỉ đề xuất quan điểm chính trị của riêng anh ấy phản ánh thực tế.
Musk không phải là người duy nhất lo lắng về sự thiên vị chính trị trong các mô hình ngôn ngữ, nhưng những người khác đang cố gắng sử dụng AI để thu hẹp sự chia rẽ chính trị thay vì thúc đẩy các quan điểm cụ thể.
david rozado, một nhà khoa học dữ liệu có trụ sở tại New Zealand, là một trong những người đầu tiên thu hút sự chú ý đến vấn đề thiên vị chính trị trong ChatGPT. Vài tuần trước, sau khi ghi lại những gì mà anh ấy coi là câu trả lời nghiêng về tự do từ bot về các vấn đề bao gồm thuế, quyền sở hữu súng và thị trường tự do, anh ấy đã tạo ra một mô hình AI có tên RightWingGPT thể hiện quan điểm bảo thủ hơn. Nó quan tâm đến quyền sở hữu súng và không thích thuế.
Rozado lấy một mô hình ngôn ngữ có tên là Davinci GPT-3, tương tự nhưng yếu hơn mô hình hỗ trợ ChatGPT và tinh chỉnh nó bằng văn bản bổ sung, với chi phí vài trăm đô la chi cho điện toán đám mây. Dù bạn nghĩ gì về dự án, thì nó cũng cho thấy mọi người sẽ dễ dàng đưa các quan điểm khác nhau vào các mô hình ngôn ngữ trong tương lai dễ dàng như thế nào.
Rozado nói với tôi rằng anh ấy cũng có kế hoạch xây dựng một mô hình ngôn ngữ tự do hơn có tên là LeftWingGPT, cũng như một mô hình có tên là DepolarizingGPT, mà anh ấy nói sẽ thể hiện một “quan điểm chính trị khử cực”. Rozado và một think tank trung dung có tên là Viện phát triển văn hóa sẽ đưa cả ba mô hình trực tuyến vào mùa hè này.
Rozado cho biết trong một email: “Chúng tôi đang đào tạo từng bên—phải, trái và ‘tích hợp’—bằng cách sử dụng sách của các tác giả chu đáo (không phải của những kẻ khiêu khích). Văn bản cho Khử cực GPT đến từ những tiếng nói bảo thủ bao gồm Thomas Sowell, Milton Freeman và William F. Buckley, cũng như các nhà tư tưởng tự do như Simone de Beauvoir, Orlando Patterson và Bill McKibben, cùng với “các nguồn được tuyển chọn” khác.
Cho đến nay, mối quan tâm đến việc phát triển các bot AI phù hợp với chính trị hơn đã đe dọa gây ra sự chia rẽ chính trị. Một số tổ chức bảo thủ đã xây dựng các đối thủ cạnh tranh với ChatGPT. Chẳng hạn, mạng xã hội Gab, được biết đến với cơ sở người dùng cực hữu, nói rằng đó là cải tiến Các công cụ AI với “khả năng tạo nội dung một cách tự do mà không bị ràng buộc bởi tuyên truyền tự do được bao bọc chặt chẽ trong mã của nó”.
Nghiên cứu cho thấy rằng các mô hình ngôn ngữ có thể ảnh hưởng một cách tinh vi quan điểm đạo đức của người dùng, vì vậy bất kỳ khuynh hướng chính trị nào mà họ có đều có thể là hậu quả. Chính phủ Trung Quốc gần đây đã ban hành mới hướng dẫn về AI tổng quát nhằm mục đích chế ngự hành vi của những mô hình này và định hình sự nhạy cảm chính trị của họ.
OpenAI có cảnh báo rằng các mô hình AI có khả năng hơn có thể có “tiềm năng lớn hơn để củng cố toàn bộ hệ tư tưởng, thế giới quan, sự thật và sự thật”. Vào tháng Hai, công ty cho biết trong một bài viết trên blog rằng nó sẽ khám phá các mô hình đang phát triển cho phép người dùng xác định giá trị của họ.
Rozado, người nói rằng anh ta chưa nói chuyện với Musk về dự án của mình, nhằm mục đích kích động sự phản ánh hơn là tạo ra các bot truyền bá một thế giới quan cụ thể. Ông nói: “Hy vọng rằng chúng ta, với tư cách là một xã hội, có thể… học cách tạo ra các AI tập trung vào việc xây dựng những cây cầu hơn là gieo rắc sự chia rẽ.
Mục tiêu của Rozado thật đáng ngưỡng mộ, nhưng vấn đề giải quyết điều gì là đúng một cách khách quan thông qua sương mù của sự chia rẽ chính trị—và việc dạy điều đó cho các mô hình ngôn ngữ—có thể là trở ngại lớn nhất.
ChatGPT và các bot trò chuyện tương tự được xây dựng dựa trên các thuật toán phức tạp được cung cấp một lượng lớn văn bản và được đào tạo để dự đoán từ nào sẽ theo sau một chuỗi từ. Quá trình đó có thể tạo ra đầu ra mạch lạc đáng kể, nhưng nó cũng có thể nắm bắt được nhiều thành kiến tinh vi từ tài liệu đào tạo mà họ sử dụng. Cũng quan trọng không kém, các thuật toán này không được dạy để hiểu các sự kiện khách quan và có xu hướng bịa đặt mọi thứ.