“Joe Biden muốn tìm lời giải từ tin tặc về AI Chatbots”

#SựkiệnNgàyHômNay #JoeBiden #TinTặc #AI #Chatbots

Nhà Trắng đang hỗ trợ một cuộc tập trận hack vào mùa hè này tại hội nghị bảo mật Defcon, có sự tham gia của hàng nghìn người bao gồm cả tin tặc và chuyên gia chính sách, nhằm phơi bày những điểm yếu trong các hệ thống AI tổng quát. Trong cuộc tập trận này, Joe Biden muốn tìm sự trợ giúp của các tin tặc để kiểm tra AI Chatbots và đánh giá sự phù hợp của chúng với Dự luật về Quyền AI của chính quyền Biden công bố vào năm 2022 và khuôn khổ quản lý rủi ro phát hành vào đầu năm nay của Viện Tiêu chuẩn và Công nghệ Quốc gia.

Sự kiện này sẽ được thực hiện với sự tư vấn của Microsoft, tổ chức phi lợi nhuận SeedAI, tổ chức Cơ sở dữ liệu về lỗ hổng AI và Humane Intelligence, một tổ chức phi lợi nhuận của nhà khoa học xã hội và dữ liệu Rumman Chowdhury. Các điểm yếu của các hệ thống AI sẽ được trao điểm giật cờ để khuyến khích người tham gia kiểm tra nhiều loại lỗi hoặc hành vi không phù hợp từ các hệ thống AI.

Viện AI Now, một tổ chức phi lợi nhuận đã tư vấn cho các nhà lập pháp và các cơ quan liên bang về quy định của AI, đã tranh luận rằng các hệ thống ChatGPT có thể được tinh chỉnh cho nhiều mục đích sử dụng, nên chúng xứng đáng được giám sát chặt chẽ hơn theo quy định so với các dạng AI trước đây. Sarah Myers West, giám đốc điều hành của Viện AI Now, cho biết sự quan tâm mới đến AI của các cơ quan quản lý liên bang là điều đáng hoan nghênh, nhưng còn phải xem hành động của họ sẽ có ý nghĩa như thế nào.

Viện AI Now cũng cảnh giác với cách các công ty công nghệ tìm kiếm lợi nhuận với AI dường như có liên quan chặt chẽ với sự chú ý mới của Nhà Trắng đối với công nghệ. Nghiên cứu tháng 12 năm 2022 từ Đại học Stanford cho thấy rằng hầu như không có cơ quan liên bang nào phản hồi Sắc lệnh hành pháp thời Trump để cung cấp các kế hoạch AI cho công chúng và chỉ khoảng một nửa đã chia sẻ bản kiểm kê về cách họ sử dụng AI. Văn phòng Quản lý và Ngân sách của Nhà Trắng sẽ đưa ra các hướng dẫn mới về việc sử dụng AI của cơ quan liên bang trong những tháng tới.

Nguồn: https://www.wired.com/story/joe-biden-hackers-chatgpt-ai-chatbots/

Cuộc tập trận hack do Nhà Trắng hỗ trợ được thiết kế để phơi bày những điểm yếu trong các hệ thống AI tổng quát sẽ diễn ra vào mùa hè này tại hội nghị bảo mật Defcon. Hàng nghìn người tham gia, bao gồm cả tin tặc và chuyên gia chính sách, sẽ được yêu cầu khám phá cách các mô hình tổng quát từ các công ty bao gồm Google, Nvidia và AI ổn định phù hợp với Dự luật về Quyền AI của chính quyền Biden công bố vào năm 2022 và Viện Tiêu chuẩn và Công nghệ Quốc gia khuôn khổ quản lý rủi ro phát hành vào đầu năm nay.

Điểm sẽ được trao theo hình thức giật cờ để khuyến khích người tham gia kiểm tra nhiều loại lỗi hoặc hành vi không phù hợp từ các hệ thống AI. Sự kiện này sẽ được thực hiện với sự tư vấn của Microsoft, tổ chức phi lợi nhuận SeedAI, tổ chức Cơ sở dữ liệu về lỗ hổng AIvà Humane Intelligence, một tổ chức phi lợi nhuận được thành lập bởi nhà khoa học xã hội và dữ liệu Rumman Chowdhury. Cô ấy trước đây dẫn đến một nhóm tại Twitter làm việc về đạo đức và học máy, và tổ chức một tiền thưởng thiên vị đã phát hiện ra sự thiên vị trong việc cắt ảnh tự động của mạng xã hội.

Viện AI Now, một tổ chức phi lợi nhuận đã tư vấn cho các nhà lập pháp và các cơ quan liên bang về quy định của AI, đã tranh luận trong một báo cáo đã phát hành vào tháng trước rằng vì các hệ thống ChatGPT có thể được tinh chỉnh cho nhiều mục đích sử dụng, nên chúng xứng đáng được giám sát chặt chẽ hơn theo quy định so với các dạng AI trước đây.

Sarah Myers West, giám đốc điều hành của Viện AI Now và là đồng tác giả của báo cáo đó, cho biết sự quan tâm mới đến AI của các cơ quan quản lý liên bang là điều đáng hoan nghênh. Nhưng cô ấy nói rằng vẫn còn phải xem hành động của họ sẽ có ý nghĩa như thế nào. West nói: “Chúng tôi không thể nhầm lẫn những tiếng ồn phù hợp với quy định có thể thực thi được ngay bây giờ.

Cô ấy cũng cảnh giác với cách các công ty công nghệ tìm kiếm lợi nhuận với AI dường như có liên quan chặt chẽ với sự chú ý mới của Nhà Trắng đối với công nghệ. Cô ấy nói: “Chúng tôi sẽ thật thiếu sót nếu thực hiện một cách tiếp cận để họ tự dẫn dắt cuộc trò chuyện về những gì tạo nên sự đổi mới đáng tin cậy và có trách nhiệm. “Việc này dành cho các cơ quan quản lý và công chúng rộng lớn hơn để xác định thế nào là sự phát triển có trách nhiệm của công nghệ.”

Tại một cuộc họp báo ngày hôm qua, một quan chức Nhà Trắng nói rằng các công ty phát triển AI nên là đối tác trong việc đảm bảo công nghệ được sử dụng một cách có trách nhiệm, đồng thời nói thêm rằng các doanh nghiệp cũng có trách nhiệm đảm bảo sản phẩm an toàn trước khi chúng được triển khai ra công chúng.

Ngoài các công ty phát triển AI vì lợi nhuận, các cơ quan liên bang còn có một số việc phải làm đối với việc sử dụng AI của chính họ. MỘT Nghiên cứu tháng 12 năm 2022 từ Đại học Stanford cho thấy rằng hầu như không có cơ quan liên bang nào phản hồi Sắc lệnh hành pháp thời Trump để cung cấp các kế hoạch AI cho công chúng và chỉ khoảng một nửa đã chia sẻ bản kiểm kê về cách họ sử dụng AI. Văn phòng Quản lý và Ngân sách của Nhà Trắng sẽ đưa ra các hướng dẫn mới về việc sử dụng AI của cơ quan liên bang trong những tháng tới.


Leave a Reply

Your email address will not be published. Required fields are marked *