Đây là cách mà các nhóm cực đoan bạo lực đang lợi dụng công cụ AI sinh sáng tạo. “Chúng tôi sẽ hợp tác với Microsoft để tìm ra các cách sử dụng hồ sơ của chúng tôi để tạo ra một hệ thống phát hiện AI gen để chống lại mối đe dọa mới nổi rằng AI gen sẽ được sử dụng để xuất bản nội dung khủng bố trên quy mô lớn,” Hadley cho biết. “Chúng tôi tin rằng AI gen có thể được sử dụng để phòng vệ chống lại việc sử dụng ác ý của AI gen.”
Đối tác này đã được công bố hôm nay, vào ngay trước Hội nghị Thượng đỉnh của Christchurch Call Leaders, một phong trào được thiết kế để loại trừ nội dung khủng bố và cực đoan khỏi internet, sẽ được tổ chức tại Paris.
“Sử dụng nền tảng kỹ thuật số để lan truyền nội dung cực đoan bạo lực là một vấn đề khẩn cấp với hậu quả trong thế giới thực,” Brad Smith, phó chủ tịch và tổng giám đốc tại Microsoft nói trong một tuyên bố. “Bằng cách kết hợp khả năng của Tech Against Terrorism với AI, chúng tôi hy vọng sẽ giúp tạo ra một thế giới an toàn hơn cả trực tuyến và ngoại tuyến.”
Trong khi các công ty như Microsoft, Google và Facebook đều có các phòng nghiên cứu AI riêng và có khả năng đã triển khai tài nguyên riêng để chống lại vấn đề này, sáng kiến mới này cuối cùng sẽ hỗ trợ những công ty không thể chống lại những nỗ lực này một mình. “Điều này sẽ đặc biệt quan trọng đối với các nền tảng nhỏ mà không có trung tâm nghiên cứu AI riêng,” Hadley nói. “Ngay cả bây giờ, với các cơ sở dữ liệu băm, các nền tảng nhỏ có thể trở nên quá tải bởi nội dung này.”
Mối đe dọa của nội dung sinh sáng tạo AI không giới hạn ở các nhóm cực đoan. Tháng trước, Tổ chức theo dõi Internet, một tổ chức phi lợi nhuận có trụ sở tại Anh làm việc để loại bỏ nội dung bạo lực tình dục trẻ em từ internet, đã công bố một báo cáo mô tả sự hiện diện ngày càng tăng của nội dung lạm dụng tình dục trẻ em được tạo ra bằng các công cụ AI trên mạng tối.
Các nhà nghiên cứu đã tìm thấy hơn 20.000 hình ảnh được tạo ra bởi AI được đăng trên một diễn đàn mạng tối về nội dung lạm dụng tình dục trẻ em trong vòng một tháng, với 11.108 hình ảnh này được nhận định là có khả năng lớn nhất là phạm tội bởi các nhà nghiên cứu của IWF. Như các nhà nghiên cứu của IWF đã viết trong báo cáo của họ, “Những hình ảnh AI này có thể rất thuyết phục đến mức không thể phân biệt được với hình ảnh thực.” #TechAgainstTerrorism #AI #ChristchurchCallLeaders Summit #GenerativeAI #IWF
Nguồn: https://www.wired.com/story/generative-ai-terrorism-content/
“We’re going to partner with Microsoft to figure out if there are ways using our archive of material to create a sort of gen AI detection system in order to counter the emerging threat that gen AI will be used for terrorist content at scale,” Hadley says. “We’re confident that gen AI can be used to defend against hostile uses of gen AI.”
The partnership was announced today, on the eve of the Christchurch Call Leaders’ Summit, a movement designed to eradicate terrorism and extremist content from the internet, to be held in Paris.
“The use of digital platforms to spread violent extremist content is an urgent issue with real-world consequences,” Brad Smith, vice chair and president at Microsoft said in a statement. “By combining Tech Against Terrorism’s capabilities with AI, we hope to help create a safer world both online and off.”
While companies like Microsoft, Google, and Facebook all have their own AI research divisions and are likely already deploying their own resources to combat this issue, the new initiative will ultimately aid those companies that can’t combat these efforts on their own.
“This will be particularly important for smaller platforms that don’t have their own AI research centers,” Hadley says. “Even now, with the hashing databases, smaller platforms can just become overwhelmed by this content.”
The threat of AI generative content is not limited to extremist groups. Last month, the Internet Watch Foundation, a UK-based nonprofit that works to eradicate child exploitation content from the internet, published a report that detailed the growing presence of child sexual abuse material (CSAM) created by AI tools on the dark web.
The researchers found over 20,000 AI-generated images posted to one dark web CSAM forum over the course of just one month, with 11,108 of these images judged most likely to be criminal by the IWF researchers. As the IWF researchers wrote in their report, “These AI images can be so convincing that they are indistinguishable from real images.”