#MetaKhôngCungCấpCôngCụQuảngCáoAIChoNhàQuảngCáoChínhTrị
Facebook cho biết họ không xa lạ gì với việc điều tiết và giảm thiểu thông tin sai lệch trên nền tảng của mình, bởi họ đã lâu áp dụng các hệ thống học máy và trí thông minh nhân tạo để bổ sung cho nỗ lực kiểm duyệt của con người. Vào đầu tháng 10, công ty đã mở rộng sự am hiểu về học máy của mình vào nỗ lực quảng cáo bằng một bộ công cụ trí tuệ nhân tạo sáng tạo (Generative AI tools) cung cấp khả năng thực hiện các nhiệm vụ như tạo nền, chỉnh sửa hình ảnh và tạo tiêu đề cho nội dung video của nhà quảng cáo. Reuters cho biết Meta sẽ không cung cấp những công cụ này cho các nhà quảng cáo chính trị trước vòng bầu cử quốc gia dự kiến sẽ ác liệt và gây chia rẽ.
Quyết định của Meta để ngăn chặn việc sử dụng công cụ AI sáng tạo hoàn toàn phù hợp với hệ sinh thái truyền thông xã hội nói chung. Tuy nhiên, như Reuters nhanh chóng chỉ ra, công ty “chưa công bố quyết định này công khai trong bất kỳ cập nhật nào về tiêu chuẩn quảng cáo của mình.” TikTok và Snap đều cấm quảng cáo chính trị trên mạng của họ, Google sử dụng “danh sách từ khóa đen” để ngăn chặn công cụ quảng cáo AI sáng tạo của mình đi vào lĩnh vực chính trị và X (trước đây Twitter) làm gì thì bạn đã biết.
Tuy nhiên, Meta cho phép rất nhiều ngoại lệ cho quy tắc này. Lệnh cấm công cụ chỉ áp dụng đối với “video giả mạo được tạo bởi AI trong tất cả các nội dung, bao gồm bài đăng hữu ích không trả phí, ngoại trừ các bài hài hước hoặc châm biếm”, theo Reuters. Những ngoại lệ này hiện đang được công ty kiểm duyệt độc lập của Meta xem xét như một phần của một vụ kiện mà Meta để lại một đoạn video của Tổng thống Biden đã bị chiến sĩ AI chỉnh sửa vì công ty cho rằng nó không được tạo bởi AI.
Facebook, cùng với các công ty trí tuệ nhân tạo hàng đầu khác của Silicon Valley, đã đồng ý vào tháng 7 thực hiện các cam kết tự nguyện được nêu ra bởi Nhà Trắng nhằm thi hành các biện pháp kỹ thuật và chính sách trong việc phát triển các hệ thống AI sáng tạo trong tương lai. Các biện pháp đó bao gồm mở rộng các nỗ lực học máy đối kháng (còn được gọi là đoàn quân đỏ) để ngăn chặn hành vi xấu của mô hình, chia sẻ thông tin về niềm tin và an toàn cả trong ngành và với chính phủ, cũng như phát triển một công nghệ đóng dấu số để xác thực nội dung chính thức và làm rõ rằng nó không phải do AI tạo ra.
Facebook is no stranger to moderating and mitigating misinformation on its platform, having long employed machine learning and artificial intelligence systems to help supplement its human-led moderation efforts. At the start of October, the company extended its machine learning expertise to its advertising efforts with an experimental set of generative AI tools that can perform tasks like generating backgrounds, adjusting image and creating captions for an advertiser’s video content. Reuters reports Monday that Meta will specifically not make those tools available to political marketers ahead of what is expected to be a brutal and divisive national election cycle.
Meta’s decision to bar the use of generative AI is in line with much of the social media ecosystem, though, as Reuters is quick to point out, the company, “has not yet publicly disclosed the decision in any updates to its advertising standards.” TikTok and Snap both ban political ads on their networks, Google employs a “keyword blacklist” to prevent its generative AI advertising tools from straying into political speech and X (formerly Twitter) is, well, you’ve seen it.
Meta does allow for a wide latitude of exceptions to this rule. The tool ban only extends to “misleading AI-generated video in all content, including organic non-paid posts, with an exception for parody or satire,” per Reuters. Those exceptions are currently under review by the company’s independent Oversight Board as part of a case in which Meta left up an “altered” video of President Biden because, the company argued, it was not generated by an AI.
Facebook, along with other leading Silicon Valley AI companies, agreed in July to voluntary commitments set out by the White House enacting technical and policy safeguards in the development of their future generative AI systems. Those include expanding adversarial machine learning (aka red-teaming) efforts to root out bad model behavior, sharing trust and safety information both within the industry and with the government, as well as development of a digital watermarking scheme to authenticate official content and make clear that it is not AI-generated.