Meta sẽ yêu cầu nhà quảng cáo chính trị tiết lộ việc sử dụng Trí tuệ nhân tạo

Meta sẽ yêu cầu các quảng cáo chính trị tiết lộ việc sử dụng trí tuệ nhân tạo
Meta đã dành nhiều năm nghiên cứu cách thức xử lý quảng cáo chính trị trên Facebook và Instagram. Họ đã đưa ra các hệ thống và phát triển chính sách cho loại quảng cáo chính trị nào được phép và không được phép trên các nền tảng của họ. Nhưng điều đó diễn ra trước sự gia tăng của trí tuệ nhân tạo (A.I.Trong ngày hôm nay, Meta đã giới thiệu một chính sách mới để đối mặt với tác động của trí tuệ nhân tạo (A.I.) đối với quảng cáo chính trị. Công ty này cho biết, bắt đầu từ năm sau, họ sẽ yêu cầu các nhà quảng cáo chính trị trên toàn thế giới phải tiết lộ khi họ đã sử dụng phần mềm trí tuệ nhân tạo của bên thứ ba trong quảng cáo chính trị hoặc vấn đề xã hội để tạo ra hình ảnh và sự kiện một cách tổng hợp. Meta cho biết họ sẽ cấm các nhà quảng cáo sử dụng phần mềm trợ giúp trí tuệ nhân tạo của chính họ để tạo ra quảng cáo chính trị hoặc vấn đề xã hội, cũng như quảng cáo liên quan đến nhà ở, việc làm, tín dụng, sức khỏe, dược phẩm hoặc dịch vụ tài chính. Những nhà quảng cáo sẽ có thể sử dụng các công cụ trí tuệ nhân tạo của bên thứ ba như các trình tạo hình ảnh DALL-E và Midjourney, nhưng phải tiết lộ.
Meta đang đối mặt với một làn sóng các công cụ trí tuệ nhân tạo mà công chúng đã chấp nhận trong năm qua. Khi người tiêu dùng đã tập trung vào ChatGPT, Google Bard, Midjourney và các sản phẩm “trí tuệ nhân tạo tổng hợp” khác, các công ty công nghệ lớn như Meta đã phải suy nghĩ lại cách xử lý một kỷ nguyên mới của hình ảnh, video và âm thanh bị thay đổi hoặc hoàn toàn sai lệch. Quảng cáo chính trị đã lâu trở thành một vấn đề gây tranh cãi cho Meta. Năm 2016, Facebook bị chỉ trích vì thiếu hệ thống giám sát sau khi người Nga sử dụng quảng cáo trên mạng xã hội đó để gieo rắc sự bất mãn giữa người Mỹ. Kể từ đó, Mark Zuckerberg, người sáng lập và điều hành chính của Meta, đã chi hàng tỉ đô la để làm giảm thông tin sai lệch và thiếu tin cậy trên các nền tảng của công ty và đã thuê các nhà thầu độc lập để theo dõi chặt chẽ quảng cáo chính trị qua hệ thống của họ.
Công ty cũng không ngần ngại cho phép chính trị viên nói dối trong quảng cáo trên nền tảng của mình, mà ông Zuckerberg đã bảo vệ dựa trên quyền tự do ngôn luận và tranh luận công cộng. Meta cũng đã từng thể hiện sự miễn cưỡng trong việc giới hạn ngôn luận của các quan chức được bầu cử. Nick Clegg, Tổng thống Công việc toàn cầu của Meta, đã kêu gọi hướng dẫn về quy định thay vì để các công ty công nghệ xác định các quy tắc. Các nhà chạy quảng cáo chính trị trên Meta hiện đang phải hoàn thành quy trình ủy quyền và bao gồm một “đã thanh toán bởi” trên quảng cáo, mà được lưu trong Tập kinh Trước Công khai của công ty trong 7 năm để các nhà báo và học giả có thể nghiên cứu chúng. Khi chính sách trí tuệ nhân tạo mới của Meta có hiệu lực vào lần sau, các chiến dịch chính trị và các nhãn hiệu sẽ được yêu cầu phải tiết lộ liệu họ đã sử dụng công cụ trí tuệ nhân tạo để sửa đổi các quảng cáo. Nếu họ đã và quảng cáo được chấp nhận, công ty sẽ chạy quảng cáo với thông tin rằng nó được tạo ra bằng công cụ trí tuệ nhân tạo. Meta cho biết họ sẽ không yêu cầu các nhà quảng cáo tiết lộ các sửa đổi mà “không đáng kể hoặc không gây lỗi cho mọi quảng cáo, tuyên bố hoặc vấn đề nêu lên”, như chỉnh sửa ảnh và cắt ảnh.
Công ty cho biết quảng cáo chính trị và vấn đề xã hội mà đã sử dụng trí tuệ nhân tạo để sửa video, ảnh và âm thanh nhưng không tiết lộ điều đó sẽ bị từ chối. Các tổ chức mà lần lượt thử gửi các quảng cáo như vậy mà không tiết lộ chúng sẽ bị phạt, nói thẳng mà không chỉ rõ ý là những hình phạt có thể là gì. Công ty đã lâu đã có các đối tác kiểm định bên thứ ba đánh giá, xếp hạng và có thể gỡ bỏ quảng cáo mà được thiết kế để lan truyền thông tin sai lệch. Bằng cách cấm nhà quảng cáo sử dụng công nghệ trí tuệ nhân tạo dạng của công ty để tạo ra quảng cáo chính trị hoặc vấn đề xã hội, Meta có thể có thể ngăn đầu đau hoặc tranh cãi liên quan đến công nghệ quảng cáo của mình. Vào năm 2019, Bộ Tư pháp đã kiện công ty vì cho phép các nhà quảng cáo phân biệt đối xử đối với người dùng Facebook dựa trên chủng tộc, giới tính, tôn giáo và các đặc điểm khác. Công ty cuối cùng đã giải quyết vụ kiện, đồng ý thay đổi công nghệ quảng cáo của mình và trả một khoản phạt 115.054 đô la.

Nguồn: https://www.nytimes.com/2023/11/08/technology/meta-political-ads-artificial-intelligence.html

Meta spent years figuring out how to handle political advertising across Facebook and Instagram. It put systems into place and developed policies for what types of political ads were and were not allowed on its platforms.

But that was before the rise of consumer artificial intelligence.

On Wednesday, Meta introduced a new policy to grapple with A.I.’s effects on political advertising. The Silicon Valley company said that starting next year, it would require political advertisers around the world to disclose when they had used third-party A.I. software in political or social issue ads to synthetically depict people and events.

Meta added that it would bar advertisers from using its own A.I.-assisted software to create political or social issue ads, as well as ads related to housing, employment, credit, health, pharmaceuticals or financial services. Those advertisers would be able to use third-party A.I. tools such as the image generators DALL-E and Midjourney, but with disclosures.

“We believe this approach will allow us to better understand potential risks and build the right safeguards for the use of generative A.I. in ads that relate to potentially sensitive topics in regulated industries,” the company said.

Meta is reckoning with a wave of A.I. tools that the public has embraced over the past year. As consumers have flocked to ChatGPT, Google Bard, Midjourney and other “generative A.I.” products, big tech companies such as Meta have had to rethink how to handle a new era of manipulated or outright false imagery, video and audio.

Political advertising has long been a contentious issue for Meta. In 2016, Facebook was criticized for a lack of oversight after Russians used the social network’s ads to sow discontent among Americans. Since then, Mark Zuckerberg, Meta’s founder and chief executive, has spent billions of dollars working to tamp down disinformation and misinformation on the company’s platforms and has hired independent contractors to closely monitor political ads that go through the system.

The company has also not shied away from allowing politicians to lie in ads on the platform, which Mr. Zuckerberg has defended on the grounds of free speech and public discourse. Meta has also shown reluctance to limit the speech of elected officials. Nick Clegg, Meta’s president of global affairs, has called for regulatory guidance on such issues instead of having tech companies determine the rules.

Those who run political ads on Meta are currently required to complete an authorization process and include a “paid for by” disclaimer on the ads, which are stored in the company’s public Ad Library for seven years so journalists and academics can study them.

When Meta’s new A.I. policy goes into effect next year, political campaigns and marketers will be asked to disclose whether they used A.I. tools to alter the ads. If they have and the ad is accepted, the company will run it with the information that it was created with A.I. tools. Meta said it would not require advertisers to disclose alterations that were “inconsequential or immaterial to the claim, assertion or issue raised,” such as photo retouching and image cropping.

Political and social issue ads that have apparently used A.I. to alter images, video and audio but have failed to disclose doing so will be rejected, the company said. Organizations that repeatedly try to submit such ads without disclosures will be penalized, it added, without specifying what the penalties might be. The company has long had third-party fact-checking partners review, rate and potentially remove ads that are designed to spread misinformation.

By barring advertisers from using the company’s own A.I.-assisted software to create political or social issue ads, Meta may be able to prevent headaches or litigation related to its advertising technology.

In 2019, the Justice Department sued the company for allowing advertisers to discriminate against Facebook users based on their race, gender, religion and other characteristics. The company eventually settled the lawsuit, agreeing to alter its ad technology and pay a penalty of $115,054.


Leave a Reply

Your email address will not be published. Required fields are marked *