#Deepfake #Sựkiệnngàyhômqua #Ghinãnhữngnộidungtổnghại
Trong tuần trước, một video quảng cáo chống lại Biden đã được đưa ra bởi các Ủy ban Quốc gia Đảng Cộng hòa với một tuyên bố từ chối trách nhiệm nhỏ ở trên cùng bên trái của khung: “Được xây dựng hoàn toàn bằng hình ảnh AI.” Các nhà phê bình đã đặt câu hỏi về kích thước giảm dần của tuyên bố từ chối trách nhiệm và giá trị hạn chế của nó, đặc biệt là trong quảng cáo đánh dấu việc sử dụng AI thực chất đầu tiên trong quảng cáo tấn công chính trị.
Việc gắn nhãn trở nên quan trọng trong việc đảm bảo tính minh bạch cho phương tiện tổng hợp, nội dung do AI tạo và deepfakes. Những nhãn này có thực sự hoạt động không? Có thể không. Để một nhãn hoạt động, nó cần phải rõ ràng, văn bản đủ lớn để đọc và các từ có thể truy cập được. Nó cũng cung cấp cho khán giả bối cảnh có ý nghĩa về cách phương tiện đã được tạo và sử dụng và có thể tiết lộ ý định đưa phương tiện này vào thế giới.
Tuy nhiên, những nhãn này thường bị xóa hoặc không hiệu quả, đặc biệt là trên các nền tảng mạng xã hội. Điều này có thể dẫn đến hiểu lầm và thông tin sai lệch. Các nhà công nghệ đang nghiên cứu các cách để truy tìm nguồn gốc của phương tiện tổng hợp và các phương pháp ghi nhãn thay thế được đưa ra nhằm giúp xác định rõ hơn loại nội dung này.
Việc gửi thông điệp đảm bảo tính minh bạch cho phương tiện tổng hợp, nội dung do AI tạo và deepfakes cần được thực hiện một cách sáng tạo và đầy hứa hẹn. Nó có thể đã được áp dụng trong các bộ phim tài liệu và video âm nhạc, nơi các đạo diễn đã sử dụng công nghệ giả sâu và các phương pháp truyền thông tổng hợp giống như những thứ được sử dụng để tạo deepfakes nhằm giúp khán giả hiểu rõ hơn về cách phương tiện được tạo ra và tại sao.
Tuy nhiên, việc bảo đảm tính minh bạch cho phương tiện tổng hợp, nội dung do AI tạo và deepfakes cần được cải thiện để ngăn chặn thông tin sai lệch và đảm bảo tính chính xác của nội dung phương tiện.
Nguồn: https://www.wired.com/story/the-thorny-art-of-deepfake-labeling/
Tuần trước, các Ủy ban Quốc gia Đảng Cộng hòa đưa ra một video quảng cáo chống lại Biden, trong đó có một tuyên bố từ chối trách nhiệm nhỏ ở trên cùng bên trái của khung: “Được xây dựng hoàn toàn bằng hình ảnh AI.” Các nhà phê bình đặt câu hỏi kích thước giảm dần của tuyên bố từ chối trách nhiệm và đề xuất giá trị hạn chế của nó, đặc biệt là vì quảng cáo đánh dấu việc sử dụng AI thực chất đầu tiên trong quảng cáo tấn công chính trị. Khi phương tiện do AI tạo ra trở nên phổ biến hơn, nhiều người đã lập luận rằng các nhãn, chú thích và hình mờ dựa trên văn bản là rất quan trọng đối với tính minh bạch.
Nhưng những nhãn này có thực sự hoạt động không? Có thể không.
Để một nhãn hoạt động, nó cần phải rõ ràng. Là văn bản đủ lớn để đọc? Các từ có thể truy cập được không? Nó cũng sẽ cung cấp cho khán giả bối cảnh có ý nghĩa về cách phương tiện đã được tạo và sử dụng. Và trong những trường hợp tốt nhất, nó cũng tiết lộ ý định: Tại sao phần truyền thông này lại được đưa vào thế giới?
Các ấn phẩm báo chí, truyền thông tài liệu, công nghiệp và khoa học từ lâu đã dựa vào các tiết lộ để cung cấp cho khán giả và người dùng bối cảnh cần thiết. Phim báo chí và phim tài liệu thường sử dụng văn bản lớp phủ để trích dẫn nguồn. Nhãn và thẻ cảnh báo có mặt khắp nơi trên hàng hóa sản xuất, thực phẩm và thuốc. Trong báo cáo khoa học, điều cần thiết là tiết lộ cách thu thập dữ liệu và phân tích. Nhưng việc gắn nhãn phương tiện tổng hợp, nội dung do AI tạo và deepfakes thường được coi là gánh nặng không mong muốn, đặc biệt là trên các nền tảng mạng xã hội. Đó là một suy nghĩ muộn màng. Một sự tuân thủ nhàm chán trong thời đại của thông tin sai lệch/sai lệch.
Do đó, nhiều phương pháp tiết lộ phương tiện AI hiện có, như hình mờ và nhãn, có thể dễ dàng bị xóa. Ngay cả khi họ ở đó, đôi mắt của các thành viên khán giả – giờ đây đã được đào tạo về đầu vào hình ảnh nhanh chóng – dường như không nhìn thấy hình mờ và tiết lộ. Ví dụ, vào tháng 9 năm 2019, chương trình truyền hình châm biếm nổi tiếng của Ý Striscia la Notizia đăng một video hoán đổi khuôn mặt có độ trung thực thấp của cựu thủ tướng Matteo Renzi đang ngồi ở bàn làm việc xúc phạm đối tác liên minh lúc bấy giờ của ông là Matteo Salvini bằng những cử chỉ tay cường điệu trên mạng xã hội. mặc dù một Striscia theo nhà nghiên cứu deepfakes Henry Adjer, một số người xem tin rằng video là thật.
Điều này được gọi là thay đổi bối cảnh: Khi bất kỳ phần nào của phương tiện truyền thông, thậm chí được gắn nhãn và đóng dấu chìm, được phân phối trên các nhóm truyền thông xã hội bị chính trị hóa và đóng cửa, những người tạo ra nó sẽ mất quyền kiểm soát cách nó được đóng khung, diễn giải và chia sẻ. Như chúng tôi đã tìm thấy trong một khớp nghiên cứu giữa Witness và MIT, khi châm biếm kết hợp với deepfakes, nó thường tạo ra sự nhầm lẫn, như trong trường hợp này Striscia băng hình. Những loại nhãn dựa trên văn bản đơn giản này có thể tạo thêm quan niệm sai lầm rằng bất cứ thứ gì không có nhãn đều không bị thao túng, trong thực tế, điều đó có thể không đúng.
Các nhà công nghệ đang nghiên cứu các cách để truy tìm nguồn gốc của phương tiện tổng hợp một cách nhanh chóng và chính xác, như nguồn gốc mật mã và siêu dữ liệu tệp chi tiết. Khi nói đến các phương pháp ghi nhãn thay thế, các nghệ sĩ và nhà hoạt động nhân quyền đang đưa ra những cách mới đầy hứa hẹn để xác định rõ hơn loại nội dung này bằng cách định nghĩa lại việc ghi nhãn như một hành động sáng tạo chứ không phải là một tiện ích bổ sung.
Khi một tiết lộ được đưa vào phương tiện truyền thông, nó không thể bị xóa và nó thực sự có thể được sử dụng như một công cụ để thúc đẩy khán giả hiểu cách một phần phương tiện được tạo ra và tại sao. Ví dụ, trong bộ phim tài liệu của David France Chào mừng đến với Chechnyanhững người được phỏng vấn dễ bị tổn thương đã được ngụy trang kỹ thuật số với sự trợ giúp của sáng tạo công cụ truyền thông tổng hợp giống như những thứ được sử dụng để tạo deepfakes. Ngoài ra, những quầng sáng tinh tế xuất hiện xung quanh khuôn mặt của họ, một manh mối cho người xem rằng những hình ảnh họ đang xem đã bị thao túng và những đối tượng này đang mạo hiểm rất nhiều khi chia sẻ câu chuyện của họ. Và trong video âm nhạc năm 2022 của Kendrick Lamar, “Trái Tim Phần 5,” các đạo diễn đã sử dụng công nghệ giả sâu để biến khuôn mặt của Lamar thành những người nổi tiếng còn sống và đã qua đời như Will Smith, OJ Simpson và Kobe Bryant. Việc sử dụng công nghệ này được viết trực tiếp vào lời bài hát và vũ đạo, chẳng hạn như khi Lamar dùng tay vuốt lên mặt, rõ ràng cho thấy đây là một bản chỉnh sửa deepfake. Video kết quả là một bài bình luận tổng hợp về bản thân deepfakes.