Kế hoạch của Trung Quốc để thực hiện dấu nhận AI #TrungQuốc #AI #SựKiệnNgàyHômNay
Các cơ quan quản lý Trung Quốc có lẽ đã học hỏi từ Đạo Luật AI của Liên minh Châu Âu, theo Jeffrey Ding, giáo sư trợ giúp Khoa học Chính trị tại Đại học George Washington. “Các nhà hoạch định chính sách và học giả Trung Quốc đã nói rằng họ đã lấy cảm hứng từ Đạo Luật của Liên minh Châu Âu cho những điều trong quá khứ.”
Nhưng đồng thời, một số biện pháp mà cơ quan quản lý Trung Quốc đã thực hiện không thực sự có thể lặp lại ở các quốc gia khác. Ví dụ, chính phủ Trung Quốc đang yêu cầu các nền tảng xã hội sàng lọc nội dung do người dùng tải lên để AI xử lý. “Điều đó có vẻ là một điều rất mới và có thể duy nhất trong bối cảnh Trung Quốc,” Ding nói. “Điều này sẽ không bao giờ tồn tại trong bối cảnh Mỹ, vì Mỹ nổi tiếng nói rằng nền tảng không chịu trách nhiệm cho nội dung.”
Nhưng còn quyền tự do ngôn luận trực tuyến?
Bản dự thảo quy định về gắn nhãn nội dung AI đang tìm kiếm phản hồi từ công chúng đến ngày 14 tháng 10, và có thể mất thêm vài tháng nữa để được điều chỉnh và thông qua. Nhưng không có lý do gì cho các công ty Trung Quốc phải trì hoãn việc chuẩn bị cho khi nó có hiệu lực.
Sima Huapeng, người sáng lập và CEO của công ty Trí tuệ Nhân tạo Trung Quốc Silicon Intelligence, sử dụng công nghệ deepfake để tạo ra các đại lý AI, ảnh hưởng và nhân bản những người còn sống và đã mất, nói rằng sản phẩm của ông hiện cho phép người dùng tự nguyện chọn gắn dấu sản phẩm được tạo ra như AI. Nhưng nếu luật được thông qua, anh có thể phải thay đổi thành bắt buộc.
“Nếu một tính năng là tùy chọn, thì có lẽ hầu như các công ty sẽ không thêm vào sản phẩm của họ. Nhưng nếu nó trở thành bắt buộc theo luật, thì mọi người phải thực hiện,” Sima nói. Việc thêm dấu mực hoặc nhãn siêu dữ liệu không phức tạp, nhưng nó sẽ tăng chi phí hoạt động cho các công ty tuân thủ.
Các chính sách như vậy có thể duy trì AI không được sử dụng cho lừa đảo hoặc xâm phạm quyền riêng tư, anh nói, nhưng cũng có thể gây ra sự phát triển của một thị trường đen dịch vụ AI nơi các công ty cố gắng tránh tuân thủ pháp lý và tiết kiệm chi phí.
Việc giữ cho các nhà sản xuất nội dung AI chịu trách nhiệm và kiểm soát cá nhân thông qua việc theo dõi phức tạp hơn là một đường ranh giới mảnh giữa hai ngưỡng.
“Dẫn đến vấn đề quan trọng dưới tầng hầm là đảm bảo những cách tiếp cận này không làm suy giảm quyền riêng tư hoặc tự do ngôn luận,” Gregory nói. Mặc dù các nhãn tiềm ẩn và dấu mực có thể được sử dụng để xác định nguồn gốc của tin tức sai lệch và nội dung không thích hợp, cùng các công cụ có thể cho phép các nền tảng và chính phủ có quyền kiểm soát mạnh mẽ hơn về những gì người dùng đăng trên internet. Trên thực tế, lo lắng về cách các công cụ AI có thể trở nên bất ngờ đã là một trong những nguyên nhân chính hướng dẫn cho nỗ lực lập pháp AI chủ động của Trung Quốc.
Đồng thời, ngành công nghiệp AI Trung Quốc đang phản kháng lại chính phủ để có thêm không gian để thực nghiệm và phát triển vì họ đã sụt khỏi những đối thủ phương Tây. Một luật AI trắng tạo Trung Quốc trước đây đã bị suy giảm đáng kể giữa bản dự thảo công khai đầu tiên và dự luật cuối cùng, loại bỏ các yêu cầu về xác minh danh tính và giảm án phạt áp dụng cho các công ty.
“Những gì chúng tôi đã thấy là chính phủ Trung Quốc quả thực cố gắng đi trên sợi dây mong manh giữa ‘đảm bảo rằng chúng tôi duy trì quyền kiểm soát nội dung’ nhưng cũng ‘để những phòng AI này trong không gian chiến lược có tự do sáng tạo,'” Ding nói. “Đây là một nỗ lực khác để làm điều đó.”
Nguồn: https://www.wired.com/story/china-wants-to-make-ai-watermarks-happen/
Chinese regulators likely learned from the EU AI Act, says Jeffrey Ding, an assistant professor of Political Science at George Washington University. “Chinese policymakers and scholars have said that they’ve drawn on the EU’s Acts as inspiration for things in the past.”
But at the same time, some of the measures taken by the Chinese regulators aren’t really replicable in other countries. For example, the Chinese government is asking social platforms to screen the user-uploaded content for AI. “That seems something that is very new and might be unique to the China context,” Ding says. “This would never exist in the US context, because the US is famous for saying that the platform is not responsible for content.”
But What About Freedom of Expression Online?
The draft regulation on AI content labeling is seeking public feedback until October 14, and it may take another several months for it to be modified and passed. But there’s little reason for Chinese companies to delay preparing for when it goes into effect.
Sima Huapeng, founder and CEO of the Chinese AIGC company Silicon Intelligence, which uses deepfake technologies to generate AI agents, influencers, and replicate living and dead people, says his product now allows users to voluntarily choose whether to mark the generated product as AI. But if the law passes, he might have to change it to mandatory.
“If a feature is optional, then most likely companies won’t add it to their products. But if it becomes compulsory by law, then everyone has to implement it,” Sima says. It’s not technically difficult to add watermarks or metadata labels, but it will increase the operating costs for compliant companies.
Policies like this can steer AI away from being used for scamming or privacy invasion, he says, but it could also trigger the growth of an AI service black market where companies try to dodge legal compliance and save on costs.
There’s also a fine line between holding AI content producers accountable and policing individual speech through more sophisticated tracing.
“The big underlying human rights challenge is to be sure that these approaches don’t further compromise privacy or free expression,” says Gregory. While the implicit labels and watermarks can be used to identify sources of misinformation and inappropriate content, the same tools can enable the platforms and government to have stronger control over what users post on the internet. In fact, concerns about how AI tools can go rogue has been one of the main drivers of China’s proactive AI legislation efforts.
At the same time, the Chinese AI industry is pushing back on the government to have more space to experiment and grow since they are already behind their Western peers. An earlier Chinese generative-AI law was watered down considerably between the first public draft and the final bill, removing requirements on identity verification and reducing penalties imposed on companies.
“What we’ve seen is the Chinese government really trying to walk this fine tightrope between ‘making sure we maintain content control’ but also ‘letting these AI labs in a strategic space have the freedom to innovate,’” says Ding. “This is another attempt to do that.”
[ad_2]