Các cơ quan chống độc quyền của Mỹ và Châu Âu đồng ý thực hiện công việc của họ đối với trí tuệ nhân tạo

Các cơ quan quản lý cạnh tranh tại Mỹ và Châu Âu đã đạt được “nguyên tắc chung” mà họ dự định tuân thủ để “bảo vệ sự cạnh tranh và quyền lợi của người tiêu dùng” khi nói đến trí tuệ nhân tạo. “Dẫn dắt bởi luật pháp của chúng tôi, chúng tôi sẽ làm việc để đảm bảo sự cạnh tranh hiệu quả và một cách công bằng và trung thực đối với người tiêu dùng và doanh nghiệp,” Điều Trưởng, Ủy Ban Thương Mại Liên Bang, Ủy Ban Thương Mại Liên Bang Châu Âu và Cơ quan Cạnh tranh và Thị trường của Vương quốc Anh đã nói.

“Các điểm cúng công nghệ có thể giới thiệu phương tiện cạnh tranh mới, kích thích cơ hội, sáng tạo và tăng trưởng,” các cơ quan đã nói trong một tuyên bố chung. “Do đó, chúng ta phải làm việc để đảm bảo công chúng hưởng đủ các lợi ích từ những khoảnh khắc này.”

Các cơ quan này đã xác định bảo vệ cạnh tranh trong lĩnh vực trí tuệ nhân tạo: điều khoản công bằng (tức là đảm bảo các định chế lớn trong ngành tránh xa lánh các chiến lược loại trừ), tương thích và sự lựa chọn là ba nguyên tắc. Họ dựa trên kinh nghiệm của mình làm việc trong các thị trường liên quan.

Các cơ quan cũng đã đề ra một số rủi ro tiềm ẩn đối với cạnh tranh, chẳng hạn như các thỏa thuận giữa các đại gia trong thị trường. Họ nói rằng trong khi các thỏa thuận giữa các công ty trong ngành (mà đã trở nên phổ biến) có thể không ảnh hưởng đến cạnh tranh trong một số trường hợp, ở những trường hợp khác “những đối tác và đầu tư này có thể được sử dụng bởi các công ty lớn để đào thải hoặc kiểm soát các mối đe dọa cạnh tranh và điều hướng kết quả thị trường theo ý họ tại sự thiệt hại của công chúng.”

Những rủi ro khác đối với cạnh tranh được nêu trong tuyên bố bao gồm sự củng cố hoặc mở rộng quyền lực thị trường trong các thị trường liên quan đến trí tuệ nhân tạo cũng như “kiểm soát tập trung các nguồn đầu vào quan trọng.” Các cơ quan xác định cái cuối cùng là một số công ty có thể có ảnh hưởng quá lớn tới lĩnh vực trí tuệ nhân tạo do quyền kiểm soát và cung cấp của họ về “vi mạch chuyên biệt, tính toán lớn, dữ liệu ở quy mô và chuyên môn về kiến thức kỹ thuật.”

Ngoài ra, CMA, DOJ và FTC nói họ sẽ tìm kiếm các rủi ro mà trí tuệ nhân tạo có thể gây ra cho người tiêu dùng. Tuyên bố lưu ý rằng quan trọng là người tiêu dùng được giữ trong vòng biết về cách mà trí tuệ nhân tạo có liên quan đến các sản phẩm và dịch vụ họ mua hoặc sử dụng. “Các công ty mà dùng dữ liệu người tiêu dùng một cách gian lận hoặc không công bằng để huấn luyện mô hình của mình có thể suy giảm tư riêng, bảo mật và tự quyền của mọi người,” tuyên bố đọc. “Các công ty dùng dữ liệu khách hàng doanh nghiệp để huấn luyện mô hình của họ cũng có thể tiết lộ thông tin nhạy cảm về cạnh tranh.”

Đây là những tuyên bố khá chung rộng cho các cơ quan áp dụng cùng cách tiếp cận để phát triển cạnh tranh trong lĩnh vực trí tuệ nhân tạo, nhưng do họ hoạt động dưới những luật pháp khác nhau, sẽ khó để tuyên bố đi vào chi tiết về cách họ sẽ quy định. Ít nhất, tuyên bố nên phục vụ như một lời nhắc nhở cho các công ty làm việc trong lĩnh vực trí tuệ nhân tạo rằng các cơ quan quản lý đang giữ một cái nhìn cận cận, ngay cả giữa các tiến triển nhanh chóng trong ngành. #AIcompetition #CMA #DOJ #FTC #EuropeanCommission

Nguồn: https://www.engadget.com/us-and-european-antitrust-regulators-agree-to-do-their-jobs-when-it-comes-to-ai-163820780.html?src=rss

Regulators in the US and Europe have the “shared principles” they plan to adhere to in order to “protect competition and consumers” when it comes to artificial intelligence. “Guided by our respective laws, we will work to ensure effective competition and the fair and honest treatment of consumers and businesses,” the , , and the UK’s said.

“Technological inflection points can introduce new means of competing, catalyzing opportunity, innovation and growth,” the agencies said in . “Accordingly, we must work to ensure the public reaps the full benefits of these moments.”

The regulators pinpointed fair dealing (i.e. making sure major players in the sector avoid exclusionary tactics), interoperability and choice as the three principles for protecting competition in the AI space. They based these factors on their experience working in related markets.

The agencies also laid out some potential risks to competition, such as deals between major players in the market. They said that while arrangements between companies in the sector (which are ) may not impact competition in some cases, in others “these partnerships and investments could be used by major firms to undermine or co opt competitive threats and steer market outcomes in their favor at the expense of the public.”

Other risks to competition flagged in the statement include the entrenching or extension of market power in AI-related markets as well as the “concentrated control of key inputs.” The agencies define the latter as a small number of companies potentially having an outsized influence over the AI space due to the control and supply of “specialized chips, substantial compute, data at scale and specialist technical expertise.”

In addition, the CMA, DOJ and FTC say they’ll be on the lookout for threats that AI might pose to consumers. The statement notes that it’s important for consumers to be kept in the loop about how AI factors into the products and services they buy or use. “Firms that deceptively or unfairly use consumer data to train their models can undermine people’s privacy, security, and autonomy,” the statement reads. “Firms that use business customers’ data to train their models could also expose competitively sensitive information.”

These are all fairly generalized statements about the agencies’ common approach to fostering competition in the AI space, but given that they all operate under different laws, it would be difficult for the statement to go into the specifics of how they’ll regulate. At the very least, the statement should serve as a reminder to companies working in the generative AI space that regulators are keeping a close eye on things, even amid rapidly accelerating advancements in the sector.


Leave a Reply

Your email address will not be published. Required fields are marked *