Hợp pháp hóa trí thông minh nhân tạo: Mỹ Quy định xe hơi, Radio và TV. Khi nào mới quy định A.I.?

Mỹ Quy Định Ô Tô, Radio và TV. Khi nền trí tuệ nhân tạo (A.I) ngày càng phát triển với khả năng thay đổi cách xã hội hoạt động, nhiều chuyên gia, nhà lập pháp và ngay cả các lãnh đạo của các công ty A.I hàng đầu cũng muốn Chính phủ Mỹ quy định công nghệ này một cách nhanh chóng.

“Chúng ta nên chuyển động nhanh chóng” – Brad Smith, Tổng Giám đốc Microsoft, công ty đã ra mắt phiên bản dựa trên A.I cho công cụ tìm kiếm của mình trong năm nay, nói vào tháng 5. “Không có thời gian để lãng phí hoặc chậm trễ” – Chuck Schumer, lãnh đạo đa số Thượng viện, đã nói. “Hãy đi trước” – Thượng nghị sĩ Mike Rounds, người đảng Cộng hòa miền Nam Dakota.

Nhưng lịch sử cho thấy rằng việc quy định toàn diện về hệ thống A.I tiên tiến sẽ không xảy ra sớm. Quốc Hội và các cơ quan liên bang thường mất nhiều thập kỷ để ban hành quy định điều hướng công nghệ cách mạng, từ điện đến ô tô. “Mô hình chung là mất một thời gian dài” – Matthew Mittelsteadt, một chuyên gia công nghệ theo học A.I tại Trung tâm Mercatus của Đại học George Mason, nói.

Trong thế kỷ 19, Quốc hội mất hơn nửa thế kỷ sau khi giới thiệu tàu hơi công cộng đầu tiên để đưa ra quyền pháp quy định giá cho các dịch vụ đường sắt, ngành công nghiệp đầu tiên ở Hoa Kỳ chịu sự quy định liên bang. Trong thế kỷ 20, các cơ quan chính phủ mở rộng dần để quy định radio, truyền hình và các công nghệ khác. Và trong thế kỷ 21, các nhà lập pháp đã gặp khó khăn trong việc bảo vệ quyền riêng tư dữ liệu số.

Có thể rằng các nhà lập pháp sẽ không tuân thủ lịch sử. Thành viên Quốc hội đã nỗ lực trong những tháng gần đây để hiểu và tưởng tượng các cách quy định về A.I, tổ chức các cuộc điều trần và họp riêng với các nhà lãnh đạo và chuyên gia ngành. Tháng trước, Tổng thống Biden thông báo các biện pháp tự nguyện được đồng ý bởi bảy công ty A.I hàng đầu.

Nhưng A.I cũng gây ra những thách thức làm cho việc quy định nó trở nên khó khăn hơn – và chậm hơn – so với các công nghệ trước đây.

Đầu tiên, để quy định một công nghệ mới, Washington phải hiểu nó. “Chúng ta cần nắm bắt nhanh cách hoạt động” – Thượng nghị sĩ Martin Heinrich, Đảng Dân chủ New Mexico, thành viên của một nhóm làm việc đa phương tiện về A.I, nói trong một tuyên bố.

Thường thì điều này xảy ra nhanh hơn khi công nghệ mới giống với những công nghệ cũ hơn. Quốc hội đã thành lập Ủy ban Truyền thông Liên bang vào năm 1934, khi truyền hình vẫn còn là một ngành công nghiệp mới nổi, và Ủy ban đã quy định nó dựa trên các quy tắc trước đây về radio và điện thoại.

Tuy nhiên, A.I, theo quan điểm một số người ủng hộ quy định, kết hợp tiềm năng xâm phạm quyền riêng tư, sai thông tin, phân biệt đối xử trong việc tuyển dụng, gây rối trong lao động, vi phạm bản quyền, ảnh hưởng đến bầu cử và có thể bị chính phủ không thân thiện vũ trang. Điều này cộng với nỗi sợ của các chuyên gia A.I rằng máy trí tuệ siêu việt một ngày nào đó có thể kết thúc sự tồn tại của loài người.

Mặc dù nhiều người muốn hành động nhanh, nhưng việc quy định công nghệ đang phát triển nhanh như A.I là một việc khó khăn. “Tôi không biết chúng ta sẽ ở đâu trong hai năm nữa” – Dewey Murdick, người đứng đầu Trung tâm An ninh và Công nghệ mới của Đại học Georgetown, nói.

Việc quy định cũng đồng nghĩa với việc giảm thiểu các nguy cơ tiềm tàng trong khi tận dụng những lợi ích tiềm năng của A.I, từ việc soạn thảo email đến tiến bộ trong y học. Đây là một sự cân bằng khó khăn để đạt được với một công nghệ mới. “Thường thì những lợi ích chỉ là những điều không lường trước” – Susan Dudley, người điều hành Trung tâm Nghiên cứu Quy định của Đại học George Washington, nói. “Và tất nhiên, các nguy cơ cũng có thể không lường trước được.”

Quá quy định có thể đẩy lùi sự đổi mới, Giáo sư Dudley nói thêm, khiến ngành công nghiệp chuyển ra nước ngoài. Nó cũng có thể trở thành một cách cho các công ty lớn có tài nguyên để vận động Quốc hội dồn cạnh tranh của các đối thủ ít nổi bật.

Về mặt lịch sử, quy định thường diễn ra dần dần khi công nghệ tiến bộ hoặc một ngành công nghiệp phát triển, giống như ô tô và truyền hình. Đôi khi nó chỉ xảy ra sau một thảm họa. Khi Quốc hội thông qua luật 1906 dẫn đến việc thành lập Cục Quản lý Thực phẩm và Dược phẩm (F.D.A), không yêu cầu các nghiên cứu về an toàn trước khi các công ty tiếp thị dược phẩm mới. Năm 1937, một loại nước sulfanilamid, chưa được thử nghiệm và độc hại, dùng để điều trị nhiễm trùng vi khuẩn, đã giết chết hơn 100 người ở 15 tiểu bang. Quốc hội củng cố quyền hạn quy định của F.D.A trong năm tiếp theo.

“Nói chung, Quốc hội là một tổ chức phản ứng hơn” – Jonathan Lewallen, nhà khoa học chính trị Đại học Tampa, nói. Một số ví dụ không tuân theo thường liên quan đến các công nghệ chính phủ xây dựng hiệu quả như phát triển năng lượng hạt nhân, mà Quốc hội đã quy định vào năm 1946,

Nguồn: https://www.nytimes.com/2023/08/24/upshot/artificial-intelligence-regulation.html

As increasingly sophisticated artificial intelligence systems with the potential to reshape society come online, many experts, lawmakers and even executives of top A.I. companies want the U.S. government to regulate the technology, and fast.

“We should move quickly,” Brad Smith, the president of Microsoft, which launched an A.I.-powered version of its search engine this year, said in May. “There’s no time for waste or delay,” Chuck Schumer, the Senate majority leader, has said. “Let’s get ahead of this,” said Senator Mike Rounds, a South Dakota Republican.

Yet history suggests that comprehensive federal regulation of advanced A.I. systems probably won’t happen soon. Congress and federal agencies have often taken decades to enact rules governing revolutionary technologies, from electricity to cars. “The general pattern is it takes a while,” said Matthew Mittelsteadt, a technologist who studies A.I. at George Mason University’s Mercatus Center.

In the 1800s, it took Congress more than half a century after the introduction of the first public, steam-powered train to give the government the power to set price rules for railroads, the first U.S. industry subject to federal regulation. In the 20th century, the bureaucracy slowly expanded to regulate radio, television and other technologies. And in the 21st century, lawmakers have struggled to safeguard digital data privacy.

It’s possible that policymakers will defy history. Members of Congress have worked furiously in recent months to understand and imagine ways to regulate A.I., holding hearings and meeting privately with industry leaders and experts. Last month, President Biden announced voluntary safeguards agreed to by seven leading A.I. companies.

But A.I. also presents challenges that could make it even harder — and slower — to regulate than past technologies.

To regulate a new technology, Washington first has to try to understand it. “We need to get up to speed very quickly,” Senator Martin Heinrich, a New Mexico Democrat who is part of a bipartisan working group on A.I., said in a statement.

That typically happens faster when new technologies resemble older ones. Congress created the Federal Communications Commission in 1934, when television was still a nascent industry, and the F.C.C. regulated it based on earlier rules for radio and telephones.

But A.I., some advocates for regulation argue, combines the potential for privacy invasion, misinformation, hiring discrimination, labor disruptions, copyright infringement, electoral manipulation and weaponization by unfriendly governments in ways that have little precedent. That’s on top of some A.I. experts’ fears that a superintelligent machine might one day end humanity.

While many want fast action, it’s hard to regulate technology that’s evolving as quickly as A.I. “I have no idea where we’ll be in two years,” said Dewey Murdick, who leads Georgetown University’s center for security and emerging technology.

Regulation also means minimizing potential risks while harnessing potential benefits, which for A.I. can range from drafting emails to advancing medicine. That’s a tricky balance to strike with a new technology. “Often the benefits are just unanticipated,” said Susan Dudley, who directs George Washington University’s regulatory studies center. “And, of course, risks also can be unanticipated.”

Overregulation can quash innovation, Professor Dudley added, driving industries overseas. It can also become a means for larger companies with the resources to lobby Congress to squeeze out less established competitors.

Historically, regulation often happens gradually as a technology improves or an industry grows, as with cars and television. Sometimes it happens only after tragedy. When Congress passed, in 1906, the law that led to the creation of the Food and Drug Administration, it didn’t require safety studies before companies marketed new drugs. In 1937, an untested and poisonous liquid version of sulfanilamide, meant to treat bacterial infections, killed more than 100 people across 15 states. Congress strengthened the F.D.A.’s regulatory powers the following year.

“Generally speaking, Congress is a more reactive institution,” said Jonathan Lewallen, a University of Tampa political scientist. The counterexamples tend to involve technologies that the government effectively built itself, like nuclear power development, which Congress regulated in 1946, one year after the first atomic bombs were detonated.

“Before we seek to regulate, we have to understand why we are regulating,” said Representative Jay Obernolte, a California Republican who has a master’s degree in A.I. “Only when you understand that purpose can you craft a regulatory framework that achieves that purpose.”

Even so, lawmakers say they’re making strides. “I actually have been very impressed with my colleagues’ efforts to educate themselves,” Mr. Obernolte said. “Things are moving, by congressional standards, extremely quickly.”

Regulation advocates broadly agree. “Congress is taking the issue really seriously,” said Camille Carlton of the Center for Humane Technology, a nonprofit that regularly meets with lawmakers.

But in recent decades, Congress has changed in ways that could impede translating studiousness into legislation. For much of the 20th century, the leadership and staff of congressional committees dedicated to specific policy areas — from agriculture to veterans’ affairs — served as a kind of institutional brain trust, shepherding legislation and often becoming policy experts in their own right. That started to change in 1995, when Republicans led by Newt Gingrich took control of the House and slashed government budgets. Committee staffs stagnated and some of the committees’ power to shape policy devolved to party leaders.

“Congress doesn’t have the kind of analytic tools that it used to,” said Daniel Carpenter, a Harvard professor who studies regulation.

For now, A.I. policy remains notably bipartisan. “These regulatory issues we’re grappling with are not partisan issues, by and large,” said Mr. Obernolte, who helped draft a bipartisan bill that would give researchers tools to experiment with A.I. technologies.

But partisan infighting has already helped snarl regulation of social media, an effort that also began with bipartisan support. And even if lawmakers agreed on a comprehensive A.I. bill tomorrow, next year’s elections and competing legislative priorities — like funding the government and, perhaps, impeaching Mr. Biden — could consume their time and attention.

If federal regulation of A.I. did emerge, what might it look like?

Some experts say a range of federal agencies already have regulatory powers that cover aspects of A.I. The Federal Trade Commission could use its existing antitrust powers to prevent larger A.I. companies from dominating smaller ones. The F.D.A. has already authorized hundreds of A.I.-enabled medical devices. And piecemeal, A.I.-specific regulations could trickle out from such agencies within a year or two, experts said.

Still, drawing up rules agency by agency has downsides. Mr. Mittelsteadt called it “the too-many-cooks-in-the-kitchen problem, where every regulator is trying to regulate the same thing.” Similarly, state and local governments sometimes regulate technologies before the federal government, such as with cars and digital privacy. The result can be contradictions for companies and headaches for courts.

But some aspects of A.I. may not fall under any existing federal agency’s jurisdiction — so some advocates want Congress to create a new one. One possibility is an F.D.A.-like agency: Outside experts would test A.I. models under development, and companies would need federal approval before releasing them. Call it a “Department of Information,” Mr. Murdick said.

But creating a new agency would take time — perhaps a decade or more, experts guessed. And there’s no guarantee it would work. Miserly funding could render it toothless. A.I. companies could claim its powers were unconstitutionally overbroad, or consumer advocates could deem them insufficient. The result could be a prolonged court fight or even a push to deregulate the industry.

Rather than a one-agency-fits-all approach, Mr. Obernolte envisions rules that accrete as Congress enacts successive laws in coming years. “It would be naïve to believe that Congress is going to be able to pass one bill — the A.I. Act, or whatever you want to call it — and have the problem be completely solved,” he said.

Mr. Heinrich said in his statement, “This will need to be a continuous process as these technologies evolve.” Last month, the House and Senate separately passed several provisions about how the Defense Department should approach A.I. technology. But it is not yet clear which provisions will become law, and none would regulate the industry itself.

Some experts aren’t opposed to regulating A.I. one bill at a time. But they’re anxious about any delays in passing them. “There is, I think, a greater hurdle the longer that we wait,” Ms. Carlton said. “We’re concerned that the momentum might fizzle.”


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *