#SựKiệnNgàyHômNay: Quy định AI sẽ như thế nào trong tương lai?
Việc thành lập một cơ quan mới để điều chỉnh AI có thể gặp nhiều vấn đề phức tạp, bởi vì ngành công nghệ có sức ảnh hưởng quá lớn. Thay vào đó, Quốc hội có thể quy định trách nhiệm giải trình và kiểm soát công nghệ AI bằng cách cấp phép cho kiểm toán viên và thúc đẩy các công ty thành lập hội đồng đánh giá thể chế.
Việc áp dụng công khai và tư nhân đối với Khung quản lý rủi ro NIST và thông qua các hóa đơn như Đạo luật trách nhiệm giải trình thuật toán sẽ có tác dụng của áp đặt trách nhiệm giải trình như Đạo luật Sarbanes-Oxley và các quy định khác đã làm thay đổi yêu cầu báo cáo đối với các công ty.
Tuy nhiên, vấn đề quy định AI sẽ hữu ích nhưng phải ra sao? Cấp phép cho ai và làm thế nào để đối phó với việc xây dựng các mô hình AI quy mô lớn, có thể gây ra sự xuất hiện của một loại hình độc quyền công nghệ mới?
Để giải quyết các vấn đề này, Quốc hội có thể hỗ trợ việc áp dụng luật toàn diện xung quanh quyền riêng tư dữ liệu. Việc quản lý AI nên liên quan đến sự hợp tác giữa các học viện, ngành công nghiệp, chuyên gia chính sách và các cơ quan quốc tế.
Với các tiêu chuẩn về trách nhiệm giải trình và minh bạch dữ liệu, các hệ thống AI sẽ trở nên rõ ràng hơn. Tuy nhiên, cần nhìn nhận rằng trách nhiệm giải trình và minh bạch dữ liệu lớn hơn có thể áp đặt các hạn chế mới đối với các tổ chức.
Vì thế, Quốc hội cần tăng cường các đạo luật hiện có về an toàn, quyền riêng tư và bảo vệ người tiêu dùng đồng thời đưa ra các tiêu chuẩn về trách nhiệm giải trình theo thuật toán để đảm bảo sự công bằng trong AI.
Nguồn: https://gizmodo.com/chatgpt-ai-what-would-ai-regulation-look-like-altman-1850501332
Tạo Video Qua Văn bản? | công nghệ tương lai
Bài học rút ra:
- Một cơ quan liên bang mới để điều chỉnh AI nghe có vẻ hữu ích nhưng có thể bị ảnh hưởng quá mức bởi ngành công nghệ. Thay vào đó, Quốc hội có thể quy định trách nhiệm giải trình.
- Thay vì cấp phép cho các công ty phát hành công nghệ AI tiên tiến, chính phủ có thể cấp phép cho kiểm toán viên và thúc đẩy các công ty thành lập hội đồng đánh giá thể chế.
- Chính phủ đã không đạt được thành công lớn trong việc hạn chế độc quyền công nghệ, nhưng các yêu cầu tiết lộ thông tin và luật bảo mật dữ liệu có thể giúp kiểm tra quyền lực của công ty.
Giám đốc điều hành OpenAI Sam Altman kêu gọi các nhà lập pháp xem xét điều chỉnh AI trong quá trình lời khai Thượng viện của ông vào ngày 16 tháng 5 năm 2023. Khuyến nghị đó đặt ra câu hỏi về điều gì sẽ xảy ra tiếp theo đối với Quốc hội. Các giải pháp mà Altman đề xuất – tạo ra một cơ quan quản lý AI và yêu cầu cấp phép cho các công ty – rất thú vị. Nhưng điều mà các chuyên gia khác trong cùng hội đồng đề xuất ít nhất cũng quan trọng không kém: yêu cầu minh bạch về dữ liệu đào tạo Và thiết lập khuôn khổ rõ ràng cho các rủi ro liên quan đến AI.
Một điểm khác chưa được trả lời là, do tính kinh tế của việc xây dựng các mô hình AI quy mô lớn, ngành công nghiệp có thể đang chứng kiến sự xuất hiện của một loại hình độc quyền công nghệ mới.
Là một nhà nghiên cứu người nghiên cứu phương tiện truyền thông xã hội và trí tuệ nhân tạo, Tôi tin rằng các đề xuất của Altman đã làm nổi bật các vấn đề quan trọng nhưng bản thân chúng không cung cấp câu trả lời. Quy định sẽ hữu ích, nhưng dưới hình thức nào? Cấp phép cũng có lý, nhưng cấp cho ai? Và bất kỳ nỗ lực nào để điều chỉnh ngành công nghiệp AI sẽ cần tính đến sức mạnh kinh tế và ảnh hưởng chính trị của các công ty.
Một cơ quan để điều chỉnh AI?
Các nhà lập pháp và hoạch định chính sách trên khắp thế giới đã bắt đầu giải quyết một số vấn đề được nêu ra trong lời khai của Altman. Các Đạo luật AI của Liên minh Châu Âu dựa trên mô hình rủi ro gán các ứng dụng AI vào ba loại rủi ro: rủi ro không thể chấp nhận được, rủi ro cao và rủi ro thấp hoặc tối thiểu. Việc phân loại này thừa nhận rằng các công cụ dành cho chấm điểm xã hội của chính phủ Và công cụ tuyển dụng tự động chẳng hạn như đặt ra những rủi ro khác với những rủi ro từ việc sử dụng AI trong các bộ lọc thư rác.
Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ cũng có một Khung quản lý rủi ro AI đã được tạo ra với đầu vào rộng rãi từ nhiều bên liên quanbao gồm Phòng Thương mại Hoa Kỳ và Liên đoàn các nhà khoa học Hoa Kỳ, cũng như các hiệp hội kinh doanh và nghề nghiệp khác, các công ty công nghệ và các tổ chức tư vấn.
Các cơ quan liên bang như Ủy ban Cơ hội Việc làm Bình đẳng và Ủy ban Thương mại Liên bang đã ban hành hướng dẫn về một số rủi ro vốn có trong AI. Ủy ban An toàn Sản phẩm Tiêu dùng và các cơ quan khác cũng có vai trò nhất định.
Thay vì tạo ra một cơ quan mới điều hành nguy cơ bị xâm phạm bởi ngành công nghệ, nó có nghĩa là để điều chỉnh, Quốc hội có thể hỗ trợ việc áp dụng công khai và tư nhân đối với Khung quản lý rủi ro NIST và thông qua các hóa đơn như Đạo luật trách nhiệm giải trình thuật toán. Điều đó sẽ có tác dụng của áp đặt trách nhiệm giải trìnhnhiều như Đạo luật Sarbanes-Oxley và các quy định khác đã làm thay đổi yêu cầu báo cáo đối với các công ty. Quốc hội cũng có thể áp dụng luật toàn diện xung quanh quyền riêng tư dữ liệu.
Việc quản lý AI nên liên quan đến sự hợp tác giữa các học viện, ngành công nghiệp, chuyên gia chính sách và các cơ quan quốc tế. Các chuyên gia đã so sánh phương pháp này với tổ chức quốc tế chẳng hạn như Tổ chức Nghiên cứu Hạt nhân Châu Âu, được gọi là CERN, và Ban liên chính phủ về biến đổi khí hậu. Internet đã được được quản lý bởi các cơ quan phi chính phủ liên quan đến các tổ chức phi lợi nhuận, xã hội dân sự, ngành công nghiệp và các nhà hoạch định chính sách, chẳng hạn như Tổng công ty Internet cho các số và tên được chỉ định và Hội đồng tiêu chuẩn hóa viễn thông thế giới. Những ví dụ đó cung cấp các mô hình cho ngành công nghiệp và các nhà hoạch định chính sách ngày nay.
Nhà khoa học nhận thức và nhà phát triển AI Gary Marcus giải thích sự cần thiết phải điều chỉnh AI.
Cấp phép kiểm toán viên, không phải công ty
Mặc dù Altman của OpenAI gợi ý rằng các công ty có thể được cấp phép phát hành các công nghệ trí tuệ nhân tạo ra công chúng, nhưng anh ấy đã làm rõ rằng anh ấy là đề cập đến trí tuệ nhân tạo nói chung, có nghĩa là các hệ thống AI tiềm năng trong tương lai với trí thông minh giống con người có thể gây ra mối đe dọa cho nhân loại. Điều đó cũng giống như việc các công ty được cấp phép xử lý các công nghệ nguy hiểm tiềm ẩn khác, như năng lượng hạt nhân. Nhưng việc cấp phép có thể đóng một vai trò tốt trước khi một viễn cảnh tương lai như vậy xảy ra.
kiểm toán thuật toán sẽ yêu cầu chứng chỉ, tiêu chuẩn thực hành và đào tạo rộng rãi. Yêu cầu trách nhiệm giải trình không chỉ là vấn đề cấp phép cho các cá nhân mà còn yêu cầu các tiêu chuẩn và thông lệ trên toàn công ty.
Các chuyên gia về sự công bằng trong AI cho rằng các vấn đề về sai lệch và công bằng trong AI không thể chỉ giải quyết bằng các phương pháp kỹ thuật mà cần có các biện pháp giảm thiểu rủi ro toàn diện hơn, chẳng hạn như thông qua hội đồng đánh giá thể chế cho AI. Ví dụ, hội đồng đánh giá thể chế trong lĩnh vực y tế giúp duy trì các quyền cá nhân.
Các cơ quan học thuật và xã hội nghề nghiệp cũng đã áp dụng các tiêu chuẩn về việc sử dụng AI có trách nhiệm, cho dù đó là tiêu chuẩn quyền tác giả cho văn bản do AI tạo ra hoặc tiêu chuẩn chia sẻ dữ liệu qua trung gian bệnh nhân trong y học.
Tăng cường các đạo luật hiện có về an toàn, quyền riêng tư và bảo vệ người tiêu dùng đồng thời đưa ra các tiêu chuẩn về trách nhiệm giải trình theo thuật toán sẽ giúp làm sáng tỏ các hệ thống AI phức tạp. Điều quan trọng là phải nhận ra rằng trách nhiệm giải trình và minh bạch dữ liệu lớn hơn có thể áp đặt các hạn chế mới đối với các tổ chức.
Các học giả về quyền riêng tư dữ liệu và đạo đức AI đã kêu gọi “đúng quy trình công nghệ” và các khuôn khổ để nhận ra tác hại của các quá trình dự đoán. Việc sử dụng rộng rãi việc ra quyết định dựa trên AI trong các lĩnh vực như việc làm, bảo hiểm và chăm sóc sức khỏe đòi hỏi yêu cầu cấp phép và kiểm toán để đảm bảo sự công bằng về thủ tục và các biện pháp bảo vệ quyền riêng tư.
Tuy nhiên, việc yêu cầu các điều khoản về trách nhiệm giải trình như vậy đòi hỏi một cuộc tranh luận mạnh mẽ giữa các nhà phát triển AI, các nhà hoạch định chính sách và những người bị ảnh hưởng bởi việc triển khai rộng rãi AI. bên trong không có thực hành trách nhiệm giải trình thuật toán mạnh mẽnguy hiểm là kiểm toán hẹp thúc đẩy sự xuất hiện tuân thủ.
AI độc quyền?
Điều còn thiếu trong lời khai của Altman là mức độ đầu tư cần thiết để đào tạo các mô hình AI quy mô lớn, cho dù đó là GPT-4đó là một trong những nền tảng của Trò chuyệnGPThoặc trình tạo văn bản thành hình ảnh khuếch tán ổn định. Chỉ một số ít công ty, chẳng hạn như Google, Meta, Amazon và Microsoft, chịu trách nhiệm về phát triển các mô hình ngôn ngữ lớn nhất thế giới.
Do sự thiếu minh bạch trong dữ liệu đào tạo được sử dụng bởi các công ty này, các chuyên gia đạo đức AI Timnit Gebru, Emily Bender và những người khác đã cảnh báo rằng việc áp dụng quy mô lớn các công nghệ như vậy mà không có rủi ro giám sát tương ứng khuếch đại sự thiên vị máy móc ở quy mô xã hội.
Cũng cần thừa nhận rằng dữ liệu đào tạo cho các công cụ như ChatGPT bao gồm lao động trí óc của nhiều người như cộng tác viên Wikipedia, người viết blog và tác giả của sách số hóa. Tuy nhiên, lợi ích kinh tế từ những công cụ này chỉ dồn lại cho các tập đoàn công nghệ.
Chứng minh sức mạnh độc quyền của các công ty công nghệ có thể khó khăn, như trường hợp chống độc quyền của Bộ Tư pháp chống lại Microsoft chứng minh. Tôi tin rằng các lựa chọn quy định khả thi nhất để Quốc hội giải quyết các tác hại thuật toán tiềm ẩn từ AI có thể là tăng cường các yêu cầu tiết lộ đối với các công ty AI cũng như người dùng AI, thúc giục áp dụng toàn diện các khung đánh giá rủi ro AI và yêu cầu các quy trình bảo vệ dữ liệu cá nhân quyền và sự riêng tư.
Bạn muốn biết thêm về AI, chatbot và tương lai của máy học? Kiểm tra bảo hiểm đầy đủ của chúng tôi về trí tuệ nhân tạohoặc duyệt hướng dẫn của chúng tôi để Trình tạo nghệ thuật AI miễn phí tốt nhất Và Mọi thứ chúng tôi biết về ChatGPT của OpenAI.
anjana susarlaGiáo sư Hệ thống thông tin, Đại học bang Michigan
Bài viết này được đăng lại từ Cuộc trò chuyện theo giấy phép Creative Commons. Đọc bài báo gốc.
[ad_2]