#Microsoft #AI #quyđịnh #rủiro
Microsoft vừa đưa ra loạt các quy định cho trí tuệ nhân tạo vào ngày hôm nay, nhằm giảm thiểu rủi ro của công nghệ AI phát triển nhanh chóng. Các quy định bao gồm yêu cầu các hệ thống được sử dụng trong cơ sở hạ tầng quan trọng có thể được tắt hoàn toàn hoặc giảm tốc độ và đòi hỏi các nhãn làm rõ khi nội dung được tạo ra bởi máy tính. Brad Smith, chủ tịch Microsoft, cho biết các công ty cần phải tăng cường và chính phủ cần hành động nhanh hơn.
Những quy định này được đưa ra sau khi công ty ra mắt chatbot ChatGPT vào tháng 11, gây ra một làn sóng quan tâm về công nghệ AI. Tuy nhiên, các nhà lập pháp đã bày tỏ lo ngại rằng các sản phẩm AI tự tạo văn bản và hình ảnh có thể gây ra thông tin sai lệch và làm mọi người mất việc làm. Để đối phó với những lo ngại này, các nhà phát triển AI đang kêu gọi chính phủ chịu trách nhiệm kiểm soát công nghệ này. Microsoft cho biết những hệ thống có rủi ro cao chỉ được phép hoạt động trong các trung tâm dữ liệu AI được cấp phép và các công ty cung cấp hệ thống AI cần phải biết một số thông tin nhất định về khách hàng của họ để bảo vệ người tiêu dùng khỏi bị lừa dối.
Nguồn: https://www.nytimes.com/2023/05/25/technology/microsoft-ai-rules-regulation.html
Microsoft đã thông qua một loạt các quy định cho trí tuệ nhân tạo vào thứ Năm, khi công ty điều hướng mối quan tâm từ các chính phủ trên khắp thế giới về những rủi ro của công nghệ phát triển nhanh chóng.
Microsoft, đã hứa sẽ xây dựng trí tuệ nhân tạo thành nhiều các sản phẩm của mình, các quy định được đề xuất bao gồm yêu cầu rằng các hệ thống được sử dụng trong cơ sở hạ tầng quan trọng có thể được tắt hoàn toàn hoặc giảm tốc độ, tương tự như hệ thống phanh khẩn cấp trên tàu hỏa. Công ty cũng kêu gọi luật pháp làm rõ khi nào các nghĩa vụ pháp lý bổ sung áp dụng cho hệ thống AI và đối với các nhãn làm rõ khi một hình ảnh hoặc video được tạo ra bởi máy tính.
“Các công ty cần phải tăng cường,” Brad Smith, chủ tịch của Microsoft, cho biết trong một cuộc phỏng vấn về việc thúc đẩy các quy định. “Chính phủ cần hành động nhanh hơn.”
Lời kêu gọi về các quy định chấm dứt sự bùng nổ về AI, với phát hành chatbo ChatGPTvào tháng 11 tạo ra một làn sóng quan tâm. Kể từ đó, các công ty bao gồm Microsoft và công ty mẹ của Google, Alphabet, đã chạy đua để kết hợp công nghệ này vào các sản phẩm của họ. Điều đó đã làm dấy lên mối lo ngại rằng các công ty đang hy sinh sự an toàn để đạt được điều lớn lao tiếp theo trước các đối thủ cạnh tranh của họ.
Các nhà lập pháp đã công khai bày tỏ lo ngại rằng các sản phẩm AI như vậy, có thể tự tạo văn bản và hình ảnh, sẽ tạo ra một loạt thông tin sai lệch, bị bọn tội phạm sử dụng và khiến mọi người mất việc làm. Các cơ quan quản lý ở Washington đã cam kết cảnh giác với những kẻ lừa đảo sử dụng AI và các trường hợp trong đó hệ thống duy trì sự phân biệt đối xử hoặc đưa ra các quyết định vi phạm pháp luật.
Để đối phó với sự xem xét kỹ lưỡng đó, các nhà phát triển AI ngày càng kêu gọi chuyển một số gánh nặng kiểm soát công nghệ sang chính phủ. Sam Altmangiám đốc điều hành của OpenAI, công ty tạo ra ChatGPT và coi Microsoft là nhà đầu tư, đã nói với một tiểu ban của Thượng viện trong tháng này rằng chính phủ phải điều chỉnh công nghệ này.
Động thái này lặp lại lời kêu gọi về quyền riêng tư hoặc luật truyền thông xã hội mới của các công ty internet như Google và Meta, công ty mẹ của Facebook. Tại Hoa Kỳ, các nhà lập pháp đã hành động chậm chạp sau những lời kêu gọi như vậy, với một số quy định mới của liên bang về quyền riêng tư hoặc mạng xã hội trong những năm gần đây.
Trong cuộc phỏng vấn, ông Smith cho biết Microsoft không cố gắng rũ bỏ trách nhiệm quản lý công nghệ mới, bởi vì hãng đang đưa ra những ý tưởng cụ thể và cam kết thực hiện một số ý tưởng đó bất kể chính phủ có hành động hay không.
“Không có chuyện thoái thác trách nhiệm,” ông nói.
Ông tán thành ý tưởng, được hỗ trợ bởi ông Altman trong phiên điều trần trước quốc hội, rằng một cơ quan chính phủ nên yêu cầu các công ty xin giấy phép để triển khai các mô hình AI “có khả năng cao”.
“Điều đó có nghĩa là bạn thông báo cho chính phủ khi bạn bắt đầu thử nghiệm,” ông Smith nói. “Bạn phải chia sẻ kết quả với chính phủ. Ngay cả khi được cấp phép triển khai, anh vẫn có nhiệm vụ tiếp tục theo dõi và báo cáo chính quyền nếu có vấn đề phát sinh ngoài ý muốn.”
Microsoft, công ty đã kiếm được hơn 22 tỷ USD từ hoạt động kinh doanh điện toán đám mây trong quý đầu tiên, cũng cho biết những hệ thống có rủi ro cao đó chỉ được phép hoạt động trong “các trung tâm dữ liệu AI được cấp phép”. Ông Smith thừa nhận rằng công ty sẽ không ở “vị trí kém” để cung cấp các dịch vụ như vậy, nhưng cho biết nhiều đối thủ cạnh tranh của Mỹ cũng có thể cung cấp chúng.
Microsoft nói thêm rằng các chính phủ nên chỉ định một số hệ thống AI được sử dụng trong cơ sở hạ tầng quan trọng là “rủi ro cao” và yêu cầu chúng phải có “hệ thống phanh an toàn”. Nó so sánh tính năng đó với “các kỹ sư hệ thống phanh từ lâu đã tích hợp vào các công nghệ khác như thang máy, xe buýt trường học và tàu cao tốc”.
Microsoft cho biết, trong một số trường hợp nhạy cảm, các công ty cung cấp hệ thống AI cần phải biết một số thông tin nhất định về khách hàng của họ. Công ty cho biết để bảo vệ người tiêu dùng khỏi bị lừa dối, nội dung do AI tạo ra phải được gắn nhãn đặc biệt.
Ông Smith cho biết các công ty phải chịu “trách nhiệm” pháp lý đối với các tác hại liên quan đến AI. Trong một số trường hợp, ông nói, bên chịu trách nhiệm có thể là nhà phát triển ứng dụng như công cụ tìm kiếm Bing của Microsoft sử dụng công nghệ AI cơ bản của người khác. Ông nói thêm, các công ty đám mây có thể chịu trách nhiệm tuân thủ các quy định bảo mật và các quy tắc khác.
Ông Smith nói: “Chúng tôi không nhất thiết phải có thông tin tốt nhất hoặc câu trả lời hay nhất, hoặc chúng tôi có thể không phải là diễn giả đáng tin cậy nhất. “Nhưng, bạn biết đấy, ngay bây giờ, đặc biệt là ở Washington DC, mọi người đang tìm kiếm ý tưởng.”