#NgàyHômNay: Các chuyên gia cảnh báo về những mối nguy hiểm do Trí tuệ nhân tạo gây ra
Hơn 1.000 nhà lãnh đạo công nghệ, nhà nghiên cứu và các chuyên gia khác đã ký một bức thư ngỏ cảnh báo về các rủi ro sâu sắc của công nghệ Trí tuệ nhân tạo đối với xã hội và nhân loại. Các hệ thống AI mạnh sẽ chỉ được phát triển khi chúng được kiểm soát và tác động của chúng là tích cực. Các chuyên gia lo ngại rằng các hệ thống mới nhất, đáng chú ý nhất là GPT-4, có thể gây hại cho xã hội. Họ tin rằng các hệ thống trong tương lai sẽ còn nguy hiểm hơn.
Các rủi ro ngắn hạn của AI bao gồm việc thông tin sai lệch và lạm dụng thông tin giả mạo. Các rủi ro trung và dài hạn có thể bao gồm việc mất việc làm và sự mất kiểm soát của Trí tuệ nhân tạo. Tuy nhiên, các chuyên gia cũng cho rằng rủi ro này có thể bị thổi phồng quá mức. Hiện tại, các công ty đang nỗ lực giải quyết các vấn đề này để đảm bảo Trí tuệ nhân tạo có thể mang lại lợi ích cho con người.
Nguồn: https://www.nytimes.com/2023/05/01/technology/ai-problems-danger-chatgpt.html
Vào cuối tháng 3, hơn 1.000 nhà lãnh đạo công nghệ, nhà nghiên cứu và các chuyên gia khác làm việc trong và xung quanh trí tuệ nhân tạo đã ký một bức thư ngỏ cảnh báo rằng các công nghệ AI có “những rủi ro sâu sắc đối với xã hội và nhân loại”.
Nhóm, bao gồm Elon Musk, giám đốc điều hành của Tesla và chủ sở hữu của Twitter, đã kêu gọi các phòng thí nghiệm AI ngừng phát triển các hệ thống mạnh nhất của họ trong sáu tháng để họ có thể hiểu rõ hơn về những nguy hiểm đằng sau công nghệ.
“Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được,” bức thư viết.
Bức thư, hiện có hơn 27.000 chữ ký, rất ngắn gọn. Ngôn ngữ của nó rất rộng. Và một số cái tên đằng sau bức thư dường như có mối quan hệ mâu thuẫn với AI. Ví dụ, ông Musk đang xây dựng công ty khởi nghiệp AI của riêng mình và ông là một trong những nhà tài trợ chính cho tổ chức đã viết bức thư.
Nhưng bức thư thể hiện mối quan tâm ngày càng tăng của các chuyên gia AI rằng các hệ thống mới nhất, đáng chú ý nhất là GPT-4, công nghệ được giới thiệu bởi công ty khởi nghiệp OpenAI ở San Francisco, có thể gây hại cho xã hội. Họ tin rằng các hệ thống trong tương lai sẽ còn nguy hiểm hơn.
Một số rủi ro đã đến. Những người khác sẽ không trong nhiều tháng hoặc nhiều năm. Vẫn còn những người khác hoàn toàn là giả thuyết.
Yoshua Bengio, giáo sư và nhà nghiên cứu AI tại Đại học Montreal cho biết: “Khả năng hiểu những gì có thể xảy ra với các hệ thống AI rất mạnh của chúng tôi là rất yếu. “Vì vậy, chúng ta cần phải rất cẩn thận.”
Tại sao họ lo lắng?
Tiến sĩ Bengio có lẽ là người quan trọng nhất đã ký bức thư.
Làm việc với hai học giả khác — Geoffrey Hinton, cho đến gần đây là nhà nghiên cứu tại Google và Yann LeCun, hiện là nhà khoa học AI hàng đầu tại Meta, chủ sở hữu của Facebook — Tiến sĩ Bengio đã dành bốn thập kỷ qua để phát triển công nghệ điều khiển các hệ thống như GPT-4 . Năm 2018, các nhà nghiên cứu đã nhận được giải thưởng Turingthường được gọi là “Giải thưởng Nobel về máy tính,” cho công việc của họ trên mạng lưới thần kinh.
Mạng thần kinh là một hệ thống toán học học các kỹ năng bằng cách phân tích dữ liệu. Khoảng 5 năm trước, các công ty như Google, Microsoft và OpenAI đã bắt đầu xây dựng các mạng thần kinh học được từ một lượng lớn văn bản kỹ thuật số được gọi là mô hình ngôn ngữ lớn hoặc LLM.
Bằng cách xác định các mẫu trong văn bản đó, LLM học cách tự tạo văn bản, bao gồm các bài đăng trên blog, bài thơ và chương trình máy tính. Họ thậm chí có thể tiếp tục một cuộc trò chuyện.
Công nghệ này có thể giúp lập trình viên máy tính, các nhà văn và những người lao động khác nảy sinh ý tưởng và thực hiện mọi việc nhanh hơn. Nhưng Tiến sĩ Bengio và các chuyên gia khác cũng cảnh báo rằng LLM có thể học được những hành vi không mong muốn và bất ngờ.
Các hệ thống này có thể tạo ra không trung thực, thành kiến Và mặt khác thông tin độc hại. Các hệ thống như GPT-4 hiểu sai sự thật và bịa đặt thông tin, một hiện tượng gọi là “ảo giác”.
Các công ty đang giải quyết những vấn đề này. Nhưng các chuyên gia như Tiến sĩ Bengio lo lắng rằng khi các nhà nghiên cứu làm cho các hệ thống này mạnh hơn, chúng sẽ tạo ra những rủi ro mới.
Rủi ro ngắn hạn: Thông tin sai lệch
Bởi vì các hệ thống này cung cấp thông tin có vẻ như hoàn toàn tin cậy, có thể là một cuộc đấu tranh để phân biệt sự thật khỏi hư cấu khi sử dụng chúng. Các chuyên gia lo ngại rằng mọi người sẽ dựa vào các hệ thống này để được tư vấn y tế, hỗ trợ tinh thần và thông tin thô mà họ sử dụng để đưa ra quyết định.
Subbarao Kambhampati, giáo sư khoa học máy tính tại Đại học bang Arizona, cho biết: “Không có gì đảm bảo rằng các hệ thống này sẽ chính xác trong bất kỳ nhiệm vụ nào bạn giao cho chúng.
Các chuyên gia cũng lo lắng rằng mọi người sẽ lạm dụng các hệ thống này để truyền bá thông tin sai lệch. Bởi vì họ có thể trò chuyện theo cách của con người, nên họ có sức thuyết phục đáng ngạc nhiên.
Tiến sĩ Bengio cho biết: “Hiện tại chúng tôi có các hệ thống có thể tương tác với chúng tôi thông qua ngôn ngữ tự nhiên và chúng tôi không thể phân biệt được thật giả.
Rủi ro trung hạn: Mất việc làm
Các chuyên gia lo lắng rằng AI mới có thể giết chết công việc. Ngay bây giờ, các công nghệ như GPT-4 có xu hướng bổ sung cho nhân công của con người. Nhưng OpenAI thừa nhận rằng họ có thể thay thế một số công nhân, bao gồm cả những người kiểm duyệt nội dung trên internet.
Họ chưa thể sao chép công việc của luật sư, kế toán hoặc bác sĩ. Nhưng họ có thể thay thế trợ lý luật sư, trợ lý cá nhân và dịch giả.
Một bài báo được viết bởi các nhà nghiên cứu OpenAI ước tính rằng 80 phần trăm lực lượng lao động Hoa Kỳ có thể có ít nhất 10 phần trăm nhiệm vụ công việc của họ bị ảnh hưởng bởi LLM và 19 phần trăm người lao động có thể thấy ít nhất 50 phần trăm nhiệm vụ của họ bị ảnh hưởng.
Oren Etzioni, giám đốc điều hành sáng lập của Allen Institute for AI, một phòng thí nghiệm nghiên cứu ở Seattle, cho biết: “Có dấu hiệu cho thấy các công việc học vẹt sẽ biến mất.
Rủi ro dài hạn: Mất kiểm soát
Một số người đã ký bức thư cũng tin rằng trí tuệ nhân tạo có thể vượt khỏi tầm kiểm soát của chúng ta hoặc hủy diệt loài người. Nhưng nhiều chuyên gia cho rằng điều đó đã bị thổi phồng quá mức.
Bức thư được viết bởi một nhóm từ Viện Tương lai của Cuộc sống, một tổ chức chuyên khám phá những rủi ro hiện hữu đối với nhân loại. Họ cảnh báo rằng vì hệ thống AI thường học hành vi bất ngờ từ lượng dữ liệu khổng lồ mà họ phân tíchchúng có thể gây ra những vấn đề nghiêm trọng, bất ngờ.
Họ lo lắng rằng khi các công ty cắm LLM vào các dịch vụ internet khác, các hệ thống này có thể có được sức mạnh không lường trước được vì chúng có thể viết mã máy tính của riêng mình. Họ nói rằng các nhà phát triển sẽ tạo ra rủi ro mới nếu họ cho phép các hệ thống AI mạnh mẽ chạy mã của riêng họ.
Anthony Aguirre, nhà vật lý học và vũ trụ học lý thuyết tại Đại học California, Santa Cruz và là người đồng sáng lập Future of Viện cuộc sống.
“Nếu bạn chọn một kịch bản ít có khả năng xảy ra hơn – nơi mọi thứ thực sự cất cánh, nơi không có sự quản lý thực sự, nơi các hệ thống này trở nên mạnh mẽ hơn chúng ta nghĩ – thì mọi thứ sẽ trở nên thực sự, thực sự điên rồ,” ông nói.
Tiến sĩ Etzioni cho biết nói về rủi ro hiện sinh chỉ là giả thuyết. Nhưng ông cho biết những rủi ro khác – đáng chú ý nhất là thông tin sai lệch – không còn là suy đoán nữa.
“Bây giờ chúng tôi có một số vấn đề thực sự,” anh ấy nói. “Họ trung thực. Họ yêu cầu một số phản ứng có trách nhiệm. Họ có thể yêu cầu quy định và pháp luật.”