Tìm hiểu nguy cơ mà trí tuệ nhân tạo mang lại là gì?

#NgàyHômNay: Các chuyên gia cảnh báo về những mối nguy hiểm do Trí tuệ nhân tạo gây ra
Hơn 1.000 nhà lãnh đạo công nghệ, nhà nghiên cứu và các chuyên gia khác đã ký một bức thư ngỏ cảnh báo về các rủi ro sâu sắc của công nghệ Trí tuệ nhân tạo đối với xã hội và nhân loại. Các hệ thống AI mạnh sẽ chỉ được phát triển khi chúng được kiểm soát và tác động của chúng là tích cực. Các chuyên gia lo ngại rằng các hệ thống mới nhất, đáng chú ý nhất là GPT-4, có thể gây hại cho xã hội. Họ tin rằng các hệ thống trong tương lai sẽ còn nguy hiểm hơn.
Các rủi ro ngắn hạn của AI bao gồm việc thông tin sai lệch và lạm dụng thông tin giả mạo. Các rủi ro trung và dài hạn có thể bao gồm việc mất việc làm và sự mất kiểm soát của Trí tuệ nhân tạo. Tuy nhiên, các chuyên gia cũng cho rằng rủi ro này có thể bị thổi phồng quá mức. Hiện tại, các công ty đang nỗ lực giải quyết các vấn đề này để đảm bảo Trí tuệ nhân tạo có thể mang lại lợi ích cho con người.

Nguồn: https://www.nytimes.com/2023/05/01/technology/ai-problems-danger-chatgpt.html

Vào cuối tháng 3, hơn 1.000 nhà lãnh đạo công nghệ, nhà nghiên cứu và các chuyên gia khác làm việc trong và xung quanh trí tuệ nhân tạo đã ký một bức thư ngỏ cảnh báo rằng các công nghệ AI có “những rủi ro sâu sắc đối với xã hội và nhân loại”.

Nhóm, bao gồm Elon Musk, giám đốc điều hành của Tesla và chủ sở hữu của Twitter, đã kêu gọi các phòng thí nghiệm AI ngừng phát triển các hệ thống mạnh nhất của họ trong sáu tháng để họ có thể hiểu rõ hơn về những nguy hiểm đằng sau công nghệ.

“Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng tôi tin tưởng rằng tác động của chúng sẽ tích cực và rủi ro của chúng sẽ có thể kiểm soát được,” bức thư viết.

Bức thư, hiện có hơn 27.000 chữ ký, rất ngắn gọn. Ngôn ngữ của nó rất rộng. Và một số cái tên đằng sau bức thư dường như có mối quan hệ mâu thuẫn với AI. Ví dụ, ông Musk đang xây dựng công ty khởi nghiệp AI của riêng mình và ông là một trong những nhà tài trợ chính cho tổ chức đã viết bức thư.

Leave a Reply

Your email address will not be published. Required fields are marked *