“Người đứng đầu lĩnh vực AI cảnh báo về nguy cơ tuyệt chủng đe dọa loài người”

#Sựkiệnngàyhômnaixc: Các nhà nghiên cứu và CEO hàng đầu về AI cảnh báo về ‘nguy cơ tuyệt chủng’ do công nghệ AI gây ra

Một tổ chức phi lợi nhuận có trụ sở tại San Francisco, Trung tâm An toàn AI đã đưa ra cảnh báo mới nhất về mối đe dọa mà AI gây ra cho nhân loại. Các nhà nghiên cứu, kỹ sư, và CEO hàng đầu về AI đã đồng ký tuyên bố ngắn gọn 22 từ để giảm thiểu nguy cơ tuyệt chủng do công nghệ AI có thể gây ra. Tuyên bố này đã được đồng ký bởi một số nhân vật nổi tiếng như Giám đốc điều hành Google DeepMind Demis Hassabis và Giám đốc điều hành OpenAI Sam Altman cùng với hai trong số ba nhà nghiên cứu AI đã giành được giải thưởng Turing 2018 là Geoffrey Hinton và Youshua Bengio.

Tuyên bố này là một sự can thiệp cấp cao mới nhất trong cuộc tranh luận phức tạp và gây tranh cãi về sự an toàn của AI. Mặc dù có những ý kiến khác nhau về những đề xuất cụ thể để giảm thiểu mối đe dọa do AI gây ra, nhưng tất cả đều đồng ý về việc AI đang gây ra một số mối đe dọa từ việc giám sát hàng loạt đến việc nới lỏng thông tin sai lệch và thông tin sai lệch.

Trong bối cảnh này, cả những người ủng hộ rủi ro AI và những người hoài nghi đều đồng ý rằng, ngay cả khi không có sự cải thiện về khả năng của chúng, công nghệ AI hiện nay vẫn là một mối đe dọa đối với nhân loại. Việc giảm thiểu nguy cơ tuyệt chủng do công nghệ AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.

Tuy nhiên, sự can thiệp của Trung tâm An toàn AI vẫn chưa đưa ra bất kỳ cách tiềm năng nào để giảm thiểu mối đe dọa do AI gây ra. Thay vì đưa ra danh sách quá lớn gồm 30 biện pháp can thiệp tiềm năng, tuyên bố ngày hôm nay mang tính chất công bố, là sự can thiệp nhằm đưa thông điệp đến cho những nhân vật trong ngành đang lo lắng về rủi ro AI. “Có một quan niệm sai lầm rất phổ biến, ngay cả trong cộng đồng AI, rằng chỉ có một số ít kẻ thất bại. Nhưng, trên thực tế, nhiều người sẽ bày tỏ mối quan ngại riêng tư về những điều này.”, Giám đốc điều hành của Trung tâm An toàn AI – Dan Hendrycks cho biết.

Cuộc tranh luận về sự an toàn của AI không có dừng lại ở đây. Dù vậy, AI vẫn đang là một trong những lĩnh vực nghiên cứu hot nhất hiện nay và được đánh giá là có tiềm năng phát triển rất lớn trong tương lai.

Nguồn: https://www.theverge.com/2023/5/30/23742005/ai-risk-warning-22-word-statement-google-deepmind-openai

Một nhóm các nhà nghiên cứu, kỹ sư và CEO hàng đầu về AI đã đưa ra cảnh báo mới về mối đe dọa hiện hữu mà họ tin rằng AI gây ra cho nhân loại.

Các tuyên bố 22 từđược cắt ngắn để làm cho nó được chấp nhận rộng rãi nhất có thể, có nội dung như sau: “Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.

Tuyên bố này, được xuất bản bởi một tổ chức phi lợi nhuận có trụ sở tại San Francisco, Trung tâm An toàn AI, đã được đồng ký bởi các nhân vật bao gồm Giám đốc điều hành Google DeepMind Demis Hassabis và Giám đốc điều hành OpenAI Sam Altman, cũng như Geoffrey Hinton và Youshua Bengio – hai trong số ba nhà nghiên cứu AI đã giành được Giải thưởng Turing 2018 (đôi khi được gọi là “Giải Nobel điện toán”) cho công trình của họ về AI. Tại thời điểm viết bài, người chiến thắng thứ ba của năm, Yann LeCun, hiện là nhà khoa học AI hàng đầu tại công ty mẹ của Facebook, Meta, vẫn chưa ký.

Tuyên bố này là sự can thiệp cấp cao mới nhất trong cuộc tranh luận phức tạp và gây tranh cãi về sự an toàn của AI. Đầu năm nay, một thư ngỏ được ký bởi một số cá nhân giống nhau ủng hộ cảnh báo dài 22 từ kêu gọi “tạm dừng” phát triển AI trong sáu tháng. Bức thư đã bị chỉ trích ở nhiều cấp độ. Một số chuyên gia cho rằng nó đã phóng đại rủi ro do AI gây ra, trong khi những người khác đồng ý với rủi ro nhưng không phải là biện pháp khắc phục được đề xuất trong bức thư.

Dan Hendrycks, giám đốc điều hành của Trung tâm An toàn AI, nói Thời báo New York rằng sự ngắn gọn của tuyên bố ngày hôm nay – không đề xuất bất kỳ cách tiềm năng nào để giảm thiểu mối đe dọa do AI gây ra – nhằm tránh sự bất đồng như vậy. Hendrycks cho biết: “Chúng tôi không muốn thúc đẩy một danh sách quá lớn gồm 30 biện pháp can thiệp tiềm năng. “Khi điều đó xảy ra, nó sẽ làm loãng thông điệp.”

“Có một quan niệm sai lầm rất phổ biến, ngay cả trong cộng đồng AI, rằng chỉ có một số ít kẻ thất bại.”

Hendrycks đã mô tả thông điệp này như một “sự công bố” cho những nhân vật trong ngành đang lo lắng về rủi ro AI. Hendrycks nói: “Có một quan niệm sai lầm rất phổ biến, ngay cả trong cộng đồng AI, rằng chỉ có một số ít kẻ thất bại. Thơi gian. “Nhưng, trên thực tế, nhiều người sẽ bày tỏ mối quan ngại riêng tư về những điều này.”

Các đường nét rộng của cuộc tranh luận này rất quen thuộc nhưng các chi tiết thường có thể kết thúc, dựa trên các tình huống giả định trong đó các hệ thống AI tăng nhanh khả năng và không còn hoạt động an toàn nữa. Nhiều chuyên gia chỉ ra những cải tiến nhanh chóng trong các hệ thống như mô hình ngôn ngữ lớn là bằng chứng về những thành tựu dự kiến ​​trong tương lai về trí thông minh. Họ nói rằng một khi các hệ thống AI đạt đến một mức độ tinh vi nhất định, việc kiểm soát hành động của chúng có thể trở nên bất khả thi.

Những người khác nghi ngờ những dự đoán này. Họ chỉ ra rằng các hệ thống AI không có khả năng xử lý ngay cả những nhiệm vụ tương đối bình thường, chẳng hạn như lái xe ô tô. Bất chấp nhiều năm nỗ lực và hàng tỷ đô la đầu tư vào lĩnh vực nghiên cứu này, những chiếc xe tự lái hoàn toàn vẫn còn lâu mới trở thành hiện thực. Nếu AI không thể xử lý dù chỉ một thách thức này, những người hoài nghi cho rằng, liệu công nghệ này có cơ hội nào sánh kịp với mọi thành tựu khác của con người trong những năm tới?

Trong khi đó, cả những người ủng hộ rủi ro AI và những người hoài nghi đều đồng ý rằng, ngay cả khi không có sự cải thiện về khả năng của chúng, các hệ thống AI ngày nay vẫn gây ra một số mối đe dọa — từ việc sử dụng chúng cho phép giám sát hàng loạt, đến cung cấp năng lượng cho các thuật toán “chính sách dự đoán” bị lỗi và nới lỏng tạo ra thông tin sai lệch và thông tin sai lệch.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *