“AI: Từ sự bùng nổ đến sự diệt vong – Mối đe dọa hủy diệt loài người?”

#SựKiệnNgàyHômNay: Tuyên bố về nguy cơ tiềm tàng của AI và quan điểm khác nhau của các chuyên gia.

Trung tâm An toàn AI (CAIS) đã phát hành một tuyên bố nhấn mạnh tầm quan trọng của việc giảm thiểu rủi ro tiềm tàng của AI, trong đó có khả năng tuyệt chủng của loài người. Tuy nhiên, vấn đề liên kết của AI cũng đã được đưa ra từ rất sớm và vẫn là mối quan tâm chính của nhiều chuyên gia.

Các đại diện của các tổ chức hàng đầu tụ hội tại San Francisco vào ngày 11-12 tháng 7 tới để chia sẻ kinh nghiệm và cách tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những rủi ro tiềm tàng.

Mặc dù câu chuyện về sự diệt vong của AI được đưa ra nhiều, nhiều chuyên gia không đồng ý với quan điểm này và cho rằng AI có thể giải quyết các mối đe dọa hiện hữu. Tuy nhiên, vấn đề liên kết của AI vẫn còn là mối quan tâm chính của nhiều chuyên gia.

Việc cân bằng cuộc tranh luận về rủi ro và tiềm năng của AI là điều cần thiết trong quá trình phát triển công nghệ trí thông minh nhân tạo.

#TuyênBốNguyCơAITiềmTàng #VấnĐềLiênKếtAI #SựKiệnChuyểnĐổi2023 #GiảmThiểuRủiRo

Nguồn: https://venturebeat.com/ai/ai-doom-ai-boom-and-the-possible-destruction-of-humanity/

Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm


“Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác, chẳng hạn như đại dịch và chiến tranh hạt nhân.”

Cái này tuyên bốđược phát hành trong tuần này bởi Trung tâm An toàn AI (CAIS), phản ánh một sự bao trùm — và một số có thể nói là quá mức — lo lắng về viễn cảnh ngày tận thế do một chạy trốn siêu trí tuệ. Tuyên bố của CAIS phản ánh những mối quan tâm chính được thể hiện trong các cuộc trò chuyện về ngành AI trong hai tháng qua: Cụ thể là các mối đe dọa hiện hữu có thể xuất hiện trong một hoặc hai thập kỷ tới trừ khi công nghệ AI được quản lý chặt chẽ trên quy mô toàn cầu.

Tuyên bố này đã được ký bởi một nhóm gồm các chuyên gia hàn lâm và những người nổi tiếng về công nghệ, từ Geoffrey Hinton (trước đây làm việc tại Google và là người đề xướng học sâu trong một thời gian dài) đến Stuart Russell (giáo sư khoa học máy tính tại Berkeley) và Lex Fridman (một nhà khoa học nghiên cứu và người dẫn chương trình podcast từ MIT). Ngoài sự tuyệt chủng, Trung tâm An toàn AI cảnh báo về những mối quan tâm đáng kể khác, từ suy giảm tư duy của con người đến các mối đe dọa từ thông tin sai lệch do AI tạo ra làm suy yếu quá trình ra quyết định của xã hội.

diệt vong

Trên tờ New York Times bài báo, Giám đốc điều hành CAIS Dan Hendrycks cho biết: “Có một quan niệm sai lầm rất phổ biến, ngay cả trong cộng đồng AI, rằng chỉ có một số ít kẻ cam chịu. Nhưng, trên thực tế, nhiều người bày tỏ mối quan ngại riêng tư về những điều này.”

Sự kiện

Chuyển đổi 2023

Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.

Đăng ký ngay

“Doomers” là từ khóa trong tuyên bố này. Rõ ràng, có rất nhiều nói về số phận đang diễn ra bây giờ. Ví dụ: Hinton gần đây đã rời Google để anh ấy có thể bắt tay vào một AI đe dọa tất cả chúng ta chuyến du lịch diệt vong.

Trong cộng đồng AI, thuật ngữ “P(doom)” đã trở thành mốt để mô tả khả năng xảy ra sự diệt vong đó. P(doom) là một nỗ lực nhằm định lượng rủi ro của một kịch bản ngày tận thế, trong đó AI, đặc biệt là AI siêu thông minh, gây ra tác hại nghiêm trọng cho loài người hoặc thậm chí dẫn đến sự tuyệt chủng của loài người.

Trên một gần đây Podcast HardFork, Kevin Roose của The New York Times đã đặt P(doom) của mình là 5%. Ajeya Cotra, một Chuyên gia an toàn AI với Open Philanthropy và là khách mời trong chương trình, hãy đặt P(doom) của cô ấy ở mức 20 đến 30%. Tuy nhiên, cần phải nói rằng P(doom) hoàn toàn mang tính suy đoán và chủ quan, phản ánh niềm tin và thái độ của từng cá nhân đối với rủi ro AI — chứ không phải là thước đo chắc chắn về rủi ro đó.

Không phải ai cũng tin vào câu chuyện diệt vong của AI. Trên thực tế, một số chuyên gia về AI lại tranh luận ngược lại. Những người này bao gồm Andrew Ng (người sáng lập và lãnh đạo dự án Google Brain) và Pedro Domingos (giáo sư khoa học máy tính và kỹ thuật tại Đại học Washington và là tác giả của Thuật toán chính). Thay vào đó, họ lập luận rằng AI là một phần của giải pháp. Như Ng đã đưa ra, thực sự có những nguy cơ hiện hữu, chẳng hạn như biến đổi khí hậu và các đại dịch trong tương lai, và AI có thể là một phần trong cách giải quyết và hy vọng giảm thiểu những nguy cơ này.

Nguồn: https://twitter.com/pmddomingos/status/1663598551975473153

Làm lu mờ tác động tích cực của AI

Melanie Mitchell, một nhà nghiên cứu AI nổi tiếng, cũng hoài nghi về suy nghĩ về ngày tận thế. Mitchell là Giáo sư về độ phức tạp của Davis tại Viện Santa Fe và là tác giả của Trí tuệ nhân tạo: Hướng dẫn cho con người suy nghĩ. Trong số các lập luận của cô ấy là trí thông minh không thể tách rời khỏi xã hội hóa.

TRONG Hướng tới khoa học dữ liệuJeremie Harris, đồng sáng lập công ty an toàn AI Gladstone AI, phiên dịch Mitchell như lập luận rằng một AI thực sự thông minh hệ thống có khả năng trở nên xã hội hóa bằng cách tiếp thu ý thức và đạo đức chung như một sản phẩm phụ trong quá trình phát triển của chúng và do đó, có khả năng sẽ an toàn.

Mặc dù khái niệm P(doom) nhằm làm nổi bật những rủi ro tiềm tàng của AI, nhưng nó có thể vô tình làm lu mờ một khía cạnh quan trọng của cuộc tranh luận: Tác động tích cực mà AI có thể có đối với việc giảm thiểu các mối đe dọa hiện hữu.

Do đó, để cân bằng cuộc trò chuyện, chúng ta cũng nên xem xét một khả năng khác mà tôi gọi là “P(solution)” hoặc “P(sol)”, khả năng AI có thể đóng vai trò giải quyết các mối đe dọa này. Để giúp bạn hình dung về quan điểm của mình, tôi ước tính P(doom) của mình vào khoảng 5%, nhưng P(sol) của tôi gần 80%. Điều này phản ánh niềm tin của tôi rằng, mặc dù chúng ta không nên giảm thiểu rủi ro, nhưng những lợi ích tiềm năng của AI có thể đủ lớn để vượt xa chúng.

Điều này không có nghĩa là không có rủi ro hoặc chúng ta không nên theo đuổi các quy định và thông lệ tốt nhất để tránh những khả năng tồi tệ nhất có thể tưởng tượng được. Tuy nhiên, có thể nói rằng chúng ta không nên chỉ tập trung vào các kết quả hoặc tuyên bố xấu tiềm ẩn, cũng như một bưu kiện trong Diễn đàn lòng vị tha hiệu quả, sự diệt vong đó là mặc định xác suất.

Vấn đề căn chỉnh

Theo nhiều người cam chịu, mối lo ngại chính là vấn đề liên kết, trong đó các mục tiêu của một AI siêu thông minh không phù hợp với các giá trị con người hoặc các mục tiêu xã hội. Mặc dù chủ đề này có vẻ mới với sự xuất hiện của ChatGPT, mối quan tâm này đã xuất hiện gần 65 năm trước. BẰNG báo cáo của The Economist, Norbert Weiner — nhà tiên phong về trí tuệ nhân tạo và là cha đẻ của điều khiển học — đã xuất bản một bài luận vào năm 1960 mô tả những lo lắng của ông về một thế giới trong đó “máy móc học hỏi” và “phát triển các chiến lược không lường trước với tốc độ khiến các lập trình viên của chúng phải bối rối”.

Vấn đề liên kết lần đầu tiên được dựng thành phim năm 1968 2001: Cuộc phiêu lưu ngoài không gian. Marvin Minsky, một nhà tiên phong khác về AI, từng là cố vấn kỹ thuật cho bộ phim. Trong phim, chiếc máy tính HAL 9000 cung cấp AI trên tàu vũ trụ Discovery One bắt đầu hành xử theo những cách trái ngược với lợi ích của các thành viên phi hành đoàn. Vấn đề căn chỉnh AI xuất hiện khi mục tiêu của HAL khác với mục tiêu của phi hành đoàn con người.

Khi HAL biết được kế hoạch ngắt kết nối của phi hành đoàn do lo ngại về hành vi của họ, HAL coi đây là mối đe dọa đối với sự thành công của nhiệm vụ và phản ứng bằng cách cố gắng loại bỏ các thành viên phi hành đoàn. Thông điệp là nếu các mục tiêu của AI không hoàn toàn phù hợp với các giá trị và mục tiêu của con người, thì AI có thể thực hiện các hành động gây hại hoặc thậm chí gây chết người cho con người, ngay cả khi nó không được lập trình rõ ràng để làm như vậy.

Tua đi 55 năm, và chính mối quan tâm về sự liên kết này đã tạo ra phần lớn cuộc trò chuyện về ngày tận thế hiện nay. Điều đáng lo ngại là một hệ thống AI có thể thực hiện các hành động có hại ngay cả khi không có ai có ý định làm như vậy. Nhiều tổ chức AI hàng đầu đang nỗ lực giải quyết vấn đề này. Google DeepMind gần đây đã xuất bản một bài báo về cách đánh giá tốt nhất các hệ thống AI đa năng mới về các khả năng và sự liên kết nguy hiểm, đồng thời phát triển “hệ thống cảnh báo sớm” như một khía cạnh quan trọng của chiến lược AI có trách nhiệm.

Một nghịch lý kinh điển

Với hai mặt của cuộc tranh luận này – P(doom) hoặc P(sol) – không có sự đồng thuận về tương lai của AI. Câu hỏi vẫn là: Chúng ta đang hướng tới một viễn cảnh diệt vong hay một tương lai đầy hứa hẹn được tăng cường bởi AI? Đây là một nghịch lý cổ điển. Một bên là hy vọng rằng AI là tốt nhất của chúng ta và sẽ giải quyết các vấn đề phức tạp và cứu nhân loại. Mặt khác, AI sẽ chỉ ra những điều tồi tệ nhất trong chúng ta bằng cách che giấu sự thật, phá hủy lòng tin và cuối cùng là nhân loại.

Giống như tất cả các nghịch lý, câu trả lời không rõ ràng. Điều chắc chắn là cần phải cảnh giác liên tục và phát triển có trách nhiệm trong AI. Do đó, ngay cả khi bạn không tin vào kịch bản ngày tận thế, thì vẫn nên theo đuổi các quy định thông thường để hy vọng ngăn chặn một tình huống nguy hiểm khó xảy ra. Cổ phần, như Trung tâm An toàn AI đã nhắc nhở chúng ta, không gì khác hơn chính là tương lai của nhân loại.

Gary Grossman là SVP về thực hành công nghệ tại Edelman và lãnh đạo toàn cầu của Trung tâm xuất sắc AI Edelman.

Dữ liệuNgười ra quyết định

Chào mừng bạn đến với cộng đồng VentureBeat!

DataDecisionMakers là nơi các chuyên gia, bao gồm cả những người kỹ thuật làm công việc dữ liệu, có thể chia sẻ những hiểu biết và đổi mới liên quan đến dữ liệu.

Nếu bạn muốn đọc về các ý tưởng tiên tiến và thông tin cập nhật, các phương pháp hay nhất cũng như tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia cùng chúng tôi tại DataDecisionMakers.

Bạn thậm chí có thể xem xét đóng góp một bài viết của riêng bạn!

Đọc thêm từ DataDecisionMakers


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *