“Nhà nghiên cứu AI hàng đầu tận tâm phát triển cho bỏ sợ ‘tuyệt chủng’ AI, đối đầu thử thách với câu chuyện ‘nhà khoa học anh hùng'”

Ngày hôm nay, nhà nghiên cứu trí tuệ nhân tạo hàng đầu Kyunghyun Cho đã thách thức câu chuyện “nhà khoa học anh hùng” về rủi ro AI. Nhà nghiên cứu này cho rằng việc tập trung quá nhiều vào việc đề phòng rủi ro của AGI chưa từng tồn tại trở nên lạc hậu và gây lãng phí cho những lợi ích trước mắt của AI. Cho cảnh báo rằng chúng ta cần thảo luận thêm về cách tăng cường sử dụng có lợi của AI và phê bình nhiều tiến bộ rõ ràng có thể có tác động tích cực cũng như tiêu cực đối với xã hội. Họ tham gia vào sự kiện Chuyển đổi 2023 tại San Francisco vào ngày 11-12 tháng 7 để tìm hiểu cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để đạt được thành công. #Chuyểnđổi2023 #rủiroAI #trítuệnhântạo

Nguồn: https://venturebeat.com/ai/top-ai-researcher-dismisses-ai-extinction-fears-challenges-hero-scientist-narrative/

Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm


Kyunghyun Cho, một người nổi bật trí tuệ nhân tạo nhà nghiên cứu và là phó giáo sư tại Đại học New York, đã bày tỏ sự thất vọng với diễn ngôn hiện tại về rủi ro AI. Trong khi những người nổi tiếng như Geoffrey Hinton và Yoshua Bengio gần đây đã cảnh báo về các mối đe dọa hiện hữu tiềm ẩn từ sự phát triển trong tương lai của trí tuệ tổng quát nhân tạo (AGI) và kêu gọi quy định hoặc tạm dừng nghiên cứu, Cho tin rằng những điều này những câu chuyện kể về “số phận” đang sao nhãng khỏi các vấn đề thực tế, cả tích cực và tiêu cực, do AI ngày nay đặt ra.

Trong một cuộc phỏng vấn gần đây với VentureBeat, Cho — người được đánh giá cao vì nền tảng công việc về dịch máy thần kinh, giúp dẫn đến sự phát triển của kiến ​​trúc Transformer mà ChatGPT dựa trên — bày tỏ sự thất vọng về việc thiếu các đề xuất cụ thể tại các phiên điều trần gần đây của Thượng viện liên quan đến việc điều chỉnh các tác hại hiện tại của AI, cũng như thiếu thảo luận về cách thức để tăng cường sử dụng có lợi của AI.

Mặc dù tôn trọng các nhà nghiên cứu như Hinton và người giám sát cũ của anh ấy là Bengio, Cho cũng cảnh báo không nên tôn vinh “các nhà khoa học anh hùng” hoặc coi lời cảnh báo của bất kỳ ai là phúc âm, đồng thời bày tỏ mối quan ngại của mình về phong trào Vị tha Hiệu quả tài trợ cho nhiều nỗ lực của AGI. (Ghi chú của biên tập viên: Cuộc phỏng vấn này đã được chỉnh sửa để đảm bảo độ dài và rõ ràng.)

VentureBeat: Gần đây, bạn đã bày tỏ sự thất vọng về các phiên điều trần gần đây của Thượng viện AI trên Twitter. Bạn có thể giải thích về điều đó và chia sẻ suy nghĩ của bạn về “Tuyên bố về rủi ro AI” được ký bởi Geoffrey Hinton, Yoshua Bengio và những người khác?

Sự kiện

Chuyển đổi 2023

Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.

Đăng ký ngay

Kyunghyun Cho: Trước hết, tôi nghĩ rằng có quá nhiều chữ cái. Nói chung, tôi chưa bao giờ ký bất kỳ bản kiến ​​​​nghị nào trong số này. Tôi luôn có xu hướng cẩn thận hơn một chút khi ký tên mình vào thứ gì đó. Tôi không biết tại sao mọi người chỉ ký tên của họ một cách nhẹ nhàng như vậy.

Đối với các phiên điều trần tại Thượng viện, tôi đã đọc toàn bộ bản ghi và tôi cảm thấy hơi buồn. Rõ ràng là vũ khí hạt nhân, biến đổi khí hậu, trí tuệ nhân tạo bất hảo tiềm ẩn, tất nhiên chúng có thể nguy hiểm. Nhưng có nhiều tác hại khác đang thực sự được tạo ra bởi AI, cũng như những lợi ích trước mắt mà chúng ta thấy từ AI, nhưng không có một đề xuất hoặc thảo luận tiềm năng nào về những gì chúng ta có thể làm về những lợi ích trước mắt cũng như những tác hại trước mắt. của AI.

Ví dụ, tôi nghĩ Lindsey Graham đã chỉ ra việc sử dụng AI trong quân sự. Điều đó đang thực sự xảy ra bây giờ. Nhưng Sam Altman thậm chí không thể đưa ra một đề xuất nào về cách điều chỉnh việc sử dụng AI ngay lập tức trong quân đội. Đồng thời, AI có tiềm năng tối ưu hóa việc chăm sóc sức khỏe để chúng ta có thể triển khai một hệ thống chăm sóc sức khỏe tốt hơn, công bằng hơn, nhưng không điều nào trong số đó thực sự được thảo luận.

Tôi thất vọng vì rất nhiều cuộc thảo luận về rủi ro hiện hữu này; bây giờ họ thậm chí còn gọi nó là “sự tuyệt chủng” theo nghĩa đen. Nó đang hút không khí ra khỏi phòng.

VB: Tại sao bạn nghĩ rằng đó là? Tại sao cuộc thảo luận về “rủi ro hiện hữu” lại hút không khí ra khỏi phòng dẫn đến gây hại cho nhiều lợi ích và tác hại trước mắt hơn?

Kyunghyun Cho: Theo một nghĩa nào đó, đó là một câu chuyện tuyệt vời. Rằng hệ thống AGI mà chúng tôi tạo ra hóa ra cũng tốt như chúng tôi, hoặc tốt hơn chúng tôi. Đó chính xác là niềm đam mê mà loài người luôn có ngay từ đầu. Con ngựa thành Troia (có vẻ vô hại nhưng độc hại) — đó là một câu chuyện tương tự, phải không? Đó là về những khía cạnh phóng đại khác với chúng ta nhưng thông minh như chúng ta.

Theo quan điểm của tôi, thật tốt khi công chúng nói chung bị cuốn hút và phấn khích bởi những tiến bộ khoa học mà chúng ta đang tạo ra. Điều đáng tiếc là các nhà khoa học cũng như các nhà hoạch định chính sách, những người đưa ra quyết định hoặc tạo ra những tiến bộ này, chỉ bị kích thích tích cực hoặc tiêu cực bởi những tiến bộ đó, chứ không phê phán nó. Công việc của chúng ta với tư cách là các nhà khoa học, và cũng là các nhà hoạch định chính sách, là phê bình nhiều tiến bộ rõ ràng có thể có tác động tích cực cũng như tiêu cực đối với xã hội. Nhưng hiện tại, AGI giống như một cây đũa thần mà họ chỉ đang cố gắng vung vẩy để mê hoặc mọi người để mọi người không chỉ trích về những gì đang diễn ra.

VB: Nhưng còn những người tiên phong học máy là một phần của điều đó thì sao? Ví dụ, Geoffrey Hinton và Yoshua Bengio đã ký “Tuyên bố về rủi ro AI”. Bengio có nói rằng anh cảm thấy “lạc lối” và có phần tiếc nuối về công việc để đời của mình. bạn nói gì với nó?

Kyunghyun Cho: Tôi vô cùng tôn trọng cả Yoshua và Geoff cũng như Yann (LeCun), tôi biết khá rõ về họ và học hỏi từ họ, tôi đã làm việc cùng với họ. Nhưng cách tôi nhìn nhận vấn đề này là: Tất nhiên các cá nhân – dù là nhà khoa học hay không – có thể có đánh giá của riêng họ về loại sự việc nào có nhiều khả năng xảy ra hơn, loại sự việc nào ít có khả năng xảy ra hơn, loại sự việc nào có sức tàn phá lớn hơn những sự việc khác. . Việc lựa chọn phân phối về những gì sẽ xảy ra trong tương lai và lựa chọn chức năng tiện ích gắn liền với từng và mọi sự kiện đó, những điều này không giống như khoa học cứng; luôn có sự chủ quan ở đó. Điều đó hoàn toàn ổn.

Nhưng điều mà tôi thấy là một khía cạnh thực sự có vấn đề của (sự nhấn mạnh lặp đi lặp lại vào) Yoshua và Geoff… đặc biệt là trên các phương tiện truyền thông ngày nay, đó là đây là một ví dụ điển hình của một loại chủ nghĩa anh hùng trong khoa học. Điều đó hoàn toàn ngược lại với những gì đã thực sự xảy ra trong khoa học, và đặc biệt học máy.

Chưa bao giờ có một nhà khoa học nào ở lại phòng thí nghiệm của họ và 20 năm sau bước ra nói rằng “đây là AGI”. Nó luôn là nỗ lực tập thể của hàng nghìn, nếu không muốn nói là hàng trăm nghìn người trên khắp thế giới, trong nhiều thập kỷ.

Nhưng bây giờ câu chuyện về nhà khoa học anh hùng đã quay trở lại. Có một lý do tại sao trong những bức thư này, họ luôn đặt Geoff và Yoshua lên đầu. Tôi nghĩ rằng điều này thực sự có hại theo cách mà tôi chưa bao giờ nghĩ tới. Bất cứ khi nào mọi người thường nói về các vấn đề của họ với kiểu kể chuyện về nhà khoa học anh hùng này, tôi đều nói: “Ồ, đó là một câu chuyện vui. Tại sao không?”

Nhưng nhìn vào những gì đang diễn ra hiện nay, tôi nghĩ chúng ta đang nhìn thấy mặt tiêu cực của nhà khoa học anh hùng. Tất cả họ chỉ là những cá nhân. Họ có thể có những ý tưởng khác nhau. Tất nhiên, tôi tôn trọng họ và tôi nghĩ đó là cách cộng đồng khoa học luôn hoạt động. Chúng tôi luôn có những ý kiến ​​bất đồng. Nhưng bây giờ sự tôn thờ anh hùng này, kết hợp với chủ nghĩa diệt vong AGI này… Tôi không biết nữa, theo tôi thì quá sức.

VB: Một điều khác có vẻ lạ đối với tôi là rất nhiều trong số các kiến ​​nghị này, chẳng hạn như Tuyên bố về Rủi ro AI, được tài trợ đằng sau hậu trường bởi những người theo chủ nghĩa Vị tha Hiệu quả (Tuyên bố về Rủi ro AI được đưa ra bởi Ủy ban Trung tâm trí tuệ nhân tạo Sự an toànnói rằng nó sẽ kết thúc 90% của nó kinh phí từ Mở từ thiệnlần lượt được tài trợ chủ yếu bởi Cari Tuna và Dustin Moskovitz, những nhà tài trợ nổi bật trong Hiệu quả lòng vị tha sự chuyển động). Bạn cảm thấy sao về việc ấy?

Kyunghyun Cho: Nói chung, tôi không phải là người hâm mộ Chủ nghĩa vị tha hiệu quả (EA). Và tôi nhận thức rất rõ thực tế rằng phong trào EA là phong trào đang thực sự thúc đẩy toàn bộ vấn đề xoay quanh AGI và rủi ro hiện hữu. Tôi nghĩ rằng có quá nhiều người ở Thung lũng Silicon với loại phức hợp cứu tinh này. Tất cả họ đều muốn cứu chúng ta khỏi sự diệt vong không thể tránh khỏi mà chỉ họ nhìn thấy và họ nghĩ rằng chỉ họ mới có thể giải quyết.

Dọc theo dòng này, tôi đồng ý với những gì Sara Hooker từ Cohere cho AI đã nói (trong bài viết của bạn). Những người này rất ồn ào, nhưng họ vẫn là một nhóm bên lề trong toàn xã hội, chưa kể đến toàn bộ cộng đồng máy học.

VB: Vậy câu chuyện ngược lại với điều đó là gì? Bạn sẽ viết thư của riêng bạn hoặc đưa ra tuyên bố của riêng bạn?

Kyunghyun Cho: Có những điều bạn không thể viết một lá thư về. Sẽ thật lố bịch nếu viết một lá thư nói rằng “Hoàn toàn không có chuyện một AI lừa đảo sẽ biến mọi người thành kẹp giấy.” Nó sẽ giống như, chúng ta đang làm gì?

Tôi là một nhà giáo dục chuyên nghiệp. Tôi cảm thấy điều còn thiếu vào lúc này là tiếp xúc với những việc nhỏ đang được thực hiện để AI có thể mang lại lợi ích cho nhân loại, những chiến thắng nhỏ đang được thực hiện. Chúng ta cần cho công chúng biết về dòng thành công nhỏ nhưng chắc chắn đang được tạo ra ở đây.

Bởi vì hiện tại, rất tiếc, những câu chuyện giật gân được đọc nhiều hơn. Ý tưởng cho rằng AI sẽ giết tất cả chúng ta hoặc AI sẽ chữa khỏi mọi thứ – cả hai đều không chính xác. Và có lẽ đó thậm chí không phải là vai trò của truyền thông (để giải quyết vấn đề này). Trên thực tế, có lẽ vai trò của giáo dục AI – chẳng hạn như K-12 – là giới thiệu các khái niệm cơ bản không thực sự phức tạp.

VB: Vì vậy, nếu bạn đang nói chuyện với các nhà nghiên cứu AI đồng nghiệp của mình, bạn sẽ nói gì về những rủi ro của AI? Nó sẽ tập trung vào những rủi ro hiện tại, như bạn đã mô tả? Bạn sẽ thêm một cái gì đó về cách điều này sẽ phát triển?

Kyunghyun Cho: Tôi không thực sự nói với mọi người về nhận thức của tôi về rủi ro AI, bởi vì tôi biết rằng tôi chỉ là một cá nhân. Quyền hạn của tôi không được hiệu chỉnh tốt. Tôi biết điều đó vì bản thân tôi là một nhà nghiên cứu, vì vậy tôi có xu hướng rất cẩn thận khi nói về những thứ có độ không chắc chắn cực kỳ sai lệch, đặc biệt nếu đó là về một loại dự đoán nào đó.

Những gì tôi nói với các nhà nghiên cứu AI – không phải những người có thâm niên cao hơn, họ biết rõ hơn – mà với các sinh viên của tôi, hoặc các nhà nghiên cứu mới hơn, tôi chỉ cố gắng hết sức để cho họ thấy những gì tôi đang làm, những gì tôi nghĩ chúng ta nên làm để mang lại cho chúng tôi lợi ích nhỏ nhưng hữu hình. Đó là lý do tại sao tôi làm việc về AI cho khoa học và y tế. Đó là lý do tại sao tôi dành 50% thời gian của mình tại (công ty công nghệ sinh học) Genetech, một phần của nhóm Prescient Design để thiết kế thuốc và kháng thể trên máy tính. Tôi chỉ nghĩ đó là điều tốt nhất tôi có thể làm. Tôi sẽ không viết một lá thư hoành tráng. Tôi rất dở khoản đó.

Sứ mệnh của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số để những người ra quyết định kỹ thuật có được kiến ​​thức về công nghệ doanh nghiệp chuyển đổi và giao dịch. Khám phá Briefings của chúng tôi.


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *