#BốGiàAI #NguyHiểmCủaAI #GeoffreyHinton #TríTuệNhânTạo #Google
Tiến sĩ Geoffrey Hinton, người được coi là bố già của trí tuệ nhân tạo (AI), đã rời Google và đưa ra cảnh báo về nguy hiểm của AI. Ông Hinton là người tiên phong về trí tuệ nhân tạo tại Đại học Toronto và đã tạo ra nền tảng trí tuệ cho các hệ thống AI của các tập đoàn công nghệ lớn nhất thế giới như Google. Tuy nhiên, vào ngày hôm nay, ông đã đồng ý với dàn hợp xướng ngày càng tăng của những người chỉ trích về việc các công ty này đang tạo ra các sản phẩm dựa trên trí tuệ nhân tạo mà không nghĩ đến những nguy cơ.
Theo ông Hinton, việc phát triển AI tạo ra nguy cơ lớn cho xã hội và nhân loại. Anh lo ngại rằng công nghệ này có thể trở thành một công cụ cho thông tin sai lệch và gây rủi ro cho việc làm. Nhiều người trong lĩnh vực công nghệ đã kêu gọi lệnh cấm phát triển các hệ thống AI mới trong sáu tháng vì các công nghệ AI gây ra những rủi ro sâu sắc cho xã hội và nhân loại.
Ông Hinton đã từ chức tại Google để có thể thoải mái đưa ra những cảnh báo về các nguy cơ của AI. Theo ông, công ty cần phải cẩn thận hơn trong việc phát triển hệ thống AI và những sản phẩm liên quan đến công nghệ này. Nó có thể trở thành một rủi ro đối với con người. Hiện tại, ông Hinton là một trong những tiếng nói được kính trọng nhất trong lĩnh vực trí tuệ nhân tạo và đang cố gắng cảnh báo về những nguy cơ tiềm tàng của AI.
Nguồn: https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
Geoffrey Hinton là người tiên phong về trí tuệ nhân tạo. Vào năm 2012, Tiến sĩ Hinton và hai sinh viên tốt nghiệp của ông tại Đại học Toronto công nghệ tạo ra đã trở thành nền tảng trí tuệ cho các hệ thống AI mà các công ty lớn nhất của ngành công nghệ tin rằng đó là chìa khóa cho tương lai của họ.
Tuy nhiên, vào thứ Hai, anh ấy đã chính thức tham gia vào một dàn hợp xướng ngày càng tăng của những người chỉ trích nói rằng các công ty đó đang chạy đua với nguy hiểm với chiến dịch tích cực của họ để tạo ra các sản phẩm dựa trên trí tuệ nhân tạo, công nghệ cung cấp năng lượng cho các chatbot phổ biến như ChatGPT.
Tiến sĩ Hinton cho biết ông đã nghỉ việc tại Google, nơi ông đã làm việc hơn một thập kỷ và trở thành một trong những tiếng nói được kính trọng nhất trong lĩnh vực này, để ông có thể thoải mái lên tiếng về những nguy cơ của AI. , bây giờ hối hận về công việc của cuộc đời mình.
“Tôi tự an ủi mình bằng một lý do bình thường: Nếu tôi không làm thì người khác sẽ làm,” Tiến sĩ Hinton nói trong một cuộc phỏng vấn dài vào tuần trước tại phòng ăn của nhà ông ở Toronto, cách nơi ông và bà gặp nhau một quãng đi bộ ngắn. học sinh của anh ấy đã tạo ra bước đột phá của họ.
Hành trình của Tiến sĩ Hinton từ người đột phá AI đến kẻ hủy diệt đánh dấu một thời điểm đáng chú ý đối với ngành công nghệ tại thời điểm có lẽ là bước ngoặt quan trọng nhất trong nhiều thập kỷ. Các nhà lãnh đạo trong ngành tin rằng các hệ thống AI mới có thể quan trọng như việc giới thiệu trình duyệt web vào đầu những năm 1990 và có thể dẫn đến những đột phá trong các lĩnh vực từ nghiên cứu thuốc đến giáo dục.
Nhưng gặm nhấm nhiều người trong ngành là nỗi sợ hãi rằng họ đang thả thứ gì đó nguy hiểm vào tự nhiên. AI sáng tạo có thể đã là một công cụ cho thông tin sai lệch. Chẳng mấy chốc, nó có thể là một rủi ro đối với việc làm. Ở đâu đó, những người lo lắng nhất về công nghệ cho biết, nó có thể là một rủi ro đối với nhân loại.
Tiến sĩ Hinton nói: “Thật khó để biết làm thế nào bạn có thể ngăn chặn những kẻ xấu sử dụng nó cho những việc xấu.
Sau khi công ty khởi nghiệp OpenAI ở San Francisco ra mắt phiên bản mới của ChatGPT vào tháng 3hơn 1.000 nhà lãnh đạo và nhà nghiên cứu công nghệ đã ký một bức thư ngỏ kêu gọi lệnh cấm phát triển các hệ thống mới trong sáu tháng vì các công nghệ AI gây ra “những rủi ro sâu sắc cho xã hội và nhân loại”.
Vài ngày sau, 19 lãnh đạo hiện tại và trước đây của Hiệp hội vì sự tiến bộ của trí tuệ nhân tạo, một tổ chức học thuật 40 tuổi, phát hành lá thư của riêng họ cảnh báo về những rủi ro của AI Nhóm đó bao gồm Eric Horvitz, giám đốc khoa học của Microsoft, công ty đã triển khai công nghệ của OpenAI trên nhiều loại sản phẩm, bao gồm cả công cụ tìm kiếm Bing của nó.
Tiến sĩ Hinton, thường được gọi là “Bố già của AI”, đã không ký vào bất kỳ bức thư nào trong số đó và nói rằng ông không muốn công khai chỉ trích Google hoặc các công ty khác cho đến khi ông nghỉ việc. Anh ấy đã thông báo cho công ty vào tháng trước rằng anh ấy sẽ từ chức và vào thứ Năm, anh ấy đã nói chuyện qua điện thoại với Sundar Pichai, giám đốc điều hành của công ty mẹ của Google, Alphabet. Anh ấy từ chối thảo luận công khai chi tiết về cuộc trò chuyện của anh ấy với ông Pichai.
Nhà khoa học trưởng của Google, Jeff Dean, cho biết trong một tuyên bố: “Chúng tôi vẫn cam kết thực hiện một cách tiếp cận có trách nhiệm đối với AI. Chúng tôi không ngừng học hỏi để hiểu những rủi ro mới nổi đồng thời cũng mạnh dạn đổi mới.”
Tiến sĩ Hinton, một người Anh xa xứ 75 tuổi, là một học giả suốt đời có sự nghiệp được thúc đẩy bởi niềm tin cá nhân của ông về sự phát triển và sử dụng AI Năm 1972, khi còn là một sinh viên tốt nghiệp tại Đại học Edinburgh, Tiến sĩ Hinton đã nhận một ý tưởng được gọi là mạng lưới thần kinh. MỘT mạng lưới thần kinh là một hệ thống toán học học các kỹ năng bằng cách phân tích dữ liệu. Vào thời điểm đó, rất ít nhà nghiên cứu tin vào ý tưởng này. Nhưng nó đã trở thành công việc của cuộc đời ông.
Vào những năm 1980, Tiến sĩ Hinton là giáo sư khoa học máy tính tại Đại học Carnegie Mellon, nhưng đã rời trường đại học này để đến Canada vì ông nói rằng ông không muốn nhận tài trợ của Lầu Năm Góc. Vào thời điểm đó, hầu hết các nghiên cứu về AI ở Hoa Kỳ đều do Bộ Quốc phòng tài trợ. Tiến sĩ Hinton cực kỳ phản đối việc sử dụng trí tuệ nhân tạo trên chiến trường – cái mà ông gọi là “những người lính robot”.
Vào năm 2012, Tiến sĩ Hinton và hai sinh viên của ông ở Toronto, Ilya Sutskever và Alex Krishevsky, đã xây dựng một mạng lưới thần kinh có thể phân tích hàng nghìn bức ảnh và tự dạy nó cách xác định các đồ vật phổ biến, chẳng hạn như hoa, chó và ô tô.
Google chi 44 triệu USD để mua lại một công ty do Tiến sĩ Hinton và hai sinh viên của ông thành lập. Và họ hệ thống dẫn đến việc tạo ra các công nghệ ngày càng mạnh mẽ, bao gồm các chatbot mới như Trò chuyệnGPT Và Google Bard. Ông Sutskever tiếp tục trở thành nhà khoa học trưởng tại OpenAI. Năm 2018, Tiến sĩ Hinton và hai cộng tác viên lâu năm khác nhận được giải thưởng Turingthường được gọi là “Giải thưởng Nobel về điện toán,” cho công trình của họ về mạng lưới thần kinh.
Cũng trong khoảng thời gian đó, Google, OpenAI và các công ty khác bắt đầu xây dựng các mạng thần kinh học được từ một lượng lớn văn bản kỹ thuật số. Tiến sĩ Hinton cho rằng đó là một cách mạnh mẽ để máy móc hiểu và tạo ra ngôn ngữ, nhưng nó kém hơn so với cách con người xử lý ngôn ngữ.
Sau đó, vào năm ngoái, khi Google và OpenAI xây dựng các hệ thống sử dụng lượng dữ liệu lớn hơn nhiều, quan điểm của ông đã thay đổi. Anh ấy vẫn tin rằng các hệ thống này kém hơn bộ não con người ở một số khía cạnh nhưng anh ấy nghĩ rằng chúng đang làm lu mờ trí thông minh của con người ở những người khác. “Có lẽ những gì đang diễn ra trong các hệ thống này,” anh ấy nói, “thực sự tốt hơn rất nhiều so với những gì đang diễn ra trong não.”
Ông tin rằng khi các công ty cải thiện hệ thống AI của họ, chúng ngày càng trở nên nguy hiểm. “Hãy nhìn vào 5 năm trước và bây giờ như thế nào,” ông nói về công nghệ AI. “Hãy lấy sự khác biệt và tuyên truyền nó về phía trước. Điều đó thật đáng sợ.”
Ông nói, cho đến năm ngoái, Google đã hành động như một “người quản lý thích hợp” đối với công nghệ, cẩn thận không phát hành thứ gì đó có thể gây hại. Nhưng giờ đây, Microsoft đã tăng cường công cụ tìm kiếm Bing của mình bằng một chatbot — thách thức hoạt động kinh doanh cốt lõi của Google — Google đang chạy đua để triển khai loại công nghệ tương tự. Tiến sĩ Hinton cho biết những gã khổng lồ công nghệ đang bị mắc kẹt trong một cuộc cạnh tranh không thể dừng lại.
Mối quan tâm trước mắt của anh ấy là internet sẽ tràn ngập tin giả. ảnh, video Và chữvà người bình thường sẽ “không thể biết đâu là sự thật nữa”.
Ông cũng lo lắng rằng các công nghệ AI sẽ kịp thời thúc đẩy thị trường việc làm. Ngày nay, các chatbot như ChatGPT có xu hướng bổ sung cho nhân viên của con người, nhưng chúng có thể thay thế các trợ lý pháp lý, trợ lý cá nhân, dịch giả và những người khác xử lý các công việc thuộc lòng. Ông nói: “Nó lấy đi công việc cực nhọc. “Nó có thể lấy đi nhiều hơn thế.”
Cuối cùng, anh ấy lo lắng rằng các phiên bản tương lai của công nghệ sẽ gây ra mối đe dọa cho nhân loại vì chúng thường học hành vi bất ngờ từ lượng dữ liệu khổng lồ mà họ phân tích. Ông nói, điều này trở thành một vấn đề khi các cá nhân và công ty cho phép các hệ thống AI không chỉ tạo mã máy tính của riêng họ mà còn thực sự tự chạy mã đó. Và anh ấy lo sợ một ngày vũ khí tự trị thực sự – những con robot sát thủ đó – trở thành hiện thực.
Anh ấy nói: “Ý tưởng rằng thứ này thực sự có thể trở nên thông minh hơn con người – một số người đã tin vào điều đó. “Nhưng hầu hết mọi người nghĩ rằng đó là cách tắt. Và tôi nghĩ rằng nó đã tắt. Tôi nghĩ rằng đó là 30 đến 50 năm hoặc thậm chí lâu hơn nữa. Rõ ràng là tôi không còn nghĩ như vậy nữa.”
Nhiều chuyên gia khác, trong đó có nhiều sinh viên và đồng nghiệp của ông, nói rằng mối đe dọa này chỉ là giả thuyết. Nhưng Tiến sĩ Hinton tin rằng cuộc đua giữa Google và Microsoft và những người khác sẽ leo thang thành một cuộc đua toàn cầu sẽ không dừng lại nếu không có một số loại quy định toàn cầu.
Nhưng điều đó có thể là không thể, ông nói. Ông nói, không giống như vũ khí hạt nhân, không có cách nào để biết liệu các công ty hay quốc gia có đang bí mật nghiên cứu công nghệ này hay không. Hy vọng tốt nhất là các nhà khoa học hàng đầu thế giới hợp tác tìm cách kiểm soát công nghệ. “Tôi không nghĩ họ nên mở rộng quy mô này cho đến khi họ hiểu liệu họ có thể kiểm soát nó hay không,” ông nói.
Tiến sĩ Hinton nói rằng trước đây khi mọi người hỏi ông làm thế nào ông có thể nghiên cứu công nghệ có khả năng gây nguy hiểm, ông sẽ diễn giải Robert Oppenheimer, người dẫn đầu nỗ lực chế tạo bom nguyên tử của Hoa Kỳ: “Khi bạn nhìn thấy thứ gì đó ngọt ngào về mặt kỹ thuật, bạn hãy tiếp tục và làm điều đó.
Anh không nói như vậy nữa.