Sự kiện ngày hôm nay: Tương lai của trí tuệ nhân tạo được thảo luận tại San Francisco
Các nhà lãnh đạo hàng đầu tham gia sự kiện vào ngày 11-12 tháng 7 tại San Francisco để thảo luận về việc tích hợp và tối ưu hóa các khoản đầu tư vào trí tuệ nhân tạo (AI) để đạt được thành công. Sự phát triển của AI đã gây bão trên toàn thế giới và đã trở thành tính năng chính trên “60 Minutes” của CBS. Tuy nhiên, các chatbot trò chuyện đang gây ra những cảnh báo về công nghệ chạy trốn từ một số chuyên gia trí tuệ nhân tạo (AI) nổi tiếng.
Microsoft đã cho rằng các hệ thống AI đã hướng tới một thứ gì đó không thể giải thích được là “con vẹt ngẫu nhiên” và đã đưa ra ý tưởng về “trí tuệ tổng hợp nhân tạo” (AGI), người bắt đầu giống như con người. Google và OpenAI cũng đã cải tiến các chatbot của mình bằng cách sử dụng mô hình ngôn ngữ lớn (LLM), tạo ra khả năng truy cập Internet trong thời gian thực, và mở rộng cửa sổ ngữ cảnh để có thể xử lý các cuộc hội thoại dài hơn và phân tích các tài liệu lớn hơn.
Mặc dù AI đang phát triển với tốc độ chóng mặt, những rủi ro về mất dân chủ hoặc sự phá hoại của nhân loại cũng được quan tâm. Trong khi một số chuyên gia nhìn nhận những tiếng chuông cảnh báo này là hơi quá phản ứng, những giám đốc điều hành của các công ty AI hàng đầu cho rằng quy định về AI là cần thiết để tránh những hậu quả có thể gây tổn hại.
Nguồn: https://venturebeat.com/ai/fear-the-fire-or-harness-the-flame-the-future-of-generative-ai/
Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm
AI sáng tạo đã gây bão trên toàn thế giới. Nhiều đến mức trong vài tháng qua, công nghệ này đã hai lần trở thành tính năng chính trên “60 Minutes” của CBS. Sự gia tăng của các chatbot trò chuyện đáng kinh ngạc như Trò chuyệnGPT thậm chí đã đưa ra những cảnh báo về công nghệ chạy trốn từ một số chuyên gia trí tuệ nhân tạo (AI) nổi tiếng. Mặc dù trạng thái hiện tại của AI tổng quát rõ ràng là rất ấn tượng – có lẽ chói lọi sẽ là một tính từ tốt hơn – nhưng nó có thể còn tiến bộ hơn nữa so với những gì mọi người vẫn hiểu.
Tuần này, Thời báo New York báo cáo rằng một số nhà nghiên cứu trong ngành công nghệ tin rằng các hệ thống này đã hướng tới một thứ gì đó không thể giải thích được là “con vẹt ngẫu nhiên” — một hệ thống chỉ đơn giản là bắt chước tập dữ liệu cơ bản của nó. Thay vào đó, họ đang nhìn thấy “Một hệ thống AI đang đưa ra những câu trả lời và ý tưởng giống như con người không được lập trình trong đó.” Quan sát này đến từ Microsoft và dựa trên các phản hồi đối với lời nhắc của họ từ ChatGPT của OpenAI.
Quan điểm của họ, như được đưa ra trong một bài nghiên cứu được xuất bản vào tháng 3, là chatbot đã cho thấy “những tia sáng của trí tuệ tổng hợp nhân tạo” (AGI) — thuật ngữ chỉ cỗ máy đạt được sự tháo vát của bộ não con người. Đây sẽ là một sự phát triển đáng kể, vì AGI được cho là vẫn còn nhiều năm, có thể là nhiều thập kỷ nữa trong tương lai. Không phải ai cũng đồng ý với cách giải thích của họ nhưng Microsoft đã tổ chức lại các bộ phận trong phòng thí nghiệm nghiên cứu của mình để bao gồm nhiều nhóm chuyên khám phá ý tưởng AGI này.
Cải thiện trí nhớ
Một cách riêng biệt, Khoa học Mỹ mô tả một số kết quả nghiên cứu tương tự, trong đó có kết quả của nhà triết học Raphaël Millière của Đại học Columbia. Anh gõ một chương trình vào ChatGPT, yêu cầu nó tính số thứ 83 trong dãy Fibonacci.
Sự kiện
Chuyển đổi 2023
Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.
Đăng ký ngay
Ông nói: “Đó là lý luận nhiều bước ở mức độ rất cao.
Chatbot đóng đinh nó. Lẽ ra nó không thể làm được điều này vì nó không được thiết kế để quản lý một quy trình gồm nhiều bước. Millière đưa ra giả thuyết rằng máy đã ứng biến một bộ nhớ trong các lớp mạng của nó — một hành vi kiểu AGI khác — để diễn giải các từ theo ngữ cảnh của chúng. Millière tin rằng hành vi này giống như cách tự nhiên tái sử dụng các năng lực hiện có cho các chức năng mới, chẳng hạn như sự tiến hóa của lông vũ để cách nhiệt trước khi chúng được sử dụng cho chuyến bay.
AI hành quân trên
Có thể cho rằng đã có dấu hiệu ban đầu của AGI, các nhà phát triển tiếp tục đạt được những tiến bộ với mô hình ngôn ngữ lớn (LLM). Cuối tuần trước, Google đã công bố những nâng cấp đáng kể cho chatbot Bard của họ. Bản nâng cấp này bao gồm việc chuyển Bard sang mô hình ngôn ngữ lớn PaLM 2 mới. Theo một CNBC báo cáo, PaLM 2 sử dụng lượng dữ liệu đào tạo gần gấp năm lần so với phiên bản tiền nhiệm từ năm 2022, cho phép nó thực hiện các tác vụ viết mã, toán học và viết sáng tạo nâng cao hơn. Không chịu thua kém, OpenAI trong tuần này đã bắt đầu cung cấp các plug-in cho ChatGPT, bao gồm khả năng truy cập Internet trong thời gian thực thay vì chỉ dựa vào bộ dữ liệu có nội dung cho đến năm 2021.
Đồng thời, Anthropic đã công bố một “cửa sổ ngữ cảnh” mở rộng cho chatbot Claude của họ. Mỗi một LinkedIn bưu kiện từ chuyên gia AI Azeem Azhar, cửa sổ ngữ cảnh là độ dài của văn bản mà LLM có thể xử lý và phản hồi.
“Theo một nghĩa nào đó, nó giống như ‘bộ nhớ’ của hệ thống dành cho một phân tích hoặc cuộc trò chuyện nhất định,” Azhar viết. “Cửa sổ ngữ cảnh lớn hơn cho phép hệ thống có các cuộc hội thoại dài hơn nhiều hoặc phân tích các tài liệu lớn hơn, phức tạp hơn nhiều.”
Theo bài đăng này, cửa sổ dành cho Claude hiện lớn hơn khoảng ba lần so với cửa sổ dành cho ChatGPT.
Tất cả những điều đó để nói rằng nếu ChatGPT thể hiện tia sáng của AGI trong nghiên cứu được thực hiện vài tháng trước, thì công nghệ hiện đại đã vượt qua những khả năng này. Điều đó nói rằng, vẫn còn nhiều thiếu sót đối với các mô hình này, bao gồm cả ảo giác thỉnh thoảng khi chúng chỉ đơn giản là tạo ra câu trả lời. Nhưng chính tốc độ của những tiến bộ đã khiến nhiều người hoảng sợ và dẫn đến những lời kêu gọi khẩn cấp về quy định. Tuy nhiên, Axios báo cáo khả năng các nhà lập pháp ở Hoa Kỳ sẽ đoàn kết và hành động theo quy định về AI trước khi công nghệ này phát triển nhanh chóng vẫn còn rất mong manh.
Rủi ro hiện sinh hay nỗi sợ hãi về những điều chưa biết?
Những người nhìn thấy mối nguy hiểm hiện hữu từ AI lo lắng rằng AI có thể phá hoại nền dân chủ hoặc nhân loại. Nhóm chuyên gia này hiện bao gồm Geoffrey Hinton, “Bố già của AI”, cùng với những người dự đoán số phận AI lâu năm như Eliezer Yudkowsky. Người thứ hai nói rằng bằng cách xây dựng một AI thông minh siêu phàm, “mọi người trên Trái đất sẽ chết theo đúng nghĩa đen”.
Mặc dù triển vọng của họ gần như không quá nghiêm trọng, nhưng ngay cả giám đốc điều hành của các công ty AI hàng đầu (bao gồm Google, Microsoft và OpenAI) cũng cho biết họ tin rằng quy định về AI là cần thiết để tránh những hậu quả có thể gây tổn hại.
Giữa tất cả những lo lắng này, Casey Newton, tác giả của Platformer bản tin, gần đây đã viết về cách anh ấy nên tiếp cận điều thực chất là một nghịch lý. Phạm vi bảo hiểm của anh ấy có nên nhấn mạnh vào hy vọng rằng AI là điều tốt nhất của chúng ta và sẽ giải quyết các vấn đề phức tạp và cứu nhân loại hay thay vào đó nó nên nói về việc AI là điều tồi tệ nhất đối với chúng ta – che giấu sự thật, phá hủy lòng tin và cuối cùng là nhân loại?
Có những người tin rằng những lo lắng đã bị thổi phồng. Thay vào đó, họ coi phản ứng này là một nỗi sợ hãi phản động đối với những điều chưa biết, hoặc tương đương với chứng sợ công nghệ. Ví dụ, nhà tiểu luận và tiểu thuyết gia Stephen Marche đã viết trên tờ Guardian rằng “thuyết diệt vong công nghệ” là một “loài cường điệu hóa”.
Anh ấy đổ lỗi cho điều này một phần là do nỗi sợ hãi của các kỹ sư xây dựng công nghệ nhưng những người “đơn giản là không biết phát minh của họ tương tác với thế giới như thế nào”. Marche gạt bỏ lo lắng rằng AI sắp chiếm lĩnh thế giới bằng cách nhân cách hóa và kể chuyện; “Đó là một bộ phim chiếu trong tâm trí tập thể, không có gì hơn.” Chứng tỏ chúng ta say mê những chủ đề này như thế nào, một phim mới dự kiến vào mùa thu này, “khiến nhân loại chống lại lực lượng AI trong một cuộc chiến tàn phá hành tinh để sinh tồn.”
tìm sự cân bằng
Một cách tiếp cận thông thường đã được thể hiện trong một ý kiến cái từ Giáo sư Ioannis Pitas, chủ tịch Học viện Tiến sĩ AI Quốc tế. Pitas tin rằng AI là một phản ứng cần thiết của con người đối với một xã hội toàn cầu và thế giới vật chất ngày càng phức tạp. Ông nhìn thấy tác động tích cực của hệ thống trí tuệ nhân tạo lớn hơn rất nhiều so với các khía cạnh tiêu cực của chúng nếu các biện pháp quản lý thích hợp được thực hiện. Theo quan điểm của ông, AI nên tiếp tục được phát triển, nhưng với các quy định để giảm thiểu các tác động tiêu cực rõ ràng và tiềm tàng.
Điều này không có nghĩa là không có mối nguy hiểm nào ở phía trước với AI. Giám đốc điều hành của Alphabet Sundar Pichai đã nói: “AI là một trong những điều quan trọng nhất mà nhân loại đang nghiên cứu. Nó sâu sắc hơn cả điện hay lửa.”
Có lẽ lửa cung cấp một phép loại suy tốt. Đã có nhiều rủi ro trong việc xử lý đám cháy, và những điều này thỉnh thoảng vẫn xảy ra. May mắn thay, xã hội đã học cách khai thác những lợi ích của lửa đồng thời giảm thiểu những nguy hiểm của nó thông qua các tiêu chuẩn và ý thức chung. Hy vọng là chúng ta có thể làm điều tương tự với AI trước khi chúng ta bị đốt cháy bởi tia lửa của AGI.
Gary Grossman là SVP về thực hành công nghệ tại Edelman và lãnh đạo toàn cầu của Trung tâm xuất sắc AI Edelman.
Dữ liệuNgười ra quyết định
Chào mừng bạn đến với cộng đồng VentureBeat!
DataDecisionMakers là nơi các chuyên gia, bao gồm cả những người kỹ thuật làm công việc dữ liệu, có thể chia sẻ những hiểu biết và đổi mới liên quan đến dữ liệu.
Nếu bạn muốn đọc về các ý tưởng tiên tiến và thông tin cập nhật, các phương pháp hay nhất cũng như tương lai của dữ liệu và công nghệ dữ liệu, hãy tham gia cùng chúng tôi tại DataDecisionMakers.
Bạn thậm chí có thể xem xét đóng góp một bài viết của riêng bạn!
Đọc thêm từ DataDecisionMakers
[ad_2]