Ngay cả “bà dì của trí tuệ nhân tạo” cũng không biết AGI là gì
Bạn có bối rối về trí tuệ nhân tạo tổng quát, hay AGI không? Đó là điều mà OpenAI đang mê tít để cuối cùng tạo ra một cách mang “lợi ích cho toàn bộ nhân loại.” Bạn có thể muốn nghiêm túc xem xét vì họ vừa huy động được $6.6 tỷ để tiến gần hơn đến mục tiêu đó.
Nhưng nếu bạn vẫn đang tự hỏi AGI là gì, bạn không phải một mình.
Trong cuộc thảo luận đa chiều vào thứ Năm tại cuộc hội thảo lãnh đạo trí tuệ nhân tạo có trách nhiệm của Credo AI, Fei-Fei Li, một nhà nghiên cứu nổi tiếng thế giới thường được gọi là “bà dì của trí tuệ nhân tạo,” nói rằng cô cũng không biết AGI là gì. Tại các điểm khác, Li đã thảo luận về vai trò của mình trong việc sinh ra trí tuệ nhân tạo hiện đại, cách xã hội nên bảo vệ chính mình chống lại các mô hình trí tuệ nhân tạo tiên tiến, và lý do tại sao cô nghĩ rằng công ty khởi nghiệp “con ngựa đơn sỹ” mới của mình, World Labs, sẽ thay đổi mọi thứ.
Nhưng khi được hỏi về “tiêu biểu trí tuệ nhân tạo,” Li cũng bị lạc giống như chúng ta.
“Nhưng khi hỏi về “tiêu biểu trí tuệ nhân tạo,” Li cũng bị lạc giống như chúng ta.
“Nhưng khi hỏi về “tiêu biểu trí tuệ nhân tạo,” Li cũng bị lạc giống như chúng ta.
“Nhưng khi hỏi về “tiêu biểu trí tuệ nhân tạo,” Li cũng bị lạc giống như chúng ta.
Nếu ai sẽ biết AGI là gì, có lẽ sẽ là Fei-Fei Li. Năm 2006, cô đã tạo ra ImageNet, tập dữ liệu huấn luyện và thử nghiệm trí tuệ nhân tạo lớn đầu tiên trên thế giới, quan trọng để kích thích sự bùng nổ trí tuệ nhân tạo hiện tại của chúng ta. Từ năm 2017 đến 2018, cô đã làm Giám đốc Khoa học của AI/ML tại Google Cloud. Hiện nay, Li dẫn đầu HAI, Viện Trí tuệ Nhân tạo Hướng người ở Stanford và công ty khởi nghiệp World Labs của cô đang xây dựng “mô hình thế giới lớn” (Thuật ngữ này gần như là rắc rối như AGI, nếu bạn hỏi tôi).
Giám đốc điều hành OpenAI Sam Altman đã cố gắng đưa ra một định nghĩa cho AGI trong một bài viết với The New Yorker năm ngoái. Altman mô tả AGI như “tương đương với một người trung bình mà bạn có thể thuê làm đồng nghiệp.”
Trong khi đó, Hiến chương của OpenAI định nghĩa AGI như “hệ thống tự động cao cấp vượt qua con người trong hầu hết công việc có giá trị kinh tế.”
Rõ ràng, những định nghĩa này không đủ tốt cho một công ty trị giá 157 tỷ đang làm việc hướng tới. Do đó, OpenAI đã tạo ra “năm cấp độ” mà họ sử dụng nội bộ để đánh giá tiến triển của mình đến AGI. Cấp độ đầu tiên là chatbots (như ChatGPT), sau đó là nhà lý luận (rõ ràng, OpenAI o1 đã ở cấp độ này), đại sứ (hiển nhiên, cấp độ tiếp theo), nhà sáng tạo (trí tuệ nhân tạo có thể giúp phát minh ra các thứ), và cấp độ cuối cùng, tổ chức (trí tuệ nhân tạo có thể thực hiện công việc của cả một tổ chức).
Vẫn đang nhầm lẫn? Tôi cũng vậy, và cũng như Li. Bên cạnh đó, tất cả đều nghe có vẻ phức tạp hơn so với việc thuê một người đồng nghiệp trung bình.
Trong cuộc trò chuyện trước đó, Li nói rằng cô đã bị mê hoặc bởi ý tưởng về trí thông minh từ khi cô còn là một cô bé. Điều đó dẫn cô học về trí tuệ nhân tạo từ rất sớm, khi mà nghiên cứu trí tuệ nhân tạo chưa phải là một ngành có lợi nhuận. Vào đầu những năm 2000, Li nói rằng cô và một số người khác đã một cách im lặng đang lập nền móng cho lĩnh vực này.
“Vào năm 2012, dự án tập hợp dữ liệu của mình cộng với AlexNet và GPU – nhiều người gọi đó là sự sinh ra của trí tuệ nhân tạo hiện đại. Đó đã được thúc đẩy bởi ba yếu tố quan trọng: dữ liệu lớn, mạng neural và công nghệ GPU hiện đại. Và khi khoảnh khắc đó đến, tôi nghĩ cuộc sống không bao giờ như cũ cho cả lĩnh vực trí tuệ nhân tạo cũng như thế giới của chúng ta.”
Khi được hỏi về dự luật trí tuệ nhân tạo gây tranh cãi tại California, SB 1047, Li đã nói cẩn thận để không tái khai khẩn một tranh cãi mà Thống đốc Newsom vừa mới kết thúc bằng cách từ chối dự luật vào tuần trước. (Chúng tôi gần đây đã nói chuyện với tác giả của SB 1047, và ông ấy đã thích thú hơn trong việc khám sự tranh luận với Li.)
“Một số trong số bạn có thể biết rằng tôi đã công khai về mối quan ngại của mình với dự luật này (SB 1047), đã bị từ chối, nhưng hiện tôi đang tận hưởng, và với rất nhiều sự hưng phấn, để nhìn về phía trước,” nói Li. “Tôi đã rất vinh dự, hoặc xúc động, khi Thống đốc Newsom mời tôi tham gia vào các bước tiếp theo sau SB 1047.”
Thống đốc California gần đây đã chọn Li, cùng với các chuyên gia trí tuệ nhân tạo khác, để thành lập một nhóm nhiệm vụ để giúp bang phát triển các rào cản cho việc triển khai trí tuệ nhân tạo. Li nói rằng cô đang sử dụng một phương pháp dựa trên bằng chứng trong vai trò này, và sẽ làm hết sức mình để bênh vực cho nghiên cứu và tài chính học thuật. Tuy nhiên, cô cũng muốn đảm bảo California không trừng phạt các chuyên gia công nghệ.
“Chúng ta cần thực sự tìm hiểu về tác động tiềm ẩn của con người và cộng đồng chúng ta thay vì đặt gánh nặng lên công nghệ chính nó… Sẽ không hợp lý nếu chúng ta trừng phạt một kỹ sư ô tô – hãy nói là Ford hoặc GM – nếu một chiếc ô tô bị lạm dụng một cách có chủ ý hoặc không có chủ ý và gây thiệt hại cho một người. Chỉ trừng phạt kỹ sư ô tô sẽ không làm cho các chiếc ô tô an toàn hơn. Điều chúng ta cần phải làm là tiếp tục sáng tạo để tạo ra các biện pháp an toàn hơn, nhưng cũng cải thiện khuôn khổ quy định – có thể là dây an toàn hoặc tốc độ tối đa – và điều tương tự cũng đúng cho trí tuệ nhân tạo.”
Đó là một trong những lập luận tốt nhất mà tôi đã nghe về SB 1047, mà sẽ trừng phạt các công ty công nghệ vì các mô hình trí tuệ nhân tạo nguy hiểm.
Mặc dù đang tư vấn cho California về quy định trí tuệ nhân tạo, Li cũng đang điều hành công ty khởi nghiệp World Labs của mình tại San Francisco. Đây là lần đầu tiên Li thành lập một công ty khởi nghiệp, và cô là một trong số ít phụ nữ đang lãnh đạo một phòng thí nghiệm trí tuệ nhân tạo trên cạnh giới.
“Chúng ta còn rất xa để có một hệ sinh thái trí tuệ nhân tạo rất đa dạng,” nói Li. “Tôi tin rằng trí thông minh nhân cách đa dạng sẽ dẫn đến trí tuệ nhân tạo đa dạng, và chỉ đơn giản là mang lại cho chúng ta công nghệ tốt hơn.”
Trong vài năm tới, cô hào hứng mang “trí tuệ không gian” gần hơn với hiện thực. Li nói rằng ngôn ngữ của con người, mà các mô hình ngôn ngữ lớn hiện đại dựa trên đó, có lẽ đã mất một triệu năm để phát triển, trong khi thị giác và nhận thức có lẽ đã mất 540 triệu năm. Điều đó có nghĩa là việc tạo ra các mô hình thế giới lớn là một công việc phức tạp hơn nhiều.
“Điều đó không chỉ khiến máy tính nhìn thấy, mà thực sự làm cho máy tính hiểu toàn bộ thế giới 3D, mà tôi gọi là trí tuệ không gian,” nói Li. “Chúng ta không chỉ nhìn thấy để đặt tên cho mọi thứ… Chúng ta thực sự nhìn thấy để làm việc, để di chuyển trong thế giới, để tương tác với nhau, và việc thu hẹp khoảng cách giữa việc nhìn thấy và làm điều đó yêu cầu kiến thức không gian. Là một chuyên gia công nghệ, tôi cảm thấy rất phấn khích về điều đó.”
#AGI #trítuệnhântạo #pháttriểnđađạng #OpenAI #FeiFeiLi #AI #tráchnhiệm #Tiêncửôngnghệ
Nguồn: https://techcrunch.com/2024/10/03/even-the-godmother-of-ai-has-no-idea-what-agi-is/
Are you confused about artificial general intelligence, or AGI? It’s that thing OpenAI is obsessed with ultimately creating in a way that “benefits all of humanity.” You may want to take them seriously since they just raised $6.6 billion to get closer to that goal.
But if you’re still wondering what the heck AGI even is, you’re not alone.
In a wide ranging discussion on Thursday at Credo AI’s responsible AI leadership summit, Fei-Fei Li, a world-renowned researcher often called the “godmother of AI,” said she doesn’t know what AGI is either. At other points, Li discussed her role in the birth of modern AI, how society should protect itself against advanced AI models, and why she thinks her new unicorn startup World Labs is going to change everything.
But when asked what she thought about an “AI singularity,” Li was just as lost as the rest of us.
“I come from academic AI and have been educated in the more rigorous and evidence-based methods, so I don’t really know what all these words mean,” said Li to a packed room in San Francisco, beside a big window overlooking the Golden Gate Bridge. “I frankly don’t even know what AGI means. Like people say you know it when you see it, I guess I haven’t seen it. The truth is, I don’t spend much time thinking about these words because I think there’s so many more important things to do…”
If anyone would know what AGI is, it’s probably Fei-Fei Li. In 2006, she created ImageNet, the world’s first big AI training and benchmarking dataset that was critical for catalyzing our current AI boom. From 2017 to 2018, she served as Chief Scientist of AI/ML at Google Cloud. Today, Li leads the Stanford Human-Centered AI Institute (HAI) and her startup World Labs is building “large world models.” (That term is nearly as confusing as AGI, if you ask me.)
OpenAI CEO Sam Altman took a stab at defining AGI in a profile with The New Yorker last year. Altman described AGI as the “equivalent of a median human that you could hire as a coworker.”
Meanwhile, OpenAI’s charter defines AGI as “highly autonomous systems that outperform humans at most economically valuable work.”
Evidently, these definitions weren’t quite good enough for a $157 billion company to be working towards. So OpenAI created the five levels it internally uses to gauge its progress towards AGI. The first level is chatbots (like ChatGPT), then reasoners (apparently, OpenAI o1 was this level), agents (that’s coming next, supposedly), innovators (AI that can help invent things), and the last level, organizational (AI that can do the work of an entire organization).
Still confused? So am I, and so is Li. Also, this all sounds like a lot more than a median human coworker could do.
Earlier in the talk, Li said she’s been fascinated by the idea of intelligence ever since she was a young girl. That lead her to studying AI long before it was profitable to do so. In the early 2000s, Li says her and a few others were quietly laying the foundation for the field.
“In 2012, my ImageNet combined with AlexNet and GPUs – many people call that the birth of modern AI. It was driven by three key ingredients: big data, neural networks, and modern GPU computing. And once that moment hit, I think life was never the same for the whole field of AI, as well as our world.”
When asked about California’s controversial AI bill, SB 1047, Li spoke carefully to not rehash a controversy that Governor Newsom just put to bed by vetoing the bill last week. (We recently spoke to the author of SB 1047, and he was more keen to reopen his argument with Li.)
“Some of you might know that I have been vocal about my concerns about this bill (SB 1047), which was vetoed, but right now I’m thinking deeply, and with a lot of excitement, to look forward,” said Li. “I was very flattered, or honored, that Governor Newsom invited me to participate in the next steps of post-SB 1047.”
California’s governor recently tapped Li, along with other AI experts, to form a task force to help the state develop guardrails for deploying AI. Li said she’s using an evidence-based approach in this role, and will do her best to advocate for academic research and funding. However, she also wants to ensure California doesn’t punish technologists.
“We need to really look at potential impact on humans and our communities rather than putting the burden on technology itself… It wouldn’t make sense if we penalize a car engineer – let’s say Ford or GM – if a car is misused purposefully or unintentionally and harms a person. Just penalizing the car engineer will not make cars safer. What we need to do is to continue to innovate for safer measures, but also make the regulatory framework better – whether it’s seatbelts or speed limits – and the same is true for AI.”
That’s one of the better arguments I’ve heard against SB 1047, which would have punished tech companies for dangerous AI models.
Although Li is advising California on AI regulation, she’s also running her startup, World Labs, in San Francisco. It’s the first time Li has founded a startup, and she’s one of the few women leading an AI lab on the cutting edge.
“We are far away from a very diverse AI ecosystem,” said Li. “I do believe that diverse human intelligence will lead to diverse artificial intelligence, and will just give us better technology.”
In the next couple years, she’s excited to bring “spatial intelligence” closer to reality. Li says human language, which today’s large language models are based on, probably took a million years to develop, whereas vision and perception likely took 540 million years. That means creating large world models is a much more complicated task.
“It’s not only making computers see, but really making computer understand the whole 3D world, which I call spatial intelligence,” said Li. “We’re not just seeing to name things… We’re really seeing to do things, to navigate the world, to interact with each other, and closing that gap between seeing and doing requires spatial knowledge. As a technologist, I’m very excited about that.”
[ad_2]