Cảnh báo từ chuyên gia hàng đầu: Hệ sinh thái AI hiện nay không ổn định cho tất cả mọi người ngoại trừ Nvidia

risk concept

Hệ sinh thái trí tuệ nhân tạo hiện nay là không bền vững cho tất cả mọi người ngoại trừ Nvidia, cảnh báo từ giáo sư hàng đầu cagkansayin / Getty ImagesEconomics of AI không bền vững cho hầu hết mọi người ngoại trừ nhà sản xuất chip GPU Nvidia, và điều đó gây ra một vấn đề lớn đối với sự phát triển tiếp tục của lĩnh vực mới này, theo một học giả nổi tiếng. Gartner’s 2025 #sukienKinh doanh cần phải thích nghi ngay và nhanh chóng”Thị trường hệ sinh thái rất không lành mạnh”, ông Kai-Fu Lee nói trong một diễn đàn thảo luận riêng vào đầu tháng này. Lee đang đề cập đến sự không cân đối về lợi nhuận giữa, một phía là nhà sản xuất cơ sở hạ tầng trí tuệ nhân tạo, bao gồm Nvidia và Google, và, một phía khác, Người phát triển ứng dụng và các công ty được cung cấp dịch vụ AI để tái tạo hoạt động của họ. #suKienCông nghệ EcosiaLee, người từng là giám đốc sáng lập của Microsoft Research Asia trước khi làm việc tại Google và Apple, thành lập công ty hiện tại của mình, Sinovation Ventures, để tài trợ các startup như 01.AI, tạo ra một công cụ tìm kiếm trí tuệ nhân tạo sinh sản được gọi là BeaGo. #suKienViettelLee cho biết trong bối cảnh công nghệ AI Gen, các công ty phải xây dựng chính họ tech stack tích hợp theo chiều dọc như Apple đã làm với iPhone. Collective(i)Lời nhận định của Lee được đưa ra trong khuôn khổ dự báo Collective(i), một loạt diễn đàn thảo luận tương tác do Collective(i) tổ chức, tự xưng là “một nền tảng trí tuệ nhân tạo được thiết kế để tối ưu hóa doanh số bán hàng B2B.”Ngày nay, hệ sinh thái trí tuệ nhân tạo, theo Lee, bao gồm Nvidia, và, một phần nhỏ hơn, các nhà sản xuất chip khác như Intel và Advanced Micro Devices. Tổng cộng, các nhà sản xuất chip thu được 75 tỷ đô la doanh số chip hàng năm từ xử lý AI. “Hạ tầng đang kiếm được 10 tỷ đô la, và ứng dụng, 5 tỷ đô la,” Lee nói. “Nếu chúng ta tiếp tục trong mô hình nghịch đảo này, sẽ là một vấn đề,” ông nói. #VietAIHiện nay, các công ty sản xuất semiconductor như Nvidia kiếm tiền, trong khi các công ty nên là những người hưởng lợi cuối cùng – nhà phát triển ứng dụng và người dùng – thấy rất ít lợi nhuận. “Pyramid nghịch” là giới từ của Lee để mô tả sự đảo ngược chưa từng xảy ra trong kinh tế ngành công nghệ cổ điển. Truyền thống, người làm ứng dụng kiếm được nhiều tiền hơn so với các nhà cung cấp chip và hệ thống cung cấp cho họ. #sukienTheGioiCông nghệ Những hệ sinh thái khỏe mạnh như vậy, theo Lee, “được phát triển để các ứng dụng trở nên thành công hơn, mang lại nhiều người dùng hơn, ứng dụng kiếm nhiều tiền hơn, hạ tầng cải thiện, chip semiconductor cải thiện, và tiếp tục.” Đó chính là cách mà các hệ sinh thái phát triển không chỉ trong điện toán đám mây, theo Lee, mà còn trong lĩnh vực máy tính di động, nơi lợi thế của Apple và ARM đã tạo ra người chiến thắng ở “đỉnh của ngăn xếp” như Business quảng cáo của Facebook.  Ngược lại, “Khi các ứng dụng không kiếm được tiền, người dùng không nhận đủ lợi ích, thì bạn sẽ không tạo ra chuỗi tích cực.” #suKienTechcomasiaQuay trở lại hiện tại, Lee than phiền về tỷ lệ không cân đối trong thị trường của Nvidia. “Chúng tôi muốn Nvidia kiếm được nhiều tiền hơn, nhưng họ không thể kiếm tiền nhiều hơn so với các ứng dụng,” ông nói, đề cập đến ứng dụng trí tuệ nhân tạo. #sukienTopDevVietnamViệc phát triển của hệ sinh thái của đám mây, máy tính cá nhân và di động “rõ ràng sẽ không xảy ra ngày hôm nay” ở tỷ lệ chi tiêu hiện tại trên các GPU Nvidia, Lee nói. “Chi phí của suy luận phải giảm đi” để một hệ sinh thái khỏe mạnh có thể phát triển, ông nói. “GPT-4o1 là tuyệt vời, nhưng nó rất đắt tiền.” #suKienVietnamNetLee đến sự kiện không chỉ với một cảnh báo, nhưng còn đưa ra một “khuyến nghị thực dụng” mà ông nói có thể giải quyết thực tế kinh tế không may mắn này. #sukienHoChiMinh #sukienHaNoiÔng Khuyến nghị rằng các công ty xây dựng tech stack tích hợp theo chiều dọc của riêng họ giống như Apple đã làm với iPhone, để giảm đáng kể chi phí trí tuệ nhân tạo sinh sản. #sukienNhaMayThuongNhatCông tác xây dựng ứng dụng, bao gồm cả phần cứng và cơ sở dữ liệu mới để lưu trữ kết quả truy vấn, đã tốn cho BeaGo và nhà tài trợ của mình 100 triệu đô la, Lee nói. “Bạn phải quay trở lại các nguyên tắc cơ bản, và nói, ‘Chúng tôi muốn thực hiện suy luận siêu nhanh với chi phí cực kỳ thấp, cách tiếp cận nào nên chúng tôi chọn?” #suKienVietnamNetLee đã minh họa cách BeaGo có thể gọi lên một câu trả lời duy nhất cho một câu hỏi trong một nháy mắt. “Tốc độ tạo ra sự khác biệt,” ông nói, so sánh với những ngày đầu của Google khi công cụ tìm kiếm mới cung cấp kết quả nhanh hơn nhiều so với các công cụ đã được thiết lập như Yahoo! #sukienVietBaoLà một mô hình AI cơ sở Meta như Llama 3.01 405b, theo Lee, “sẽ không gần bằng cách hoạt động cho tình huống này.” BeaGo không chỉ có thể đạt được một tốc độ suy luận lớn hơn – thời gian mà nó mất để trả về một dự đoán trong phản hồi cho một truy vấn tìm kiếm – mà còn rẻ hơn đáng kể, Lee nói. #sukienHangNgayChi phí cho BeaGo phục vụ các truy vấn là “gần một xu mỗi truy vấn,” ông nói, “vì vậy, nó cực kỳ rẻ.”Ví dụ của BeaGo, Lee lập luận, cho thấy “những gì cần phải xảy ra để kích thích hệ sinh thái ứng dụng (AI) không sẽ xảy ra bằng cách chỉ ngồi đây sử dụng API OpenAI mới nhất, mà bởi một người mà dám đi sâu và làm tích hợp theo chiều dọc.” #sukienHaNoiNhận định u ám của Lee về hiện tại hoàn toàn trái ngược với niềm tin rằng trí tuệ nhân tạo sinh sản sẽ tạo ra một hệ sinh thái mới mà cuối cùng sẽ ngọt ngào như các thời kỳ PC, đám mây và di động.  #sukienVietAI”Trong năm hai năm tới, tất cả các ứng dụng sẽ được viết lại, và họ sẽ tạo ra giá trị cho người dùng cuối cùng,” Lee nói. “Sẽ có các ứng dụng mà trước đây không tồn tại, các thiết bị mà trước đây không tồn tại, các mô hình kinh doanh mà trước đây không tồn tại.” Mỗi bước tiến của sự phát triển đó, theo Lee, “sẽ dẫn đến nhiều việc sử dụng hơn, nhiều người dùng hơn, dữ liệu phong phú hơn, tương tác phong phú hơn, nhiều tiền có thể kiếm được.” Những người dùng đó “sẽ yêu cầu mô hình tốt hơn và họ sẽ đem lại nhiều cơ hội kinh doanh hơn,” ông nói. #surienGiaiPhapTheoLee, ông đưa ra quan điểm của mình về những ứng dụng tiêu dùng và doanh nghiệp sẽ như thế nào nếu trí tuệ nhân tạo sinh sản diễn ra thành công. Đối với người tiêu dùng, ông nói, mô hình điện thoại thông minh của ngày nay có thể sẽ biến mất.  “Hệ sinh thái ứng dụng …

Nguồn: https://www.zdnet.com/article/todays-ai-ecosystem-is-unsustainable-for-most-everyone-but-nvidia-warns-top-scholar/#ftag=RSSbaffb68

risk concept

cagkansayin/Getty Images

The economics of artificial intelligence are unsustainable for just about everyone other than GPU chip-maker Nvidia, and that poses a big problem for the new field’s continued development, according to a noted AI scholar. 

Also: Gartner’s 2025 tech trends show how your business needs to adapt – and fast

“The ecosystem is incredibly unhealthy,” said Kai-Fu Lee in a private discussion forum earlier this month. Lee was referring to the profit disparity between, on the one hand, makers of AI infrastructure, including Nvidia and Google, and, on the other hand, the application developers and companies that are supposed to use AI to reinvent their operations.

Lee, who served as founding director of Microsoft Research Asia before working at Google and Apple, founded his current company, Sinovation Ventures, to fund startups such as 01.AI, which makes a generative AI search engine called BeaGo.

kai-fu-lee-at-collective-i-2024.png

To lower the cost of Gen AI, says AI scholar Kai-Fu Lee, companies must build their own vertically-integrated tech stack the way Apple did with the iPhone.

Collective(i)

Lee’s remarks were made during the Collective(i) Forecast, an interactive discussion series organized by Collective(i), which bills itself as “an AI platform designed to optimize B2B sales.”

Today’s AI ecosystem, according to Lee, consists of Nvidia, and, to a lesser extent, other chip makers such as Intel and Advanced Micro Devices. Collectively, the chip makers rake in $75 billion in annual chip sales from AI processing. “The infrastructure is making $10 billion, and apps, $5 billion,” said Lee. “If we continue in this inverse pyramid, it’s going to be a problem,” he said.

kai-fu-lee-unhealthy-ai-ecosystem-oct-2024.png

Currently, semiconductor companies like Nvidia make all the money, while companies that should be the ultimate beneficiaries — apps makers and users — see very little profit.

Kai-Fu Lee

The “inverse pyramid” is Lee’s phrase for describing the unprecedented reversal of classic tech industry economics. Traditionally, application makers make more money than the chip and system vendors that supply them. For example, Salesforce makes more money off of CRM applications than do Dell and Intel, which build the computers and chips, respectively, to run the CRM applications in the cloud.

Also: Bank of America survey predicts massive AI lift to corporate profits

Such healthy ecosystems, said Lee, “are developed so that apps become more successful, they bring more users, apps make more money, infrastructure improves, semiconductors improve, and goes on.” That’s how things played out not only in the cloud, said Lee, but also in mobile computing, where the fortunes of Apple and ARM have produced winners at the “top of the stack” such as Facebook’s advertising business.  

Conversely, “When the apps aren’t making money, the users aren’t getting as much benefit, then you don’t form the virtuous cycle.”

Returning to the present, Lee bemoaned the lopsided nature of Nvidia’s marketplace. “We’d love for Nvidia to make more money, but they can’t make more money than apps,” he said, referring to AI apps.

The development of the ecosystems of the cloud, personal computers, and mobile “are clearly not going to happen today” at the current rate of spending on Nvidia GPUs, said Lee. “The cost of inference has to get lower” for a healthy ecosystem to flourish, he said. “GPT-4o1 is wonderful, but it’s very expensive.”

Lee came to the event with more than a warning, however, offering a “pragmatic” recommendation that he said could resolve the unfortunate economic reality. He recommended that companies build their own vertically integrated tech stack the way Apple did with the iPhone, in order to dramatically lower the cost of generative AI.

Also: The journey to fully autonomous AI agents and the venture capitalists funding them

Lee’s striking assertion is that the most successful companies will be those that build most of the generative AI components — including the chips — themselves, rather than relying on Nvidia. He cited how Apple’s Steve Jobs pushed his teams to build all the parts of the iPhone, rather than waiting for technology to come down in price. 

“We’re inspired by the iPhone,” said Lee of BeaGo’s efforts. “Steve Jobs was daring and took a team of people from many disciplines — from hardware to iOS to drivers to applications — and decided, these things are coming together, but I can’t wait until they’re all industry-standard because by then, anybody can do it,” explained Lee. 

The BeaGo app, said Lee, was not built on standard components such as OpenAI’s GPT-4o1, or Meta Platforms’s Llama 3. Rather, it was assembled as a collection of hardware and software developed in concert.  

kai-fu-lee-2024-beago-economics.png

The search engine maker Rhymes AI made its own software and hardware innovations to reduce the cost of Gen AI inference by 50x, said Lee.

Kai-Fu Lee

“Through vertical integration, (we designed) special hardware that wouldn’t work for necessarily other inference engines,” explained Lee. For example, while a GPU chip is still used for prediction-making, it has been enhanced with more main memory, known as high-bandwidth memory (HBM), to optimize the caching of data. 

Also: Businesses still ready to invest in Gen AI, with risk management a top priority

The software used for BeaGo is “not a generic model.” Without disclosing technical details, Lee said the generative AI large language model is “not necessarily the best model, but it’s the best model one could train, given the requirement for an inference engine that only works on this hardware, and excels at this hardware, and models that were trained given that it knows it would be inference on this hardware.”

Building the application — including the hardware and the novel database to cache query results, has cost BeaGo and its backers $100 million, said Lee. “You have to go back to first principles, and say, ‘We want to do super fast inference at a phenomenally lower costs, what approach should we take?’ “

Lee demonstrated how BeaGo can call up a single answer to a question in the blink of an eye. “Speed makes all the difference,” he said, comparing it to Google’s early days when the new search engine delivered results much faster than established engines such as Yahoo!

Also: AI agents are the ‘next frontier’ and will change our working lives forever

A standard foundation model AI such as Meta’s Llama 3.01 405b, said Lee, “will not even come close to working out for this scenario.” Not only is BeaGo able to achieve a greater speed of inference — the time it takes to return a prediction in response to a search query — but it’s also dramatically cheaper, said Lee. 

Today’s standard inference cost using a service such as OpenAI’s GPT-4 is $4.40 per million tokens, noted Lee. That equates to 57 cents per query — “still way too expensive, still 180 times more expensive than the cost of non-AI search,” explained Lee.

kai-fu-lee-2024-ai-era.png

Kai-Fu Lee

He was comparing the cost to Google’s standard cost per query, which is estimated to be three-tenths of one cent per query.

The cost for BeaGo to serve queries is “close to one cent per query,” he said, “so, it’s incredibly inexpensive.”

The example of BeaGo, argued Lee, shows “what needs to happen to catalyze the (AI) app ecosystem (is) not going to happen by just sitting here using the newest OpenAI API, but by someone who dares to go deep and do that vertical integration.”

Lee’s dour overview of the present contrasts with his conviction that generative AI will enable a new ecosystem that is ultimately as fruitful as the PC, cloud, and mobile eras. 

Also: The best AI chatbots: ChatGPT, Copilot, and worthy alternatives

“Over the next two years, all the apps will be re-written, and they will provide value for the end user,” said Lee. “There will be apps that didn’t exist before, devices that didn’t exist before, business models that didn’t exist before.”

Each step of that development, said Lee, “will lead to more usage, more users, richer data, richer interaction, more money to be made.” Those users “will demand better models and they will bring more business opportunities,” he said. 

“It took the mobile industry 10 years to build (a successful ecosystem),” he said. “It took the PC industry perhaps 20 years to build it; I think, with Gen AI, maybe, two years.”

Lee offered his thoughts on what the consumer and enterprise use cases will look like if generative AI plays out successfully. For consumers, he said, the smartphone model of today most likely will go away.  

“The app ecosystem is really just the first step because once we start communicating with devices by speech, then the phone really isn’t the right thing anymore because we are wanting to be always listening, always on, and phones are not.” 

Also: Think AI can solve all your business problems? Apple’s new study shows otherwise

As for app stores, said Lee, “they’ll be gone because agents will directly do things that we want, and a lot of apps and e-commerce — that will change a lot, but that’s later.”

The path for enterprise use of generative AI is going to be much more difficult than the consumer use case, hypothesized Lee, because of factors such as the entrenched nature of the business groups inside companies, as well as the difficulty of identifying the areas that will truly reap a return on investment.

“Enterprise will go slower,” he said, “because CIOs are not necessarily fully aligned with, and not necessarily fully knowledgeable about, what Gen AI can do.” 

Likewise, hooking up generative AI to data stored in ERP and CRM systems, said Lee, “is very, very tough.” The “biggest blocker” of Gen AI implementation, said Lee, “is people who are used to doing things one way and aren’t necessarily ready to embrace” new technological approaches. 

Also: AI agents are the ‘next frontier’ and will change our working lives forever

Assuming those obstacles can be surmounted, said Lee, early projects in Gen AI, such as automating routine processes, are “good places to start, but I would also say, these are not the best points to create the most value.

kai-fu-lee-2024-gen-ai-will-make-companies-more-nimble.png

Kai-Fu Lee

“Ultimately, for enterprises, I think Gen AI should become the core brain of the enterprise, not these somewhat peripheral things. For an energy company, what’s core is drilling oil, right?” Lee offered. “For a financial institution, what’s core is making money.” 

What should result, he said, is “a smaller, leaner group of leaders who are not just hiring people to solve problems, but delegating to smart enterprise AI for particular functions — that’s when this will make the biggest deal.”

Also: 6 ways to write better ChatGPT prompts – and get the results you want faster

“What’s really core is not just to save money,” said Lee, “but to make money, and not just any money, but to make money in the core, strategic part of the company’s business.”


[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *