Có đủ GPU để khai thác tiềm năng của Trí tuệ Nhân tạo không?
Trong năm 2023, ít công nghệ nào thu hút được nhiều sự chú ý, sự đspeculation và hứa hẹn như AI. Chúng ta đang sống trong một chu kỳ hype AI chưa từng có. Theo một số cách, thời điểm này giống như cơn sốt vàng hiện đại, khi những người sáng tạo, nhà đầu tư và doanh nhân tranh nhau khai thác tiềm năng và hứa hẹn của công nghệ này. Như cơn sốt vàng của California trong thế kỷ 19, cuộc sống hiện tại đã tạo ra hai loại doanh nhân. Một số người đang làm việc chăm chỉ để tận dụng AI để theo đuổi những “vấn đề lớn tiếp theo” trong lĩnh vực công nghệ. Người khác đang bán như những cây búa và những chiếc cái hay thậm chí là như những tấm áo mưa.
Lượng cầu GPU gia tăng trong bối cảnh nguồn cung giới hạn
Với sự yêu cầu về AI tiên tiến là một sự khát khao không thể nguôi tắt đối với GPU (Video xử lý đồ họa), một thiết bị cần thiết để thúc đẩy công nghệ này. Nvidia là một nhà lãnh đạo vô địch trong lĩnh vực này, vừa vượt qua dự báo của Wall Street và đưa giá trị công ty lên trên 1 nghìn tỷ đô la.
Tuy nhiên, đồng thời, nguồn cung của GPU lại hạn chế, đe dọa làm suy giảm tác động của AI ngay khi tiềm năng thực tế của nó đạt đến điểm cao nhất. Trước đây, GPU đã rất phổ biến trong cộng đồng người chơi trò chơi điện tử và những người yêu thích máy tính. Tuy nhiên, trong đại dịch COVID-19, việc đào tiền mã số như Bitcoin trở nên phổ biến. Các loại tiền tệ này yêu cầu sức mạnh tính toán đáng kể, và GPU rất phù hợp cho nhiệm vụ này. Khi giá trị của các loại tiền số tăng mạnh, nhiều người bắt đầu khai thác tiền mã số đó, tạo ra một nhu cầu lớn về GPU. Nhu cầu còn bị hạn chế hơn nữa bởi các doanh nghiệp lợi dụng cơ hội, thậm chí bao gồm những kẻ thâu tóm, thường sử dụng bot tự động để mua GPU một cách nhanh chóng. Theo Goldman Sachs, sự thiếu hụt GPU toàn cầu do đại dịch đã ảnh hưởng đến 169 ngành công nghiệp.
Chúng ta có đủ GPU không?
Giờ đây, sự phát triển của các dự án học sâu quy mô lớn và các ứng dụng AI đang đẩy nhu cầu đến đỉnh điểm. Nhưng sản xuất hiện tại và sự có sẵn của GPU lại không đủ để thể hiện tiềm năng không ngừng phát triển của AI. Nhiều doanh nghiệp đang đối mặt với thách thức trong việc có được phần cứng cần thiết cho hoạt động của họ, khiến khả năng sáng tạo của họ bị suy giảm.
Trong khi những nhà sản xuất tiếp tục tăng sản lượng GPU, nhiều công ty đã bị hạn chế về khả năng truy cập GPU. Theo Fortune, CEO của OpenAI, Sam Altman, đã công khai thừa nhận rằng sự hạn chế nguồn cung GPU đã ảnh hưởng đến hoạt động của công ty. Trong một cuộc điều trần tại Quốc hội, Altman khẳng định rằng sản phẩm sẽ tốt hơn nếu ít người sử dụng chúng vì thiếu hụt công nghệ làm giảm hiệu suất. Theo The Wall Street Journal, các nhà sáng lập AI và doanh nhân đang “ăn van” với các nhân viên bán hàng tại Amazon và Microsoft để đòi thêm công suất. Điều này đã khiến một số công ty mua một lượng lớn khả năng tính toán đám mây để dành cho các cơ hội trong tương lai.
Cách doanh nghiệp có thể thích nghi
Các doanh nghiệp không thể đợi kỹ thuật sản xuất và chuỗi cung ứng bắt kịp với nhu cầu gia tăng. Tuy nhiên, họ có thể thích nghi với cách tiếp cận của mình để giảm yêu cầu chip và tối đa hóa cơ hội sáng tạo. Dưới đây là cách.
Xem xét các giải pháp khác
Không mọi vấn đề đều đòi hỏi AI và khả năng tính toán cần thiết từ GPU. Ví dụ, các công ty có thể tận dụng các giải pháp tính toán khác cho các nhiệm vụ như tiền xử lý dữ liệu và engineering đặc trưng. Những nhiệm vụ này thường được thực hiện trước khi huấn luyện mô hình và có thể được thực hiện trên CPU mà không làm gánh nặng tính toán lớn. Đồng thời, việc duy trì dự báo bảo trì, một ứng dụng thường gặp của AI trong đó các thuật toán phân tích dữ liệu từ cảm biến để dự đoán hỏng hóc thiết bị, có thể được quản lý bởi các giải pháp tính toán ít mạnh hơn.
Trong một số trường hợp, các mô hình AI đơn giản hơn hoặc phương pháp dựa trên quy tắc có thể đáp ứng đủ yêu cầu để xác định nhu cầu bảo trì, giảm thiểu nhu cầu về việc triển khai AI phức tạp. Tương tự, các phương pháp phân tích hình ảnh và video dựa trên AI đã nhận được sự quan tâm lớn, nhưng không phải ứng dụng nào cũng cần AI để đạt được kết quả chính xác. Các nhiệm vụ như phân loại hình ảnh đơn giản hoặc nhận dạng đối tượng cơ bản thường có thể đạt được bằng các phương pháp và thuật toán thị giác máy tính truyền thống mà không cần đến mô hình học sâu phức tạp. Cuối cùng, trong khi AI có thể cung cấp khả năng phân tích dữ liệu tiên tiến, các công ty đôi khi vội vàng áp dụng các nền tảng phân tích dữ liệu dựa trên AI mà không cẩn thận đánh giá cơ sở hạ tầng dữ liệu hiện có và nhu cầu của họ. Trong một số trường hợp, các công cụ thông tin kinh doanh truyền thống hoặc các phương pháp thống kê đơn giản có thể đủ để phân tích dữ liệu và rút ra thông tin mà không cần đến sự phức tạp của AI.
Phát triển thuật toán AI hiệu quả hơn
Các thuật toán AI hiệu quả hơn có thể giảm công suất xử lý cần thiết cho các ứng dụng AI, giúp giảm yêu cầu về GPU. Ví dụ, học chuyển giao (transfer learning), cho phép tận dụng các mô hình đã được đào tạo trước cho các tác vụ cụ thể, có thể được tinh chỉnh trên máy dựa trên CPU cho các ứng dụng cụ thể, ngay cả khi ban đầu chúng được đào tạo trên GPU. Phương pháp này có thể hữu ích đặc biệt đối với các kịch bản với tài nguyên tính toán hạn chế. Máy vector hỗ trợ (Support vector machines – SVMs) và bộ phân lớp Naive Bayes (Naive Bayes classifiers) là những thuật toán học máy mạnh mẽ khác có thể được sử dụng cho các tác vụ phân loại và hồi quy. SVMs và bộ phân lớp Naive Bayes có thể được đào tạo trên CPU mà không cần GPU.
Tìm các cách thay thế
Nguồn: https://venturebeat.com/ai/do-we-have-enough-gpus-to-manifest-ais-potential/
VentureBeat presents: AI Unleashed – An exclusive executive event for enterprise data leaders. Network and learn with industry peers. Learn More
In 2023, few technologies have garnered as much attention, speculation and promise as AI. We are undoubtedly in the midst of an unprecedented AI hype cycle.
In some ways, the moment is akin to a modern-day gold rush as innovators, investors and entrepreneurs clamor to capitalize on the technology’s promise and potential.
Like California’s 19th-century gold rush, today’s frenzy has produced two types of entrepreneurs. Some are working hard to leverage AI to pursue the often elusive “next big thing” in tech. Others are selling proverbial picks and shovels.
Accelerating GPU demand among limited supply
With this demand for advanced AI is an insatiable appetite for Graphics Processing Units (GPUs) that fuel the technology. Nvidia is an undisputed leader in this area, having recently exceeded Wall Street projections and pushing its valuation above $1 trillion.
Event
AI Unleashed
An exclusive invite-only evening of insights and networking, designed for senior enterprise executives overseeing data stacks and strategies.
Yet at the same time, there is a limited supply of GPUs, threatening to dampen AI’s impact just as its real-world potential reaches a fever pitch.
Once largely popular among videogame players and computer hobbyists, GPUs saw surging demand during the pandemic as cryptocurrencies like Bitcoin became popular. These digital currencies require substantial computational power, and GPUs are well-suited for the task. As the value of cryptocurrencies surged, many people started mining them, creating a massive demand for GPUs.
Supply was further constrained by opportunistic businesses including scalpers, which often employ automated bots to rapidly purchase GPUs.
According to Goldman Sachs, the pandemic’s global GPU shortage impacted 169 industries.
Do we have enough GPUs?
Now, the rise of large-scale deep learning projects and AI applications is pushing demand to a fever pitch.
But the current production and availability of GPUs is insufficient to manifest AI’s ever-evolving potential. Many businesses face challenges in obtaining the necessary hardware for their operations, dampening their capacity for innovation.
As manufacturers continue ramping up GPU unit production, many companies are already being hobbled by GPU accessibility.
According to Fortune, OpenAI CEO Sam Altman privately acknowledged that GPU supply constraints were impacting the company’s business.
In a Congressional hearing, Altman asserted that products would be better if fewer people used them because technology shortages slow performance.
The Wall Street Journal reports that AI founders and entrepreneurs are “begging sales people at Amazon and Microsoft for more power.” This has prompted some companies to purchase immense amounts of cloud computing capacity to reserve for future opportunities.
How enterprises can adapt
Enterprises can’t wait for manufacturing techniques and supply chains to catch up with surging demand. However, they can adapt their approach to reduce chip demand and maximize innovation opportunities. Here’s how.
Consider other solutions
Not every problem requires AI, and its accompanying GPU-hungry computing capacity.
For example, companies can leverage other computing solutions for things like data preprocessing and featuring engineering. CPU-based machines can efficiently handle data preprocessing tasks such as data cleaning, feature scaling and feature extraction.
These tasks are often performed before training a model and can be executed on CPUs without significant computational overhead.
At the same time, predictive maintenance, a common use case for AI where algorithms analyze sensor data to predict equipment failures, can be managed by less-capable computing solutions.
Not all equipment or systems require advanced AI models for accurate predictions. In some cases, simpler statistical or rule-based approaches may be sufficient to identify maintenance needs, reducing the need for complex AI implementations.
Similarly, AI-powered image and video analysis techniques have gained significant attention, but not all applications require AI for accurate results. Tasks like simple image categorization or basic object recognition can often be achieved with traditional computer vision techniques and algorithms without the need for complex deep-learning models.
Finally, while AI can provide advanced analytics capabilities, companies sometimes rush to adopt AI-driven analytics platforms without carefully assessing their existing data infrastructure and needs. In some cases, traditional business intelligence tools or simpler statistical methods might be sufficient to derive insights from data without the need for AI complexity.
Develop more efficient AI algorithms
More efficient AI algorithms could reduce the processing power required for AI applications, making GPUs less necessary.
For instance, transfer learning, which allows leveraging pre-trained models for specific tasks, can be fine-tuned on CPU-based machines for specific applications, even if they were originally trained on GPUs. This approach can be particularly useful for scenarios with limited computational resources.
Support vector machines (SVMs) and Naive Bayes classifiers are other powerful machine learning (ML) algorithms that can be used for classification and regression tasks. SVMs and Naive Bayes classifiers can be trained on a CPU and do not require a GPU.
Find alternative ways to power AI applications
Exploring alternative hardware to power AI applications presents a viable route for organizations striving for efficient processing. Depending on the specific AI workload requirements, CPUs, field-programmable gate arrays (FPGAs), and application-specific integrated circuits (ASICs) may be excellent alternatives.
FPGAs, which are known for their customizable nature, and ASICs, specifically designed for a particular use case, both have the potential to effectively handle AI tasks. However, it’s crucial to note that these alternatives might exhibit different performance characteristics and trade-offs.
For instance, while FPGAs offer flexibility and r-programmability, they may not provide the raw computational power of GPUs. Similarly, while delivering high performance, ASICs lack the flexibility of FPGAs or GPUs. Therefore, a careful evaluation is essential before choosing the right hardware for specific AI tasks.
Moreover, outsourcing GPU processing to cloud or computing providers is another plausible solution for companies seeking efficient and scalable AI computation.
GPUs aren’t the only solution for high-performance computing. Depending on the specific AI workload, companies can explore alternative hardware accelerators that can deliver comparable results even when GPU hardware is scarce.
Panning for GPU gold in the stream of AI
The incredible growth of AI and its associated technologies like deep learning, along with the surge in gaming, content creation and cryptocurrency mining, has created a profound GPU shortage that threatens to stall an era of innovation before it truly begins.
This modern-day Gold Rush towards AI will require companies to adapt to operational realities, becoming more innovative, agile and responsive in the process. In this way, the GPU shortage presents both a challenge and an opportunity.
Companies willing to adapt will be best positioned to thrive, while those that can’t think outside the box will be stuck mining for gold without a pick and ax.
Ab Gaur is founder and CEO of Verticurl and chief data and technology officer at Ogilvy.
DataDecisionMakers
Welcome to the VentureBeat community!
DataDecisionMakers is where experts, including the technical people doing data work, can share data-related insights and innovation.
If you want to read about cutting-edge ideas and up-to-date information, best practices, and the future of data and data tech, join us at DataDecisionMakers.
You might even consider contributing an article of your own!