Điểm qua mô hình cơ sở hạ tầng AI mới: Đám mây, edge hay on-prem?

Đám mây, edge hay on-prem? Điều hướng mô hình hạ tầng trí tuệ nhân tạo mới Tham gia cùng chúng tôi qua các bản tin hàng ngày và hàng tuần để nhận những cập nhật mới nhất và nội dung độc quyền về trực tiếp về trí tuệ nhân tạo hàng đầu trong ngành. Tìm hiểu thêm. Bài viết này là một phần của Mục đặc biệt của VB có tên “Phù hợp với mục đích: Tuỳ chỉnh hạ tầng AI.” Đọc tất cả các câu chuyện khác ở đây. Không nghi ngờ, hạ tầng dữ liệu doanh nghiệp tiếp tục chuyển đổi với sự đổi mới công nghệ – đặc biệt là ngày nay do trí tuệ nhân tạo phát sinh đòi hỏi dữ liệu và tài nguyên lớn. Khi gen AI thay đổi từng ngày doanh nghiệp chính mình, các nhà lãnh đạo tiếp tục đối mặt với câu hỏi về đám mây/edge/on-prem. Một mặt, họ cần truy cập gần như ngay lập tức đến dữ liệu; mặt khác, họ cần biết rằng dữ liệu đó được bảo vệ. Đối mặt với nỗi trăn trở này, ngày càng có nhiều doanh nghiệp nhận thức được mô hình lai là hướng đi tiếp theo, khi họ có thể tận dụng các ưu điểm khác nhau mà mô hình đám mây, edge và on-prem cung cấp. Ví dụ: 85% nhà mua đám mây đã triển khai hoặc đang trong quá trình triển khai một hệ thống đám mây lai, theo IDC. “Con lắc giữa edge và đám mây và tất cả các hương vị lai giữa đã liên tục thay đổi trong thập kỷ qua,” Priyanka Tembey, cộng sáng lập và Giám đốc Công nghệ tại công ty bảo mật ứng dụng chạy thời gian Operant, nói với VentureBeat. “Có một số trường hợp sắp tới mà tính toán có thể hưởng lợi từ việc chạy gần hơn với edge, hoặc như một sự kết hợp của edge cộng với đám mây theo cách lai.” Đừng bỏ qua số đặc biệt của chúng tôi: Phù hợp với mục đích: Tuỳ chỉnh hạ tầng AI. Con lắc hạ tầng dữ liệu chuyển đổi Lâu nay, đám mây được liên kết với các trung tâm dữ liệu quy mô lớn – nhưng đó không còn là trường hợp nữa, như Dave McCarthy, Phó Tổng giám đốc Nghiên cứu và Tổng giám đốc Nghiên cứu toàn cầu cho dịch vụ đám mây và edge của IDC giải thích. “Các tổ chức đang nhận ra rằng đám mây là một mô hình vận hành có thể triển khai mọi nơi,” ông nói. “Đám mây đã tồn tại đủ lâu để khách hàng suy nghĩ lại kiến trúc của họ,” ông nói. “Điều này mở cánh cửa cho cách mới để tận dụng hệ thống đám mây lai và edge computing để tối đa hóa giá trị của trí tuệ nhân tạo.” Nhất là, trí tuệ nhân tạo đang thúc đẩy sự chuyển đổi sang đám mây lai và edge vì các mô hình cần ngày càng nhiều năng lực tính toán cũng như truy cập đến các bộ dữ liệu lớn, Miguel Leon, Giám đốc Cấp cao tại công ty hiện đại hóa ứng dụng WinWire, lưu ý. “Sự kết hợp của đám mây lai, edge computing và trí tuệ nhân tạo đang thay đổi cách mà cảnh cảnh công nghệ,” ông nói với VentureBeat. “Khi trí tuệ nhân tạo tiếp tục tiến triển và trở thành một công nghệ nhúng chính thức cho mọi doanh nghiệp, mối liên kết của nó với đám mây lai và edge computing sẽ càng trở nên sâu sắc hơn.” Edge giải quyết các vấn đề mà đám mây một mình không thể theo IDC, dự đoán chi tiêu vào edge sẽ đạt 232 tỷ USD trong năm nay. Sự tăng trưởng này có thể được đặc biệt vào nhiều yếu tố, McCarthy lưu ý – mỗi một trong số đó giải quyết một vấn đề mà máy tính đám mây không thể giải quyết một mình. Một trong những vấn đề quan trọng nhất là ứng dụng nhạy cảm với độ trễ. “Dù do mạng lưới hoặc số lần giữa điểm cuối và máy chủ, độ trễ biểu thị một sự chậm trễ,” McCarthy giải thích. Ví dụ, hệ thống kiểm tra chất lượng dựa trên thị giác được sử dụng trong sản xuất đòi hỏi phản ứng thời gian thực đến các hoạt động trên dây chuyền sản xuất. “Đây là tình huống mà mili giây quan trọng, yêu cầu một hệ thống edge cục bộ,” ông nói. “Edge computing xử lý dữ liệu gần nơi nó được tạo ra, giảm độ trễ và làm cho doanh nghiệp linh hoạt hơn,” Leon đồng ý. Nó cũng hỗ trợ các ứng dụng trí tuệ nhân tạo cần xử lý dữ liệu nhanh chóng cho nhiệm vụ như nhận dạng hình ảnh và bảo trì dự đoán. Edge cũng có ích cho các môi trường kết nối hạn chế, chẳng hạn như thiết bị internet của vật với khả năng di chuyển và di chuyển ra khỏi vùng phủ sóng hoặc gặp phải băng thông giới hạn, McCarthy lưu ý. Trong một số trường hợp – xe tự hành, chẳng hạn – trí tuệ nhân tạo phải hoạt động ngay cả khi mạng không khả dụng. Một vấn đề khác rộng rãi trong tất cả các môi trường máy tính là dữ liệu – và nhiều dữ liệu. Theo ước lượng mới nhất, mỗi ngày tạo ra khoảng 328,77 triệu terabyte dữ liệu. Đến năm 2025, lượng dữ liệu dự kiến sẽ tăng lên hơn 170 zettabytes, đại diện cho một tăng trưởng hơn 145 lần trong 15 năm. Vì biến đổi dữ liệu trong các vị trí xa càng tăng, chi phí liên quan đến truyền dữ liệu đến một trung tâm lưu trữ trung tâm cũng tiếp tục tăng lên, McCarthy lưu ý. Tuy nhiên, trong trường hợp của trí tuệ nhân tạo dự đoán, hầu hết dữ liệu chi phí không cần phải được lưu trữ lâu dài. “Một hệ thống edge computing có thể xác định những dữ liệu nào cần phải giữ lại,” ông nói. Cũng vì lý do này, McCarthy lưu ý, liệu có thể quy định nơi dữ liệu có thể tồn tại, McCarthy nói. Khi chính phủ tiếp tục thúc đẩy luật lệ về chủ quyền dữ liệu, doanh nghiệp ngày càng đối mặt với thách thức về tuân thủ. Điều này có thể xảy ra khi hạ tầng đám mây hoặc trung tâm dữ liệu nằm ngoài vùng giới hạn địa phương. Edge cũng có ích ở đây, nói nữa, Với các sáng kiến trí tuệ nhân tạo nhanh chóng chuyển từ thử nghiệm chứng minh thành triển khai sản xuất, khả năng mở rộng trở thành một vấn đề lớn khác. “Dòng chảy của dữ liệu có thể áp đảo hạ tầng cốt lõi,” ông McCarthy. Ông giải thích rằng, vào những ngày đầu của internet, mạng phân phát nội dung (CDNs) đã được tạo ra để cache nội dung gần hơn với người dùng. “Edge computing sẽ làm điều tương tự cho trí tuệ nhân tạo,” ông nói. Ưu điểm và cách sử dụng của các mô hình lai Các môi trường đám mây khác nhau có những lợi ích khác nhau, tất nhiên. Ví dụ, McCarthy lưu ý, việc tự động co giãn để đáp ứng yêu cầu sử dụng cực đỉnh là “tuyệt vời” cho đám mây công cộng. Trong khi đó, các trung tâm dữ liệu on-premises và môi trường đám mây riêng có thể giúp bảo mật và cung cấp kiểm soát tốt hơn đối với dữ liệu độc quyền. Edge, theo cách của nó, cung cấp tính linh hoạt và hiệu suất tại hiện trường. Mỗi loại đóng góp của nó vào kiến trúc tổng thể của một doanh nghiệp. “Lợi ích của mô hình đám mây lai là nó cho phép bạn chọn công cụ phù hợp cho công việc,” ông McCarthy. Ông chỉ ra nhiều trường hợp sử dụng cho các mô hình lai: Ví dụ, trong ngành tài chính, các hệ thống mainframe có thể được tích hợp với môi trường đám mây để các tổ chức có thể duy trì trung tâm dữ liệu của riêng mình cho các hoạt động ngân hàng trong khi tận dụng đám mây để truy cập web và di động dành cho khách hàng. Trong khi đó, trong ngành bán lẻ, hệ thống cục bộ tại cửa hàng có thể tiếp tục xử lý giao dịch điểm bán hàng và quản lý tồn kho độc lập với đám mây nếu xảy ra sự cố về điện. Nó sẽ trở nên người quan trọng hơn khi những nhà bán lẻ này triển khai các hệ thống trí tuệ nhân tạo để theo dõi hành vi của khách hàng và ngăn chặn việc mất hàng,” ông McCarthy nói. Tembey cũng chỉ ra rằng một phương pháp lai với sự kết hợp của trí tuệ nhân tạo chạy cục bộ trên thiết bị, tại edge và trong các mô hình lớn hơn riêng tư hoặc công cộng bằng các phương pháp cô lập nghiêm ngặt có thể giữ gìn dữ liệu nhạy cảm. Không có nghĩa là không có điểm tiêu cực – McCarthy chỉ ra rằng, ví dụ, lai có thể tăng cường sự phức tạp quản trị, đặc biệt là trong môi trường pha trộn các nhà cung cấp. “Đó là một lý do mà các nhà cung cấp đám mây đã mở rộng nền tảng của họ đến cả vị trí on-prem và edge,” ông nói, bổ sung rằng các nhà sản xuất thiết bị gốc (OEMs) và các nhà cung cấp phần mềm độc lập (ISVs) cũng ngày càng tích hợp với các nhà cung cấp đám mây. Thú vị là, cùng một thời điểm, 80% người tham gia khảo sát của IDC cho biết họ đã hoặc dự định chuyển một số tài nguyên đám mây công cộng trở lại on-prem. “Một thời gian dài, các nhà cung cấp đám mây đã cố gắng thuyết phục khách hàng rằng các trung tâm dữ liệu on-premises sẽ biến mất và tất cả mọi thứ sẽ chạy trong đám mây quy mô lớn,” McCarthy lưu ý. “Điều đó đã chứng minh không đúng.” Xin hãy đọc tin tức hàng ngày của chúng tôi. By subscribing, you agree to VentureBeat’s Terms of Service. Thanks for subscribing. Check out more VB newsletters here. An error occured. #CloudComputing #HybridCloud #EdgeComputing #AIInfrastructure. Nguồn: https://venturebeat.com/ai/cloud-edge-or-on-prem-navigating-the-new-ai-infrastructure-paradigm/

Join our daily and weekly newsletters for the latest updates and exclusive content on industry-leading AI coverage. Learn More


This article is part of a VB Special Issue called “Fit for Purpose: Tailoring AI Infrastructure.” Catch all the other stories here.

No doubt, enterprise data infrastructure continues to transform with technological innovation — most notably today due to data-and-resource hungry generative AI. 

As gen AI changes the enterprise itself, leaders continue to grapple with the cloud/edge/on-prem question. On the one hand, they need near-instant access to data; on the other, they need to know that that data is protected. 

As they face this conundrum, more and more enterprises are seeing hybrid models as the way forward, as they can exploit the different advantages of what cloud, edge and on-prem models have to offer. Case in point: 85% of cloud buyers are either deployed or in the process of deploying a hybrid cloud, according to IDC. 

“The pendulum between the edge and the cloud and all the hybrid flavors in between has kept shifting over the past decade,” Priyanka Tembey, co-founder and CTO at runtime application security company Operant, told VentureBeat. “There are quite a few use cases coming up where compute can benefit from running closer to the edge, or as a combination of edge plus cloud in a hybrid manner.”

>>Don’t miss our special issue: Fit for Purpose: Tailoring AI Infrastructure.<<

The shifting data infrastructure pendulum

For a long time, cloud was associated with hyperscale data centers — but that is no longer the case, explained Dave McCarthy, research VP and global research lead for IDC’s cloud and edge services. “Organizations are realizing that the cloud is an operating model that can be deployed anywhere,” he said. 

“Cloud has been around long enough that it is time for customers to rethink their architectures,” he said. “This is opening the door for new ways of leveraging hybrid cloud and edge computing to maximize the value of AI.”

AI, notably, is driving the shift to hybrid cloud and edge because models need more and more computational power as well as access to large datasets, noted Miguel Leon, senior director at app modernization company WinWire

“The combination of hybrid cloud, edge computing and AI is changing the tech landscape in a big way,” he told VentureBeat. “As AI continues to evolve and becomes a de facto embedded technology to all businesses, its ties with hybrid cloud and edge computing will only get deeper and deeper.”

Edge addresses issues cloud can’t alone

According to IDC research, spending on edge is expected to reach $232 billion this year. This growth can be attributed to several factors, McCarthy noted — each of which addresses a problem that cloud computing can’t solve alone. 

One of the most significant is latency-sensitive applications. “Whether introduced by the network or the number of hops between the endpoint and server, latency represents a delay,” McCarthy explained. For instance, vision-based quality inspection systems used in manufacturing require real-time response to activity on a production line. “This is a situation where milliseconds matter, necessitating a local, edge-based system,” he said. 

“Edge computing processes data closer to where it’s generated, reducing latency and making businesses more agile,” Leon agreed. It also supports AI apps that need fast data processing for tasks like image recognition and predictive maintenance.

Edge is beneficial for limited connectivity environments, as well, such as internet of things (IoT) devices that may be mobile and move in and out of coverage areas or experience limited bandwidth, McCarthy noted. In certain cases — autonomous vehicles, for one — AI must be operational even if a network is unavailable. 

Another issue that spans all computing environments is data — and lots of it. According to the latest estimates, approximately 328.77 million terabytes of data are generated every day. By 2025, the volume of data is expected to increase to more than 170 zettabytes, representing a more than 145-fold increase in 15 years. 

As data in remote locations continues to increase, costs associated with transmitting it to a central data store also continue to grow, McCarthy pointed out. However, in the case of predictive AI, most inference data does not need to be stored long-term. “An edge computing system can determine what data is necessary to keep,” he said. 

Also, whether due to government regulation or corporate governance, there can be restrictions to where data can reside, McCarthy noted. As governments continue to pursue data sovereignty legislation, businesses are increasingly challenged with compliance. This can occur when cloud or data center infrastructure is located outside a local jurisdiction. Edge can come in handy here, as well, 

With AI initiatives quickly moving from proof-of-concept trials to production deployments, scalability has become another big issue. 

“The influx of data can overwhelm core infrastructure,” said McCarthy. He explained that, in the early days of the internet, content delivery networks (CDNs) were created to cache content closer to users. “Edge computing will do the same for AI,” he said. 

Benefits and uses of hybrid models

Different cloud environments have different benefits, of course. For example, McCarthy noted, that auto-scaling to meet peak usage demands is “perfect” for public cloud. Meanwhile, on-premises data centers and private cloud environments can help secure and provide better control over proprietary data. The edge, for its part, provides resiliency and performance in the field. Each plays its part in an enterprise’s overall architecture.

“The benefit of a hybrid cloud is that it allows you to choose the right tool for the job,” said McCarthy. 

He pointed to numerous use cases for hybrid models: For instance, in financial services, mainframe systems can be integrated with cloud environments so that institutions can maintain their own data centers for banking operations while leveraging the cloud for web and mobile-based customer access. Meanwhile, in retail, local in-store systems can continue to process point-of-sale transactions and inventory management independently of the cloud should an outage occur. 

“This will become even more important as these retailers roll out AI systems to track customer behavior and prevent shrinkage,” said McCarthy. 

Tembey also pointed out that a hybrid approach with a combination of AI that runs locally on a device, at the edge and in larger private or public models using strict isolation techniques can preserve sensitive data.

Not to say that there aren’t downsides — McCarthy pointed out that, for instance, hybrid can increase management complexity, especially in mixed vendor environments. 

“That is one reason why cloud providers have been extending their platforms to both on-prem and edge locations,” he said, adding that original equipment manufacturers (OEMs) and independent software vendors (ISVs) have also increasingly been integrating with cloud providers. 

Interestingly, at the same time, 80% of respondents to an IDC survey indicated that they either have or plan to move some public cloud resources back on-prem.  

“For a while, cloud providers tried to convince customers that on-premises data centers would go away and everything would run in the hyperscale cloud,” McCarthy noted. “That has proven not to be the case.”

[ad_2]

Leave a Reply

Your email address will not be published. Required fields are marked *