Meta tiết lộ trung tâm dữ liệu AI mới và siêu máy tính tập trung vào tương lai ưu tiên AI. Sự kiện hôm nay tại San Francisco, do Meta tổ chức, có sự tham gia của các giám đốc điều hành hàng đầu để chia sẻ cách tích hợp và tối ưu hóa các khoản đầu tư AI để đạt được thành công. Meta đã đi tiên phong trong lĩnh vực trí tuệ nhân tạo, sử dụng nó để cung cấp năng lượng cho các sản phẩm và dịch vụ của mình nhưng khi nhu cầu về các giải pháp AI tiên tiến và có khả năng mở rộng tăng lên thì nhu cầu về cơ sở hạ tầng AI hiệu quả và sáng tạo hơn cũng tăng theo. Tại sự kiện, Meta đã công bố các dự án phần cứng và phần mềm mới nhằm hỗ trợ thế hệ ứng dụng AI tiếp theo, bao gồm trung tâm dữ liệu mới tối ưu hóa cho cả đào tạo và suy luận AI, hai giai đoạn chính của việc phát triển và chạy các mô hình AI. Meta cũng tiết lộ rằng họ đã xây dựng Research Supercluster (RSC), một siêu máy tính AI tích hợp 16.000 GPU. Các diễn giả từ Meta đã chia sẻ những hiểu biết và kinh nghiệm của họ về việc xây dựng và triển khai các hệ thống AI trên quy mô lớn. Các công ty công nghệ khác như Microsoft, Nvidia, IBM và Google cũng đang đầu tư vào cơ sở hạ tầng AI. Kích hoạt khả năng làm mát và năng lượng phù hợp để đáp ứng nhu cầu AI là động lực đằng sau các thiết kế trung tâm dữ liệu mới của Meta. #Meta #AICenter #Supercomputer #TechEvent #AIInfrastructure #AIExpansion
Tham gia cùng các giám đốc điều hành hàng đầu tại San Francisco vào ngày 11-12 tháng 7, để nghe cách các nhà lãnh đạo đang tích hợp và tối ưu hóa các khoản đầu tư AI để thành công. Tìm hiểu thêm
meta, gã khổng lồ truyền thông xã hội trước đây gọi là Facebook, đã đi tiên phong trong lĩnh vực trí tuệ nhân tạo (AI) trong hơn một thập kỷ, sử dụng nó để cung cấp năng lượng cho các sản phẩm và dịch vụ của mình như News Feed, Facebook Ads, Messenger và thực tế ảo. Nhưng khi nhu cầu về các giải pháp AI tiên tiến và có khả năng mở rộng tăng lên, thì nhu cầu về cơ sở hạ tầng AI hiệu quả và sáng tạo hơn cũng tăng theo.
tại Hạ tầng AI @ Quy mô sự kiện hôm nay — hội nghị ảo kéo dài một ngày do nhóm kỹ thuật và cơ sở hạ tầng của Meta tổ chức — công ty đã công bố một loạt dự án phần cứng và phần mềm mới nhằm hỗ trợ thế hệ ứng dụng AI tiếp theo. Sự kiện có sự góp mặt của các diễn giả từ Meta, những người đã chia sẻ những hiểu biết và kinh nghiệm của họ về việc xây dựng và triển khai các hệ thống AI trên quy mô lớn.
Trong số các thông báo có một thiết kế trung tâm dữ liệu AI mới sẽ được tối ưu hóa cho cả đào tạo và suy luận AI, hai giai đoạn chính của việc phát triển và chạy các mô hình AI. Các trung tâm dữ liệu mới sẽ tận dụng silicon riêng của Meta, bộ tăng tốc đào tạo và suy luận Meta (MTIA), một con chip giúp tăng tốc khối lượng công việc AI trên nhiều lĩnh vực khác nhau như thị giác máy tính, xử lý ngôn ngữ tự nhiên và hệ thống đề xuất
Meta cũng tiết lộ rằng họ đã xây dựng Research Supercluster (RSC), một siêu máy tính AI tích hợp 16.000 GPU để giúp đào tạo các mô hình ngôn ngữ lớn (LLM) như dự án LLaMAmà Meta đã công bố vào cuối tháng Hai.
Sự kiện
Chuyển đổi 2023
Hãy tham gia cùng chúng tôi tại San Francisco vào ngày 11-12 tháng 7, nơi các giám đốc điều hành hàng đầu sẽ chia sẻ cách họ đã tích hợp và tối ưu hóa các khoản đầu tư vào AI để đạt được thành công và tránh những cạm bẫy phổ biến.
Đăng ký ngay
“Chúng tôi đã xây dựng cơ sở hạ tầng tiên tiến cho AI trong nhiều năm nay và công việc này phản ánh những nỗ lực lâu dài sẽ tạo ra nhiều tiến bộ hơn nữa và sử dụng tốt hơn công nghệ này trong mọi việc chúng tôi làm,” CEO Mark Zuckerberg của Meta cho biết trong một tuyên bố.
Xây dựng cơ sở hạ tầng AI là cổ phần lớn vào năm 2023
Meta không phải là công ty siêu quy mô hoặc nhà cung cấp CNTT lớn duy nhất nghĩ về cơ sở hạ tầng AI được xây dựng có mục đích. Vào tháng 11, Microsoft và Nvidia công bố quan hệ đối tác cho một siêu máy tính AI trên đám mây. Hệ thống được hưởng lợi (không ngạc nhiên) từ GPU Nvidia, được kết nối với công nghệ mạng Quantum 2 InfiniBand của Nvidia.
Vài tháng sau vào tháng Hai, IBM phác thảo chi tiết của siêu máy tính AI của nó, có tên mã là Vela. Hệ thống của IBM đang sử dụng silicon x86, cùng với GPU Nvidia và mạng dựa trên ethernet. Mỗi nút trong hệ thống Vela được trang bị tám GPU A100 80GB. Mục tiêu của IBM là xây dựng các mô hình nền tảng mới có thể giúp phục vụ nhu cầu AI của doanh nghiệp.
Không chịu thua kém, Google cũng đã nhảy vào Cuộc đua siêu máy tính AI với một thông báo vào ngày 10 tháng 5. Hệ thống của Google đang sử dụng GPU Nvidia cùng với các đơn vị xử lý cơ sở hạ tầng (IPU) được thiết kế tùy chỉnh để cho phép truyền dữ liệu nhanh chóng.
Meta hiện cũng đang nhảy vào không gian silicon tùy chỉnh với chip MTIA của mình. Chip suy luận AI được xây dựng tùy chỉnh cũng không phải là một điều mới. Google đã xây dựng đơn vị xử lý tensor (TPU) trong vài năm và Amazon đã có chip suy luận AWS của riêng mình kể từ năm 2018.
Đối với Meta, nhu cầu suy luận AI mở rộng ra nhiều khía cạnh trong hoạt động của nó đối với các trang truyền thông xã hội, bao gồm nguồn cấp tin tức, xếp hạng, hiểu nội dung và đề xuất. Trong một video phác thảo về silicon MTIA, nhà khoa học nghiên cứu Meta về cơ sở hạ tầng Amin Firoozshahian đã nhận xét rằng các CPU truyền thống không được thiết kế để xử lý các yêu cầu suy luận từ các ứng dụng mà Meta chạy. Đó là lý do tại sao công ty quyết định chế tạo silicon tùy chỉnh của riêng mình.
Firoozshahian cho biết: “MTIA là một con chip được tối ưu hóa cho khối lượng công việc mà chúng tôi quan tâm và được thiết kế đặc biệt cho những nhu cầu đó.
Meta cũng là một người dùng lớn của khung máy học (ML) PyTorch nguồn mở mà nó đã tạo ra ban đầu. Kể từ năm 2022, PyTorch nằm dưới sự quản lý của Linux Foundation’s Quỹ PyTorch cố gắng. Một phần của mục tiêu với MTIA là có silicon được tối ưu hóa cao để chạy khối lượng công việc PyTorch ở quy mô lớn của Meta.
Silicon MTIA là một thiết kế quy trình 7nm (nanomet) và có thể cung cấp tới 102,4 TOPS (Nghìn tỷ hoạt động mỗi giây). MTIA là một phần của phương pháp tích hợp cao trong Meta để tối ưu hóa các hoạt động AI, bao gồm kết nối mạng, tối ưu hóa trung tâm dữ liệu và sử dụng năng lượng.
Trung tâm dữ liệu của tương lai được xây dựng cho AI
Meta đã xây dựng trung tâm dữ liệu của riêng mình trong hơn một thập kỷ để đáp ứng nhu cầu của hàng tỷ người dùng. Cho đến nay, nó vẫn hoạt động tốt, nhưng sự phát triển bùng nổ về nhu cầu AI có nghĩa là đã đến lúc phải làm nhiều hơn nữa.
“Thế hệ thiết kế trung tâm dữ liệu hiện tại của chúng tôi đạt đẳng cấp thế giới, tiết kiệm năng lượng và điện năng,” Rachel Peterson, Phó chủ tịch phụ trách chiến lược trung tâm dữ liệu tại Meta cho biết trong một cuộc thảo luận bàn tròn tại sự kiện quy mô Infra @. “Nó thực sự đã hỗ trợ chúng tôi thông qua nhiều thế hệ máy chủ, bộ lưu trữ và mạng và nó thực sự có thể phục vụ khối lượng công việc AI hiện tại của chúng tôi rất tốt.”
Khi việc sử dụng AI phát triển trên Meta, sẽ cần nhiều năng lực tính toán hơn. Peterson lưu ý rằng Meta nhìn thấy một tương lai nơi các chip AI dự kiến sẽ tiêu thụ nhiều năng lượng hơn gấp 5 lần so với các máy chủ CPU thông thường của Meta. Kỳ vọng đó đã khiến Meta suy nghĩ lại về việc làm mát trung tâm dữ liệu và cung cấp khả năng làm mát bằng chất lỏng cho các chip nhằm mang lại mức hiệu quả năng lượng phù hợp. Kích hoạt khả năng làm mát và năng lượng phù hợp để kích hoạt AI là động lực đằng sau các thiết kế trung tâm dữ liệu mới của Meta.
Peterson nói: “Khi chúng ta hướng tới tương lai, chúng ta luôn phải lập kế hoạch cho tương lai của hệ thống và phần cứng AI cũng như cách chúng ta có thể có những hệ thống hiệu suất cao nhất trong đội ngũ của mình.
Sứ mệnh của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số để những người ra quyết định kỹ thuật có được kiến thức về công nghệ doanh nghiệp chuyển đổi và giao dịch. Khám phá Briefings của chúng tôi.