#GamesBeatSummit2023: Sản xuất Siêu chip Grace Hopper của Nvidia cho trí tuệ nhân tạo đã hoàn tất và sẽ được hỗ trợ bởi hơn 400 cấu hình hệ thống CPU và GPU mới nhất của Nvidia, như Nvidia Grace, Nvidia Hopper và Nvidia Ada Lovelace. Siêu chip GH200 Grace Hopper kết hợp kiến trúc CPU Nvidia Grace dựa trên Arm và GPU Hopper bằng công nghệ kết nối Nvidia NVLink-C2C để cung cấp khả năng xử lý các ứng dụng AI và HPC phức tạp đòi hỏi khắt khe nhất. #Nvidia #AI #HPC #trítuệnhântạo
Tại triển lãm Computex ở Đài Loan, Nvidia tiết lộ các hệ thống mới và chi tiết bổ sung về Siêu chip GH200 Grace Hopper, cùng với các đối tác và hỗ trợ của họ. Nhiều khách hàng như các trung tâm siêu máy tính và siêu máy tính toàn cầu ở Châu Âu và Hoa Kỳ cũng được hỗ trợ bởi Siêu chip GH200. #Computex #SiêuchipGH200GraceHopper
Nvidia cũng đã công bố Nvidia Thông số kỹ thuật máy chủ MGX, cung cấp cho các nhà sản xuất hệ thống kiến trúc tham chiếu mô-đun để xây dựng hơn 100 biến thể máy chủ, nhằm đáp ứng nhu cầu điện toán tăng tốc đa dạng của các trung tâm dữ liệu. Các hệ thống với MGX dự kiến sẽ có sẵn vào cuối năm nay. #MGX #Nvidia #AI #điệntoántăngtốc
Nvidia cũng công bố siêu máy tính AI bộ nhớ lớn mới — Nvidia DGX GH200 để tối ưu hóa hệ thống AI và HPC, đảm bảo tương thích đa thế hệ cho các sản phẩm của Nvidia. #Nvidia #AI #HPC #SiêumáytínhDGXGH200
Kết nối với các nhà lãnh đạo trò chơi hàng đầu ở Los Angeles tại GamesBeat Summit 2023 vào ngày 22-23 tháng 5 này. Đăng ký ở đây.
Nvidia thông báo rằng Nvidia GH200 Siêu chip Grace Hopper đang được sản xuất đầy đủ, được thiết lập để cung cấp năng lượng cho các hệ thống chạy các chương trình AI phức tạp.
Ngoài khối lượng công việc tính toán hiệu năng cao và được nhắm mục tiêu (HPC), các hệ thống được hỗ trợ bởi GH200 tham gia hơn 400 cấu hình hệ thống dựa trên kiến trúc CPU và GPU mới nhất của Nvidia — bao gồm Nvidia Grace, Nvidia Hopper và Nvidia Ada Lovelace — được tạo ra để giúp đáp ứng nhu cầu ngày càng tăng cho AI sáng tạo.
Tại triển lãm thương mại Computex ở Đài Loan, Giám đốc điều hành Nvidia Jensen Huang tiết lộ các hệ thống mới, đối tác và các chi tiết bổ sung xung quanh Siêu chip GH200 Grace Hopper, kết hợp kiến trúc CPU Nvidia Grace dựa trên Arm và GPU Hopper bằng công nghệ kết nối Nvidia NVLink-C2C.
Điều này mang lại tổng băng thông lên tới 900GB/giây — hoặc băng thông cao hơn bảy lần so với các làn PCIe Gen5 tiêu chuẩn có trong các hệ thống tăng tốc truyền thống, cung cấp khả năng điện toán đáng kinh ngạc để xử lý các ứng dụng AI và HPC phức tạp đòi hỏi khắt khe nhất.
Sự kiện
Hội nghị thượng đỉnh GamesBeat 2023
Tham gia cộng đồng GamesBeat cho ngày ảo và nội dung theo yêu cầu của chúng tôi! Bạn sẽ được nghe những bộ óc thông minh nhất trong ngành công nghiệp trò chơi chia sẻ thông tin cập nhật của họ về những phát triển mới nhất.
Đăng ký ở đây
Ian Buck, phó chủ tịch bộ phận điện toán tăng tốc của Nvidia, cho biết: “AI sáng tạo đang chuyển đổi nhanh chóng các doanh nghiệp, mở ra những cơ hội mới và tăng tốc khám phá trong lĩnh vực chăm sóc sức khỏe, tài chính, dịch vụ kinh doanh và nhiều ngành khác. “Với Siêu chip Grace Hopper được sản xuất đầy đủ, các nhà sản xuất trên toàn thế giới sẽ sớm cung cấp cơ sở hạ tầng tăng tốc mà các doanh nghiệp cần để xây dựng và triển khai các ứng dụng AI tổng quát tận dụng dữ liệu độc quyền duy nhất của họ.”
Các trung tâm siêu máy tính và siêu máy tính toàn cầu ở Châu Âu và Hoa Kỳ nằm trong số nhiều khách hàng sẽ có quyền truy cập vào các hệ thống được hỗ trợ bởi GH200.
Buck nói trong một cuộc họp báo: “Tất cả chúng ta đều đang trải nghiệm niềm vui về những gì mà các mô hình AI khổng lồ có thể làm được.
Hàng trăm hệ thống tăng tốc và phiên bản đám mây
Các nhà sản xuất Đài Loan nằm trong số nhiều nhà sản xuất hệ thống trên toàn thế giới giới thiệu các hệ thống được hỗ trợ bởi công nghệ Nvidia mới nhất, bao gồm Aaeon, Advantech, Aetina, ASRock Rack, Asus, Gigabyte, Ingrasys, Inventec, Pegatron, QCT, Tyan, Wistron và Wiwynn.
Ngoài ra, các nhà sản xuất máy chủ toàn cầu Cisco, Dell Technologies, Hewlett Packard Enterprise, Lenovo, Supermicro và Eviden, một công ty của Atos, cung cấp một loạt các hệ thống tăng tốc Nvidia.
Các đối tác đám mây của Nvidia H100 bao gồm Amazon Web Services (AWS), Cirrascale, CoreWeave, Google Cloud, Lambda, Microsoft Azure, Oracle Cloud Infrastructure, Paperspace và Vultr.
Nvidia AI Enterprise, lớp phần mềm của nền tảng Nvidia AI, cung cấp hơn 100 khung, mô hình được đào tạo trước và công cụ phát triển để hợp lý hóa quá trình phát triển và triển khai AI sản xuất, bao gồm AI tổng quát, thị giác máy tính và AI lời nói.
Các hệ thống với Siêu chip GH200 dự kiến sẽ có sẵn vào cuối năm nay.
Nvidia tiết lộ thông số kỹ thuật máy chủ MGX
Để đáp ứng nhu cầu điện toán tăng tốc đa dạng của các trung tâm dữ liệu, Nvidia hôm nay đã tiết lộ Nvidia
Thông số kỹ thuật máy chủ MGX, cung cấp cho các nhà sản xuất hệ thống kiến trúc tham chiếu mô-đun để xây dựng hơn 100 biến thể máy chủ một cách nhanh chóng và tiết kiệm chi phí để phù hợp với nhiều loại ứng dụng AI, điện toán hiệu năng cao và Omniverse.
ASRock Rack, ASUS, GIGABYTE, Pegatron, QCT và Supermicro sẽ áp dụng MGX, có thể cắt giảm tới 3/4 chi phí phát triển và giảm 2/3 thời gian phát triển xuống chỉ còn 6 tháng.
Kaustubh Sanghani, phó chủ tịch sản phẩm GPU của Nvidia, cho biết: “Các doanh nghiệp đang tìm kiếm các tùy chọn điện toán tăng tốc hơn khi kiến trúc các trung tâm dữ liệu đáp ứng nhu cầu kinh doanh và ứng dụng cụ thể của họ. “Chúng tôi đã tạo ra MGX để giúp các tổ chức khởi động AI doanh nghiệp, đồng thời tiết kiệm cho họ một lượng thời gian và tiền bạc đáng kể.”
Với MGX, các nhà sản xuất bắt đầu với kiến trúc hệ thống cơ bản được tối ưu hóa để tăng tốc điện toán cho khung máy chủ của họ, sau đó chọn GPU, DPU và CPU của họ. Các biến thể thiết kế có thể giải quyết các khối lượng công việc độc đáo, chẳng hạn như HPC, khoa học dữ liệu, mô hình ngôn ngữ lớn, điện toán biên, đồ họa và video, trí tuệ nhân tạo doanh nghiệp cũng như thiết kế và mô phỏng.
Nhiều tác vụ như đào tạo AI và 5G có thể được xử lý trên một máy duy nhất, trong khi việc nâng cấp lên các thế hệ phần cứng trong tương lai có thể diễn ra suôn sẻ. MGX cũng có thể dễ dàng tích hợp vào các trung tâm dữ liệu doanh nghiệp và đám mây, Nvidia cho biết.
QCT và Supermicro sẽ là những người đầu tiên đưa ra thị trường, với các thiết kế MGX sẽ xuất hiện vào tháng Tám. Hệ thống ARS-221GL-NR của Supermicro, được công bố hôm nay, sẽ bao gồm Siêu chip CPU Nvidia GraceTM, trong khi hệ thống S74G-2U của QCT, cũng được công bố hôm nay, sẽ sử dụng Siêu chip Nvidia GH200 Grace Hopper.
Ngoài ra, SoftBank có kế hoạch triển khai nhiều trung tâm dữ liệu siêu quy mô trên khắp Nhật Bản và sử dụng MGX để phân bổ động tài nguyên GPU giữa các ứng dụng AI và 5G tổng quát.
Junichi Miyakawa, Giám đốc điều hành của SoftBank, cho biết trong một tuyên bố: “Khi trí tuệ nhân tạo AI lan tỏa khắp lối sống của doanh nghiệp và người tiêu dùng, việc xây dựng cơ sở hạ tầng phù hợp với chi phí hợp lý là một trong những thách thức lớn nhất của các nhà khai thác mạng. “Chúng tôi hy vọng rằng Nvidia MGX có thể giải quyết những thách thức như vậy và cho phép AI đa dụng, 5G
và hơn thế nữa tùy thuộc vào yêu cầu khối lượng công việc thời gian thực.”
MGX khác với Nvidia HGX ở chỗ nó cung cấp khả năng tương thích linh hoạt, đa thế hệ với các sản phẩm của Nvidia để đảm bảo rằng các nhà xây dựng hệ thống có thể sử dụng lại các thiết kế hiện có và dễ dàng áp dụng các sản phẩm thế hệ tiếp theo mà không cần thiết kế lại tốn kém. Ngược lại, HGX dựa trên đa GPU được kết nối với NVLink.
ván chân tường được điều chỉnh theo quy mô để tạo ra hệ thống AI và HPC tối ưu.
Nvidia công bố Siêu máy tính AI DGX GH200
Nvidia cũng đã công bố một loại siêu máy tính AI bộ nhớ lớn mới — siêu máy tính Nvidia DGX được cung cấp bởi Siêu chip Nvidia GH200 Grace Hopper và Hệ thống chuyển mạch Nvidia NVLink — được tạo ra để cho phép phát triển các mô hình khổng lồ, thế hệ tiếp theo cho các ứng dụng ngôn ngữ AI tổng quát, người giới thiệu hệ thống và khối lượng công việc phân tích dữ liệu.
Không gian bộ nhớ dùng chung của Nvidia DGX GH200 sử dụng công nghệ kết nối NVLink với Hệ thống chuyển mạch NVLink để kết hợp 256 Siêu chip GH200, cho phép chúng hoạt động như một GPU duy nhất. Điều này cung cấp 1 exaflop hiệu suất và 144 terabyte bộ nhớ dùng chung — nhiều hơn gần 500 lần so với bộ nhớ trong một hệ thống Nvidia DGX A100.
Huang cho biết: “AI sáng tạo, mô hình ngôn ngữ lớn và hệ thống đề xuất là động cơ kỹ thuật số của nền kinh tế hiện đại. “Siêu máy tính DGX GH200 AI tích hợp công nghệ tăng tốc tiên tiến nhất của Nvidia
công nghệ điện toán và kết nối mạng để mở rộng ranh giới của AI.”
Các siêu chip GH200 loại bỏ nhu cầu kết nối PCIe giữa CPU với GPU truyền thống bằng cách kết hợp CPU Nvidia Grace dựa trên Arm với GPU Nvidia H100 Tensor Core trong cùng một gói, sử dụng các kết nối chip Nvidia NVLink-C2C. Điều này giúp tăng băng thông giữa GPU và CPU lên gấp 7 lần so với công nghệ PCIe mới nhất, giảm mức tiêu thụ điện năng kết nối hơn 5 lần và cung cấp khối xây dựng GPU kiến trúc Hopper 600 GB cho siêu máy tính DGX GH200.
DGX GH200 là siêu máy tính đầu tiên ghép đôi Siêu chip Grace Hopper với Hệ thống chuyển mạch Nvidia NVLink, một kết nối mới cho phép tất cả các GPU trong hệ thống DGX GH200 hoạt động cùng nhau như một. Hệ thống thế hệ trước chỉ cung cấp tám GPU được kết hợp với NVLink dưới dạng một GPU mà không ảnh hưởng đến hiệu suất.
Kiến trúc DGX GH200 cung cấp băng thông gấp 10 lần so với thế hệ trước, mang lại sức mạnh của một siêu máy tính AI khổng lồ với sự đơn giản trong việc lập trình một GPU.
Google Cloud, Meta và Microsoft nằm trong số những công ty đầu tiên được cho là sẽ có quyền truy cập vào DGX GH200 để khám phá các khả năng của nó đối với khối lượng công việc AI tổng quát. Nvidia cũng dự định cung cấp thiết kế DGX GH200 dưới dạng bản thiết kế cho các nhà cung cấp dịch vụ đám mây và các công ty siêu cấp khác để họ có thể tùy chỉnh thêm cho cơ sở hạ tầng của mình.
Mark Lohmeyer, phó chủ tịch Điện toán tại Google Cloud, cho biết: “Việc xây dựng các mô hình thế hệ tiên tiến đòi hỏi các cách tiếp cận sáng tạo đối với cơ sở hạ tầng AI. “Quy mô NVLink mới và bộ nhớ dùng chung của Grace Hopper Superchips giải quyết các tắc nghẽn chính trong AI quy mô lớn và chúng tôi mong muốn khám phá các khả năng của nó cho Google Cloud và các sáng kiến AI tổng quát của chúng tôi.”
Siêu máy tính Nvidia DGX GH200 dự kiến sẽ có mặt trên thị trường vào cuối năm nay.
Cuối cùng, Huang đã thông báo rằng một siêu máy tính mới có tên Nvidia Taipei-1 sẽ mang lại nhiều tài nguyên máy tính được tăng tốc hơn cho châu Á để thúc đẩy sự phát triển của AI và các ứng dụng metaverse công nghiệp.
Đài Bắc-1 sẽ mở rộng phạm vi của dịch vụ siêu máy tính Nvidia DGX Cloud AI vào khu vực với 64
Siêu máy tính trí tuệ nhân tạo DGX H100. Hệ thống này cũng sẽ bao gồm 64 hệ thống Nvidia OVX để tăng tốc cục bộ
nghiên cứu và phát triển cũng như kết nối mạng Nvidia để cung cấp năng lượng cho máy tính tăng tốc hiệu quả ở mọi quy mô.
Được sở hữu và vận hành bởi Nvidia, hệ thống này dự kiến sẽ ra mắt vào cuối năm nay.
Các viện nghiên cứu và giáo dục hàng đầu của Đài Loan sẽ là một trong những viện đầu tiên tiếp cận Đài Bắc-1 để thăng tiến
chăm sóc sức khỏe, mô hình ngôn ngữ lớn, khoa học khí hậu, người máy, sản xuất thông minh và kỹ thuật số công nghiệp
sinh đôi. Đại học Quốc gia Đài Loan có kế hoạch nghiên cứu việc học giọng nói mô hình ngôn ngữ lớn như dự án Đài Bắc-1 ban đầu của mình.
“Các nhà nghiên cứu của Đại học Quốc gia Đài Loan tận tụy với việc thúc đẩy khoa học trên nhiều lĩnh vực khác nhau.
Shao-Hua Sun, trợ lý
giáo sư, Khoa Kỹ thuật Điện tại Đại học Quốc gia Đài Loan, trong một tuyên bố. “Siêu máy tính Nvidia Taipei-1 sẽ giúp các nhà nghiên cứu, giảng viên và sinh viên của chúng tôi tận dụng AI và cặp song sinh kỹ thuật số để giải quyết những thách thức phức tạp trong nhiều ngành.”
Niềm tin của GamesBeat khi bao trùm ngành công nghiệp trò chơi là “nơi đam mê gặp gỡ kinh doanh.” Điều đó có nghĩa là gì? Chúng tôi muốn cho bạn biết tin tức quan trọng như thế nào đối với bạn — không chỉ với tư cách là người ra quyết định tại studio trò chơi mà còn với tư cách là người hâm mộ trò chơi. Cho dù bạn đọc bài viết của chúng tôi, nghe podcast hay xem video của chúng tôi, GamesBeat sẽ giúp bạn tìm hiểu về ngành và tận hưởng việc tương tác với ngành. Khám phá Briefings của chúng tôi.
[ad_2]