Nvidia Giới Thiệu Blackwell Ultra GB300: Hiệu Suất Tăng 50% và Bộ Nhớ 288GB Ra Mắt Năm 2025

BigGo Editorial Team
Nvidia Giới Thiệu Blackwell Ultra GB300: Hiệu Suất Tăng 50% và Bộ Nhớ 288GB Ra Mắt Năm 2025

Cuộc đua điện toán AI tiếp tục tăng tốc khi Nvidia tiết lộ thế hệ phần cứng tiếp theo được thiết kế để cung cấp năng lượng cho các khối lượng công việc trí tuệ nhân tạo đòi hỏi cao nhất. Dựa trên kiến trúc Blackwell đã ấn tượng, công ty đã công bố một bản nâng cấp đáng kể với Blackwell Ultra GB300, hứa hẹn những cải tiến hiệu suất đáng kể và dung lượng bộ nhớ mở rộng để xử lý các mô hình AI ngày càng phức tạp.

Nvidia Blackwell Ultra GB300 đại diện cho một bước nâng cấp đáng kể trong công nghệ điện toán AI
Nvidia Blackwell Ultra GB300 đại diện cho một bước nâng cấp đáng kể trong công nghệ điện toán AI

Blackwell Ultra GB300: Bước Nhảy Vọt về Hiệu Suất cho Điện Toán AI

Blackwell Ultra GB300 mới được công bố của Nvidia đại diện cho một sự tiến hóa đáng kể của nền tảng điện toán AI của công ty. Dự kiến ra mắt vào nửa cuối năm 2025, GB300 duy trì hiệu suất AI 20 petaflops trên mỗi chip giống như phiên bản Blackwell gốc nhưng tăng đáng kể dung lượng bộ nhớ lên 288GB bộ nhớ HBM3e, tăng từ 192GB ở phiên bản tiêu chuẩn. Sự gia tăng bộ nhớ 50% này cho phép xử lý các mô hình AI lớn hơn và khối lượng công việc phức tạp hơn. Giải pháp quy mô giá đỡ GB300 NVL72 kết nối 72 GPU Blackwell Ultra với 36 CPU Arm Neoverse, hoạt động như một GPU khổng lồ đơn lẻ có khả năng cung cấp hiệu suất tính toán 1,1 exaflops FP4.

Thông số kỹ thuật chính của Nvidia Blackwell Ultra (GB300):

  • Hiệu suất AI: 20 petaflops mỗi chip (tương đương với Blackwell tiêu chuẩn)
  • Bộ nhớ: 288GB HBM3e (tăng 50% so với 192GB)
  • Hiệu suất GB300 NVL72 Rack: 1,1 exaflops tính toán FP4
  • Bộ nhớ GB300 NVL72: 20TB bộ nhớ HBM, 40TB "bộ nhớ nhanh"
  • Băng thông NVLink: 130TB/giây
  • Mạng: 14,4 TB/giây
  • Thời gian ra mắt: Nửa cuối năm 2025

Khả Năng Suy Luận AI Nâng Cao

Một trong những tiến bộ đáng kể nhất trong Blackwell Ultra là khả năng tăng tốc các tác vụ suy luận AI. Theo Nvidia, cấu hình GB300 NVL72 có thể chạy một bản sao tương tác của DeepSeek-R1 671B và cung cấp câu trả lời chỉ trong mười giây, so với 1,5 phút cần thiết của thế hệ H100 trước đó. Sự cải thiện đáng kể này xuất phát từ khả năng xử lý 1.000 token mỗi giây, gấp mười lần tốc độ của chip Nvidia năm 2022. Sự nâng cấp này cho phép các mô hình AI khám phá các đường dẫn giải pháp khác nhau và chia nhỏ các yêu cầu phức tạp thành nhiều bước, dẫn đến phản hồi chất lượng cao hơn.

So sánh hiệu suất:

  • Blackwell Ultra so với H100: tốc độ suy luận nhanh hơn 11 lần trên các mô hình ngôn ngữ lớn
  • Blackwell Ultra so với H100: khả năng tính toán cao hơn 7 lần
  • Blackwell Ultra so với H100: bộ nhớ lớn hơn 4 lần
  • Xử lý token của Blackwell Ultra: 1.000 token/giây (nhanh hơn 10 lần so với chip năm 2022)
  • Giá đỡ Rubin Ultra so với giá đỡ Blackwell Ultra: cải thiện hiệu suất gấp 14 lần

Mở Rộng Khả Năng Tiếp Cận với DGX Station

Trong một bước đi thú vị khác với các phát hành phần cứng AI cao cấp trước đây, Nvidia sẽ cung cấp các chip Blackwell Ultra đơn lẻ dưới dạng máy tính để bàn có tên DGX Station. Máy trạm mạnh mẽ này có một GPU GB300 Blackwell Ultra, 784GB bộ nhớ hệ thống thống nhất và mạng Nvidia 800Gbps tích hợp. Các nhà sản xuất lớn bao gồm Asus, Dell, HP, Boxx, Lambda và Supermicro sẽ cung cấp các phiên bản của hệ thống máy tính để bàn này, mang khả năng điện toán AI trước đây chỉ có ở quy mô giá đỡ đến các máy trạm cá nhân.

Lộ Trình Tương Lai: Vera Rubin và Hơn Thế Nữa

Nhìn về phía trước, Nvidia cũng tiết lộ kiến trúc Vera Rubin sắp tới, dự kiến ra mắt vào nửa cuối năm 2026, sẽ cung cấp hiệu suất 50 petaflops FP4 trên mỗi chip—gấp 2,5 lần hiệu suất của Blackwell Ultra. Tiếp theo sẽ là Rubin Ultra vào nửa cuối năm 2027, về cơ bản chứa hai GPU Rubin được kết nối với nhau để cung cấp hiệu suất 100 petaflops FP4 và gần gấp bốn lần bộ nhớ ở mức 1TB. Một giá đỡ NVL576 đầy đủ của Rubin Ultra dự kiến sẽ cung cấp 15 exaflops suy luận FP4 và 5 exaflops đào tạo FP8, đại diện cho sự tăng hiệu suất gấp 14 lần so với giá đỡ Blackwell Ultra năm nay.

Lộ trình GPU của Nvidia:

  • Blackwell Ultra (GB300): Nửa cuối năm 2025, 288GB HBM3e
  • Vera Rubin: Nửa cuối năm 2026, 50 petaflops FP4
  • Rubin Ultra: Nửa cuối năm 2027, 100 petaflops FP4, 1TB bộ nhớ
  • Feynman: 2028

Tác Động Thị Trường và Nhu Cầu Ngành

CEO Nvidia Jensen Huang nhấn mạnh trong buổi công bố rằng ngành công nghiệp cần gấp 100 lần những gì chúng ta nghĩ là cần thiết vào thời điểm này năm ngoái để theo kịp nhu cầu điện toán AI. Tuyên bố này được đưa ra khi Nvidia tiết lộ rằng họ đã xuất xưởng phần cứng Blackwell trị giá 11 tỷ đô la Mỹ, với bốn người mua hàng đầu đã mua tổng cộng 1,8 triệu chip Blackwell cho đến nay trong năm 2025. Những con số này nhấn mạnh sự tăng trưởng bùng nổ trong yêu cầu điện toán AI và vị thế thống trị của Nvidia trong việc cung cấp phần cứng cần thiết.

Nhìn Xa Hơn Nữa

Ngoài Vera Rubin, Nvidia đã công bố rằng kiến trúc năm 2028 của họ sẽ được đặt tên là Feynman, có lẽ theo tên của nhà vật lý lý thuyết nổi tiếng Richard Feynman. Lộ trình tiếp tục này thể hiện cam kết của Nvidia trong việc duy trì vị thế dẫn đầu trong phần cứng điện toán AI trong tương lai có thể dự đoán được, với mỗi thế hệ hứa hẹn những cải tiến hiệu suất đáng kể để đáp ứng nhu cầu phát triển nhanh chóng của khối lượng công việc trí tuệ nhân tạo.