Không chỉ GPU! Nvidia (NVDA.US) GTC 2026 liên tiếp ra mắt LPU, CPU mới - toàn diện bố trí mọi khía cạnh của trung tâm dữ liệu AI

robot
Đang tạo bản tóm tắt

Thông tin từ APP Tài chính Zhitong cho biết, vào thứ Hai theo giờ Đông Mỹ, Nvidia (NVDA.US) đã chính thức khai mạc hội nghị GTC tại San Jose, California, đồng loạt ra mắt nhiều dòng chip và nền tảng mới, từ thế hệ mới Nvidia Groq 3 lõi xử lý ngôn ngữ (LPU) đến các hệ thống máy chủ hoàn chỉnh dành riêng cho CPU Vera, được thiết kế để cạnh tranh với Intel (INTC.US) và AMD (AMD.US).

Theo đó, Nvidia lần này giới thiệu tổng cộng năm hệ thống máy chủ lớn, phục vụ các nhu cầu khác nhau trong trung tâm dữ liệu AI.

Trong số đó, sản phẩm đáng chú ý nhất là chip Nvidia Groq 3. Vào tháng 12 năm ngoái, Nvidia đã mua lại công nghệ liên quan của Groq với giá 200 tỷ USD theo một thỏa thuận, đồng thời đưa các sáng lập viên Jonathan Ross, Tổng giám đốc Sunny Madra và đội ngũ cốt lõi của Groq về dưới quyền.

Bộ xử lý Groq chuyên về AI inference — tức là phần cốt lõi để chạy các mô hình AI. Khi người dùng nhập lệnh vào ChatGPT, Claude hoặc Gemini và nhận phản hồi, chính là công nghệ inference đang phát huy tác dụng.

Khác với GPU đa năng của Nvidia vừa có thể huấn luyện vừa chạy mô hình, việc ra mắt Groq 3 đánh dấu việc công ty chính thức sở hữu chip inference chuyên dụng để đáp ứng nhu cầu cấp bách của thị trường AI, từ chuyển đổi từ huấn luyện mô hình sang ứng dụng mô hình.

Phó chủ tịch phụ trách tính toán quy mô lớn và hiệu năng cao của Nvidia, Ian Buck, cho biết, mặc dù GPU hỗ trợ dung lượng bộ nhớ lớn hơn, nhưng bộ nhớ LPU của Groq 3 có tốc độ truy cập nhanh hơn. Kết hợp lợi thế về hiệu suất của cả hai, nền tảng Groq 3 LPX mới ra đời — hệ thống máy chủ này tích hợp 128 LPU riêng biệt của Groq 3, khi phối hợp hoạt động cùng khung máy Vera Rubin NVL72, mỗi megawatt có thể tăng throughput lên 35 lần, tạo ra tiềm năng lợi nhuận gấp 10 lần.

“Kiến trúc LPX tối ưu cho các mô hình có hàng tỷ tham số và ngữ cảnh hơn trăm triệu Token, hoàn hảo bổ sung cho Vera Rubin, tối đa hóa hiệu quả về tiêu thụ năng lượng, bộ nhớ và sức mạnh tính toán. Những đột phá về throughput mỗi watt và hiệu suất Token này sẽ thúc đẩy dịch vụ inference hàng tỷ tham số cao cấp, mở ra không gian tăng trưởng mới cho các nhà cung cấp dịch vụ AI,” Nvidia nhấn mạnh trong tuyên bố chính thức.

Việc ra mắt hệ thống máy chủ LPX đã phản hồi mạnh mẽ những lo ngại về khả năng mất lợi thế của Nvidia dưới tác động của các startup chip inference mới nổi. Đồng thời, hệ thống máy chủ độc lập Vera CPU cũng thu hút sự chú ý — hệ thống này sử dụng 256 chip Vera làm mảng cluster, đánh dấu lần đầu tiên Nvidia tách riêng CPU Vera khỏi “Vera Rubin superchip” (gồm 1 CPU Vera + 2 GPU Rubin).

Khi trí tuệ nhân tạo thông minh ngày càng phát triển, giá trị chiến lược của CPU ngày càng rõ nét. Khi AI agent cần thực hiện các nhiệm vụ như duyệt web hoặc trích xuất dữ liệu từ bảng, hiệu năng của CPU quyết định trực tiếp hiệu quả thực thi. Trong các lĩnh vực như khai thác dữ liệu, đề xuất cá nhân hóa, nơi cần phân tích ngữ cảnh cho GPU, CPU cũng đóng vai trò không thể thay thế.

“Vera là CPU tối ưu dành riêng cho các tác vụ AI agent thông minh,” Buck giới thiệu, “Chúng tôi đã định nghĩa lại kiến trúc CPU — với lõi Olympus do Nvidia thiết kế dành riêng cho AI, có thể phản hồi nhanh hơn trong điều kiện cực đoan, phù hợp hoàn hảo với mọi kịch bản học tăng cường.”

Đây không phải lần đầu Nvidia tham gia lĩnh vực CPU. Tháng trước, công ty đã ký thỏa thuận triển khai cụm CPU Grace thế hệ trước lớn nhất từ trước đến nay với Meta (META.US). Việc ra mắt độc lập Vera lần này đánh dấu Nvidia chính thức xác lập chiến lược “GPU + CPU” hai động lực, nhằm cạnh tranh với thị trường trung tâm dữ liệu do Intel và AMD thống trị.

Ngoài các sản phẩm nêu trên, Nvidia còn giới thiệu hệ thống máy chủ lưu trữ Bluefield-4 STX (tăng hiệu năng so với các giải pháp truyền thống) và hệ thống mạng Spectrum-6 SPX.

Khi nhu cầu nền tảng AI tiếp tục tăng, dòng sản phẩm mới của Nvidia dự kiến sẽ thúc đẩy doanh thu trung tâm dữ liệu. Trong tài khóa 2026, doanh thu trung tâm dữ liệu của Nvidia đã đạt 19,35 tỷ USD, tăng mạnh so với 11,62 tỷ USD của năm tài chính 2025. Trong số 650 tỷ USD chi tiêu vốn AI dự kiến của các ông lớn như Amazon (AMZN.US), Google (GOOGL.US), Meta, Microsoft (MSFT.US) trong năm nay, Nvidia chắc chắn sẽ chiếm phần lớn.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim