NVIDIA Mengungkap Rubin: Enam Chip Baru Mendukung Superkomputer AI Generasi Berikutnya

Secara Singkat

Nvidia memperkenalkan platform Rubin di CES 2026, menggabungkan enam chip baru menjadi superkomputer AI terpadu yang memberikan 5x kapasitas pelatihan dibandingkan lini Blackwell-nya.

NVIDIA Unveils Rubin: Six New Chips Power Next-Gen AI Supercomputer

Perusahaan teknologi NVIDIA memperkenalkan platform Rubin di CES 2026, memperkenalkan superkomputer AI terpadu yang dibangun dari enam chip baru yang secara kolektif memberikan lima kali lipat kapasitas pelatihan dari seri Blackwell. Platform ini dirancang untuk menetapkan tolok ukur baru dalam membangun, mengimplementasikan, dan mengamankan sistem AI skala besar sambil meminimalkan biaya untuk mendukung adopsi teknologi AI yang lebih luas.

Platform Rubin mencapai kinerja melalui desain kode yang erat di seluruh enam komponennya: CPU NVIDIA Vera, GPU NVIDIA Rubin, Switch NVIDIA NVLink 6, SuperNIC NVIDIA ConnectX-9, DPU NVIDIA BlueField-4, dan Switch Ethernet NVIDIA Spectrum-6. Pendekatan terintegrasi ini mengurangi waktu pelatihan dan menurunkan biaya token inferensi.

Rubin memperkenalkan lima inovasi utama, termasuk interkoneksi NVLink generasi berikutnya, Transformer Engine, Confidential Computing, RAS Engine, dan CPU NVIDIA Vera. Kemajuan ini memungkinkan AI agenik, penalaran tingkat lanjut, dan inferensi model (MoE) campuran pakar skala besar dengan biaya hingga sepuluh kali lebih rendah per token dibandingkan platform Blackwell. Sistem ini dapat melatih model MoE dengan empat kali lebih sedikit GPU, mempercepat adopsi AI lebih jauh.

Platform ini diharapkan akan digunakan oleh laboratorium AI terkemuka, penyedia layanan cloud, produsen perangkat keras, dan startup, termasuk Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab, dan xAI.

Mengungkap Penyimpanan Native AI dan Infrastruktur Berbasis Perangkat Lunak untuk Pabrik AI

NVIDIA Rubin memperkenalkan penyimpanan native AI dan infrastruktur aman berbasis perangkat lunak yang dirancang untuk mendukung beban kerja AI skala besar secara efisien. Platform Penyimpanan Memori Konteks Inferensi NVIDIA, yang didukung oleh BlueField-4, memungkinkan berbagi cepat dan penggunaan kembali data cache kunci-nilai, meningkatkan throughput dan efisiensi energi untuk aplikasi AI agenik multi-putaran. BlueField-4 juga mencakup Arsitektur Sumber Daya Tepercaya Aman Tingkat Lanjut (ASTRA), menyediakan satu titik kontrol tepercaya untuk penyediaan aman dan isolasi di lingkungan AI bare-metal dan multi-penyewa.

Platform ini ditawarkan dalam berbagai konfigurasi, termasuk Vera Rubin NVL72, yang mengintegrasikan 72 GPU Rubin, 36 CPU Vera, NVLink 6, SuperNIC ConnectX-9, dan DPU BlueField-4, serta HGX Rubin NVL8, yang menghubungkan delapan GPU Rubin untuk mendukung platform AI generatif berbasis x86. NVIDIA DGX SuperPOD berfungsi sebagai arsitektur referensi untuk penerapan sistem Rubin secara skala besar, menggabungkan komputasi, jaringan, dan perangkat lunak manajemen.

Jaringan dan penyimpanan generasi berikutnya disediakan oleh platform Ethernet Spectrum-6 dan Spectrum-X, yang menampilkan optik yang dikemas bersama, fabric yang dioptimalkan AI, dan komunikasi SerDes berkecepatan tinggi 200G. Inovasi-inovasi ini memberikan keandalan yang lebih baik, efisiensi energi, dan skalabilitas, memungkinkan pabrik AI berbasis Rubin beroperasi di berbagai lokasi sebagai lingkungan terpadu dan mendukung infrastruktur GPU jutaan di masa depan.

NVIDIA Rubin Dalam Produksi Penuh, Siap Diterapkan di Cloud dan Laboratorium AI

Platform baru ini telah memasuki produksi penuh, dengan sistem berbasis Rubin diharapkan tersedia melalui mitra pada paruh kedua 2026. Penyedia cloud utama, termasuk AWS, Google Cloud, Microsoft, dan OCI, serta Mitra Cloud NVIDIA seperti CoreWeave, Lambda, Nebius, dan Nscale, menjadi yang pertama mengimplementasikan instance berbasis Rubin. Microsoft berencana mengintegrasikan sistem rack-scale NVIDIA Vera Rubin NVL72 ke pusat data AI generasi berikutnya, termasuk lokasi superpabrik AI Fairwater di masa depan, sebagai fondasi untuk beban kerja pelatihan dan inferensi tingkat lanjut di seluruh perusahaan, riset, dan aplikasi konsumen.

CoreWeave akan mengintegrasikan sistem Rubin ke dalam platform cloud AI-nya, mendukung berbagai arsitektur dan memungkinkan performa optimal untuk pelatihan, inferensi, dan beban kerja AI agenik. Cisco, Dell, HPE, Lenovo, dan Supermicro juga diharapkan menawarkan server berbasis produk Rubin. Laboratorium AI terkemuka, termasuk Anthropic, Cohere, OpenAI, Meta, dan lainnya, mengadopsi Rubin untuk melatih model yang lebih besar dan lebih mampu serta mendukung sistem multimodal dengan konteks panjang, latensi rendah, dan biaya lebih rendah dibandingkan generasi GPU sebelumnya.

Mitra infrastruktur dan penyimpanan, seperti IBM, NetApp, Nutanix, Pure Storage, SUSE, dan VAST Data, bekerja sama dengan NVIDIA untuk merancang platform Rubin generasi berikutnya. Rubin merupakan arsitektur rak generasi ketiga dari NVIDIA, didukung oleh lebih dari 80 mitra ekosistem MGX. Red Hat mengumumkan kolaborasi yang diperluas untuk menyediakan tumpukan AI lengkap yang dioptimalkan untuk Rubin, memanfaatkan portofolio cloud hibrid mereka termasuk Red Hat Enterprise Linux, OpenShift, dan Red Hat AI, yang banyak digunakan di perusahaan Fortune Global 500.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt