Nvidia – mengumumkan arsitektur chip kecerdasan buatan terbaru bernama Vera Rubin pada ajang CES 2026 di Las Vegas, Amerika Serikat. Acara tahunan tersebut menjadi panggung penting bagi berbagai inovasi teknologi, dan Nvidia memanfaatkan momentum ini untuk memperkenalkan solusi komputasi AI masa depan. CEO Nvidia, Jensen Huang, menjelaskan bahwa lonjakan kebutuhan komputasi AI meningkat secara drastis dari waktu ke waktu. Oleh sebab itu, perusahaan merancang Vera Rubin untuk menghadapi tantangan komputasi yang semakin ekstrem, terutama dalam proses pelatihan model AI dan kegiatan inferensi.

Dalam presentasi resminya, Huang menyampaikan bahwa Vera Rubin memasuki tahap produksi penuh. Selanjutnya, ia menegaskan bahwa arsitektur ini hadir sebagai jawaban atas percepatan perkembangan teknologi kecerdasan buatan. Nama platform ini diambil dari astronom Amerika, Vera Florence Cooper Rubin, yang dikenal luas berkat kontribusinya dalam dunia sains. Dengan demikian, Nvidia mengganti lini chip AI canggih Blackwell dengan Vera Rubin sebagai fondasi utama infrastruktur AI terbaru.

Nvidia meluncurkan arsitektur chip AI terbaru Vera Rubin di CES 2026

Ilustrasi chip AI.

Evolusi Arsitektur Chip AI Nvidia

Perjalanan pengembangan arsitektur chip AI Nvidia menunjukkan perubahan signifikan dalam beberapa tahun terakhir. Pertama kali, Nvidia memperkenalkan arsitektur Rubin pada 2024 sebagai konsep awal. Kemudian, perusahaan melanjutkan evolusi tersebut melalui peluncuran Blackwell pada Maret tahun lalu untuk menggantikan arsitektur Hopper dan Lovelace. Akan tetapi, kebutuhan komputasi AI terus melonjak, sehingga Nvidia membutuhkan platform yang lebih kuat dan lebih efisien. Akhirnya, Vera Rubin resmi menggantikan Blackwell dan menjadi generasi terbaru dalam lini produk chip AI Nvidia.

Perbedaan utama Vera Rubin dengan generasi sebelumnya terletak pada pendekatan platform terintegrasi. Nvidia tidak fokus pada satu GPU saja, tetapi merancang Rubin sebagai sistem komputasi terpadu. Karena itu, platform ini terdiri dari enam chip utama yang bekerja bersama. Kombinasi tersebut menyerupai satu superkomputer AI dalam sebuah ekosistem perangkat keras terintegrasi. Enam chip utama itu meliputi Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, serta Spectrum-6 Ethernet Switch.

Pendekatan Codesign Ekstrem pada Platform Rubin

Nvidia menggunakan pendekatan “extreme codesign” dalam pengembangan Vera Rubin. Metode ini menggabungkan desain CPU, GPU, jaringan, dan sistem memori dalam satu kerangka arsitektur. Alhasil, platform Rubin mampu memangkas waktu pelatihan AI secara signifikan. Selain itu, sistem ini menurunkan biaya inferensi dengan efisiensi tinggi. Inferensi AI merujuk pada proses menjalankan model untuk menghasilkan output dari input baru. Jadi, platform Rubin mengoptimalkan proses tersebut tanpa melibatkan tahap pembelajaran ulang.

Menurut Nvidia, Vera Rubin mampu memangkas biaya token inferensi hingga sepuluh kali lipat dibanding arsitektur Blackwell. Kemudian, platform ini melatih model AI bertipe mixture-of-experts (MoE) dengan kebutuhan GPU empat kali lebih sedikit. Oleh karena itu, efisiensi perangkat keras meningkat dan kebutuhan energi menurun. Dengan kata lain, Nvidia menawarkan solusi komputasi AI yang lebih hemat biaya dan lebih ramah daya untuk pusat data berskala besar.

Lima Teknologi Kunci pada Arsitektur Vera Rubin

Nvidia membekali platform Rubin dengan lima teknologi utama untuk menjawab era agentic AI dan model AI berbasis penalaran. Pertama, Nvidia memperkenalkan Vera CPU sebagai CPU khusus yang dirancang untuk agentic reasoning. Teknologi ini memungkinkan AI berpikir, merencanakan, dan bertindak secara mandiri dalam jangka panjang. Vera CPU dibangun dengan 88 core Olympus berbasis arsitektur Armv9.2 serta mendukung konektivitas NVLink-C2C berkecepatan tinggi. Kombinasi ini meningkatkan efisiensi dan bandwidth pusat data secara menyeluruh.

Kedua, Nvidia menyematkan Transformer Engine generasi ketiga pada Rubin GPU. GPU ini mendukung kompresi adaptif berbasis perangkat keras dan menghadirkan performa hingga 50 petaflops NVFP4 untuk inferensi AI. Selanjutnya, teknologi NVLink generasi keenam menjadi inovasi kunci ketiga. NVLink 6 menyediakan jalur komunikasi supercepat antar-GPU dengan bandwidth hingga 3,6 TB per detik untuk setiap GPU. Sementara itu, satu rak Vera Rubin NVL72 mencapai bandwidth 260 TB per detik. Oleh sebab itu, kecepatan komunikasi data meningkat secara luar biasa dalam lingkungan komputasi AI skala besar.

Keempat, Nvidia menghadirkan confidential computing generasi ketiga untuk melindungi data di level CPU, GPU, dan NVLink. Fitur ini menjaga keamanan model AI proprietary bernilai tinggi dari risiko kebocoran data. Terakhir, Nvidia menambahkan RAS Engine generasi kedua sebagai teknologi kelima. Sistem ini melakukan pemantauan kesehatan real-time, toleransi kesalahan, serta perawatan proaktif. Dengan demikian, stabilitas platform AI tetap terjaga dan produktivitas sistem meningkat.

Inovasi Desain Sistem Memori dan Penyimpanan AI Modern

Selain pembaruan pada chip utama, Nvidia memperbarui desain rak Rubin dengan tray modular tanpa kabel. Kemudian, perusahaan mengklaim proses perakitan dan servis berjalan delapan belas kali lebih cepat dibanding generasi Blackwell. Nvidia juga memperkenalkan sistem penyimpanan baru bernama Inference Context Memory Storage Platform. Sistem ini menangani kebutuhan memori AI modern, khususnya key-value cache yang semakin besar. Jadi, Nvidia merancang platform Rubin untuk mendukung kompleksitas model AI masa kini dan masa depan.

Secara keseluruhan, peluncuran Vera Rubin menandai langkah penting Nvidia dalam dunia komputasi kecerdasan buatan. Arsitektur ini menghadapi era AI modern dengan efisiensi tinggi, kecepatan ekstrem, dan keamanan menyeluruh. Oleh karena itu, Nvidia memperkuat posisinya sebagai perusahaan terdepan dalam penyediaan infrastruktur chip AI global.