Jensen Huang Janjikan Chip 'Gaib' di GTC 2026: Era Feynman atau Kejutan Rubin?
AI & ML

Jensen Huang Janjikan Chip 'Gaib' di GTC 2026: Era Feynman atau Kejutan Rubin?

Published on 2026-02-19

Baru saja pamer Vera Rubin di CES, CEO NVIDIA Jensen Huang sudah menebar kode keras soal chip 'yang belum pernah dilihat dunia' untuk GTC Maret nanti. Apakah ini debut arsitektur Feynman?

Baru juga kita napas lega setelah melihat line-up gila-gilaan dari NVIDIA di CES 2026 awal tahun ini, eh, “Om Jensen” alias Jensen Huang, CEO NVIDIA yang identik dengan jaket kulit ikoniknya, udah mulai manas-manasin suasana lagi.

Buat kalian yang mengikuti perkembangan Team Green, pasti tahu kalau NVIDIA itu kayak nggak punya rem. Di CES 2026 kemarin, mereka baru saja memamerkan lini AI Vera Rubin. Itu bukan update kecil, lho. Mereka langsung spill kalau Vera Rubin sudah masuk produksi penuh dengan enam chip baru, termasuk CPU Vera dan GPU Rubin. Rasanya kayak makan prasmanan all-you-can-eat, kenyang banget kan?

Tapi, ternyata itu belum seberapa.

Dalam wawancara terbarunya dengan media Korea, Jensen memberikan teaser yang bikin semua tech enthusiast dan investor garuk-garuk kepala. Dia bilang kalau di ajang GTC (GPU Technology Conference) 2026 yang bakal digelar 15 Maret nanti, NVIDIA bakal mengungkap produk yang “belum pernah dilihat dunia sebelumnya.”

Jensen Huang, CEO NVIDIA

“We’ve prepared several new chips the world has never seen before. Nothing is easy because all technologies are at their limits.”

Kalimat “teknologi sudah di batasnya” tapi tetap mau ngeluarin barang baru yang “belum pernah ada”? Ini antara marketing gimmick level dewa atau NVIDIA emang nyembunyiin monster di lab mereka. Mari kita bedah apa sebenarnya yang mungkin sedang dimasak oleh NVIDIA.

Misteri di Balik “Unseen Chips”

Oke, mari kita main tebak-tebakan berhadiah (hadiahnya kepuasan batin aja ya). Kalau Vera Rubin sudah dipamerkan, lantas apa lagi yang disisa?

Berdasarkan analisis dari Wccftech dan rekam jejak NVIDIA, ada dua kandidat kuat yang bisa jadi jawaban dari teka-teki Jensen ini.

Pertama, bisa jadi ini adalah varian turunan dari arsitektur Rubin yang lebih niche atau lebih buas, misalnya Rubin CPX. NVIDIA sering melakukan ini—merilis arsitektur utama, lalu beberapa bulan kemudian mengeluarkan varian yang sudah di-tweak untuk kebutuhan spesifik data center tertentu.

Kedua—dan ini yang bikin bulu kuduk geek berdiri—adalah kemungkinan munculnya next-gen arsitektur setelah Rubin, yang dirumorkan bernama Feynman.

Kenapa Feynman ini menarik? Karena kalau Rubin adalah evolusi, Feynman digadang-gadang sebagai revolusi. Nama Feynman sendiri diambil dari fisikawan legendaris Richard Feynman, dan biasanya NVIDIA nggak sembarangan kasih nama kalau barangnya nggak spesial.

Pergeseran Fokus: Dari Training ke Inference

Nah, ini bagian yang teknis tapi penting banget buat dipahami biar kita nggak cuma kemakan hype.

Selama era arsitektur Hopper dan Blackwell, fokus utama dunia AI adalah Pre-training. Ibaratnya, ini fase “sekolah”-nya AI. Butuh tenaga komputasi mentah yang super besar buat ngajarin model AI biar pinter. Makanya, chip zaman itu didesain buat brute force.

Tapi sekarang, peta permainan berubah.

No data provided

Dengan hadirnya Grace Blackwell Ultra dan Vera Rubin, industri mulai bergeser ke arah Inference. Ini adalah fase di mana AI sudah pinter dan mulai “bekerja” menjawab pertanyaan user. Di fase ini, tenaga kuda (raw compute) bukan lagi satu-satunya raja. Yang jadi masalah sekarang adalah:

  1. Latensi: Seberapa cepat AI menjawab.
  2. Memory Bandwidth: Seberapa cepat data bisa dipindah-pindah.

Di sinilah rumor soal Feynman menjadi masuk akal. NVIDIA dikabarkan sedang mengeksplorasi integrasi SRAM yang lebih ekstensif.

Lho, buat apa SRAM? Buat kalian yang ngerti arsitektur PC, SRAM (Static RAM) itu jauh lebih cepat daripada DRAM biasa, tapi harganya mahal dan ukurannya besar. Isu yang beredar menyebutkan NVIDIA mungkin akan melakukan integrasi LPU (Language Processing Unit) lewat teknologi 3D stacking.

🔧 Evolusi Fokus NVIDIA

Era Hopper/Blackwell Heavy Pre-training (Raw Compute)
Era Rubin Inference & Training Balance
Potensi Feynman Low Latency Inference, Massive SRAM, 3D Stacking

Kalau istilah LPU terdengar familiar, itu karena startup bernama Groq sempat bikin heboh dengan LPU mereka yang super ngebut untuk inference LLM (Large Language Model). Apakah NVIDIA bakal mengadopsi pendekatan serupa atau malah menggandeng teknologi mereka? Jensen sendiri bilang kalau mereka berinvestasi di seluruh stack AI dan punya partner startup yang luar biasa. Jadi, integrasi teknologi ala Groq ke dalam chip NVIDIA bukan hal yang mustahil.

Bukan Sekadar Chip, Tapi Ekosistem

Satu hal yang perlu kita ingat, Jensen Huang itu pintar jualan visi. Dia menegaskan kalau AI itu bukan cuma soal model algoritma.

“AI is not just a model; it’s an entire industry encompassing energy, semiconductors, data centers, the cloud, and the applications built on top of it.” — Jensen Huang.

Pernyataan ini menegaskan posisi NVIDIA. Mereka nggak mau cuma jadi tukang jual sekop di masa gold rush. Mereka mau yang punya tanah tambangnya, yang jual air minumnya, sampai yang bangun rel keretanya.

Dengan GTC yang akan dimulai tanggal 15 Maret di San Jose, California, fokus utamanya jelas: Infrastruktur AI Generasi Berikutnya.

Kalau NVIDIA benar-benar merilis chip dengan arsitektur Feynman yang fokus pada SRAM dan latensi super rendah, ini bakal jadi pukulan telak buat kompetitor yang baru mau mengejar performa raw compute Blackwell. Saat kompetitor sibuk ngejar skor benchmark training, NVIDIA sudah lari duluan membereskan masalah inference.

Apa Artinya Buat Kita di Indonesia?

Oke, mungkin kalian mikir, “Bang, ini kan chip buat data center seharga mobil mewah, apa ngaruhnya buat gue yang cuma main ChatGPT gratisan?”

Ngaruh banget, Bro.

  1. Kecepatan Layanan AI: Kalau chip Feynman atau Rubin CPX ini beneran fokus ke inference dan latensi, artinya layanan AI yang kita pakai sehari-hari (seperti copilot coding, translator realtime, atau asisten virtual) bakal makin responsif. Nggak ada lagi tuh nunggu loading lama pas nanya ke AI.
  2. Biaya Cloud: Di dunia cloud computing, waktu adalah uang. Chip yang lebih efisien dalam inference bisa menurunkan biaya operasional server. Ujung-ujungnya? Biaya langganan API atau layanan cloud buat startup lokal Indonesia bisa jadi lebih kompetitif.
  3. Standar Baru Hardware: Biasanya, teknologi yang ada di data center NVIDIA butuh waktu 2-3 tahun buat “netes” ke GPU konsumen (GeForce RTX series). Kalau sekarang mereka mainan 3D Stacking SRAM yang gila-gilaan, bayangkan potensi GPU gaming kita di masa depan (RTX 6090 atau 7090?).

Kesimpulannya, GTC Maret nanti bukan cuma ajang pamer spek. Ini adalah momen pembuktian apakah NVIDIA masih memegang kendali penuh atas arah inovasi AI dunia, atau mereka mulai panik dikejar kompetitor. Tapi kalau melihat sejarah Jensen Huang, biasanya sih dia nggak pernah bluffing. Siap-siap aja dompet (atau setidaknya mental) kita dibuat kaget lagi.

Kita tunggu tanggal mainnya di 15 Maret 2026!