Nvidia Siapkan Chip AI Baru, OpenAI Jadi Pengguna Pertama

Selasa, 03 Maret 2026 | 09:07:16 WIB
Nvidia Siapkan Chip AI Baru, OpenAI Jadi Pengguna Pertama

JAKARTA - Nvidia Corp tengah bersiap untuk memperkenalkan chip baru yang dirancang khusus untuk meningkatkan kecepatan dan efisiensi dalam proses inferensi kecerdasan buatan (AI). 

Chip ini dikembangkan untuk memenuhi kebutuhan industri AI yang semakin berkembang, dengan tujuan menghadirkan solusi yang lebih hemat energi dan lebih cepat dalam menjalankan model AI. 

OpenAI, yang selama ini sudah memiliki hubungan dekat dengan Nvidia, diperkirakan akan menjadi salah satu pengguna pertama chip terbaru ini, menegaskan pentingnya kolaborasi antara dua perusahaan raksasa teknologi tersebut.

Chip AI Nvidia untuk Peningkatan Kinerja AI Generatif

Menurut laporan dari The Wall Street Journal pada 27 Februari 2026, chip baru ini dikembangkan untuk menangani proses inferensi, yang merupakan langkah penting dalam pengoperasian model AI setelah tahap pelatihan. 

Inferensi menjadi fokus utama dalam pengembangan AI, karena mengukur seberapa efisien dan cepat model AI dapat diterapkan dalam aplikasi nyata, seperti chatbot atau agen AI otonom. Nvidia diprediksi akan meluncurkan chip inferensi ini dalam acara tahunan konferensi pengembang GTC di San Jose, akhir bulan ini.

Chip baru ini akan mengintegrasikan teknologi yang dilisensikan dari Groq Inc., sebuah startup yang diakuisisi Nvidia pada Desember lalu. Teknologi ini berfokus pada pembuatan chip dengan arsitektur baru yang dioptimalkan untuk tugas-tugas inferensi, yang secara signifikan mengurangi konsumsi daya, salah satu tantangan utama dalam industri AI. 

Nvidia melakukan akuisisi ini senilai US$20 miliar dan juga merekrut CEO Groq, Jonathan Ross, serta Presiden Groq, Sunny Madra, yang merupakan langkah besar dalam sejarah Silicon Valley, disebut-sebut sebagai salah satu "acquihire" terbesar.

Persaingan Sengit di Industri Chip AI

Langkah Nvidia untuk memperkenalkan chip inferensi baru ini datang di tengah persaingan sengit di industri chip AI. Perusahaan-perusahaan besar seperti Google dan Amazon Web Services (AWS) telah mengembangkan chip mereka sendiri untuk mendukung aplikasi AI, berusaha mengurangi ketergantungan pada GPU Nvidia. 

Selain itu, startup seperti Cerebras Systems dan SambaNova Systems juga ikut meramaikan pasar dengan menawarkan solusi chip yang diklaim lebih hemat energi dan lebih cepat.

Namun, kehadiran Nvidia di pasar ini masih sangat kuat, terutama dengan kehadiran OpenAI sebagai pengguna pertama chip terbaru mereka. OpenAI sebelumnya sudah mulai mencari alternatif GPU yang lebih efisien, sehingga mendapatkan akses awal ke chip inferensi Nvidia merupakan kemenangan strategis bagi Nvidia. 

Kerjasama ini semakin mempererat hubungan antara kedua perusahaan, terutama setelah Nvidia meneken kontrak senilai US$30 miliar dengan OpenAI pada pekan lalu, yang semakin menegaskan komitmen Nvidia dalam mendukung perkembangan teknologi AI generatif.

Teknologi Groq yang Diperkenalkan Nvidia

Nvidia berencana untuk mengintegrasikan teknologi dari Groq dalam chip inferensi terbarunya. Teknologi ini mengandalkan "unit pemrosesan bahasa" dengan arsitektur inovatif yang dirancang untuk menghasilkan inferensi dengan konsumsi daya yang rendah, namun tetap memberikan kinerja tinggi. 

Teknologi ini dianggap sebagai solusi yang efisien untuk mendukung aplikasi AI yang bekerja secara berkelanjutan, seperti agen AI otonom yang membutuhkan kinerja berkelanjutan dengan konsumsi daya minimal.

Namun, Nvidia belum memberikan rincian lengkap tentang bagaimana teknologi Groq akan diimplementasikan dalam chip barunya. Meski begitu, chip inferensi ini diperkirakan akan mendukung pengembangan alat pemrograman Codex dari OpenAI, yang kini menjadi pesaing utama untuk produk sejenis yang dikembangkan oleh Anthropic PBC, yaitu Claude Code. Segmen pemrograman AI generatif ini kini menjadi salah satu area paling menarik dan kompetitif dalam industri AI global.

Chip Inferensi Sebagai Masa Depan Industri Kecerdasan Buatan

Dengan pengenalan chip inferensi baru ini, Nvidia tampaknya tidak hanya berupaya untuk menjaga dominasinya di sektor pelatihan model AI, tetapi juga berambisi untuk mengambil alih panggung utama di sektor inferensi yang kini menjadi area perang baru dalam persaingan AI. 

Nvidia sudah lama dikenal dengan GPU-nya yang dapat menangani tugas-tugas pelatihan model AI secara paralel, tetapi ada kritik terkait konsumsi energi tinggi pada GPU mereka. Oleh karena itu, chip inferensi baru ini diharapkan dapat mengatasi kelemahan tersebut dengan menawarkan solusi yang lebih hemat energi namun tetap efisien dalam menjalankan model AI.

Sementara itu, Nvidia juga mendorong penggunaan CPU Grace sebagai alternatif untuk beban kerja inferensi tertentu, yang memungkinkan perusahaan-perusahaan lain untuk melakukan deployment secara lebih efisien. 

Meta Platforms Inc., misalnya, baru-baru ini menjadi perusahaan pertama yang mengadopsi CPU-only untuk mendukung agen penargetan iklan mereka, menunjukkan potensi besar bagi Nvidia untuk memanfaatkan berbagai jenis chip sesuai dengan kebutuhan spesifik perusahaan-perusahaan besar di industri teknologi.

Dengan terus berinovasi di bidang chip dan AI, Nvidia berupaya merebut posisi terdepan dalam persaingan global yang semakin ketat ini. Pengembangan chip inferensi yang efisien dan hemat energi menjadi kunci dalam mempercepat implementasi AI dalam berbagai sektor, dari sektor periklanan hingga teknologi otomatisasi.

Terkini