Tech
Bukan Soal Chip: Satya Nadella Ungkap “Mata Rantai Hilang” yang Menghambat Revolusi AI

Semarang (usmnews) – Dikutip dari kompas.com Di tengah gegap gempita kemajuan kecerdasan buatan (AI), CEO Microsoft, Satya Nadella, memberikan pandangan yang mengejutkan mengenai hambatan terbesar yang dihadapi industri saat ini.Berbicara dalam sebuah podcast bersama CEO OpenAI, Sam Altman, Nadella menegaskan bahwa tantangan utama bukanlah ketersediaan chip AI yang canggih, melainkan keterbatasan pasokan energi atau listrik.
Nadella menjelaskan bahwa dari perspektif Microsoft, ketersediaan perangkat keras (hardware) seperti chip AI sebenarnya sudah sangat memadai, bahkan telah melampaui kemampuan infrastruktur pendukung yang ada saat ini, khususnya data center. Masalahnya, menurut Nadella, listrik telah menjadi “mata rantai penting yang hilang” dalam ekosistem ini.

Ia mengilustrasikan masalah ini dengan sebuah skenario praktis. Microsoft mungkin memiliki banyak sekali chip AI yang siap digunakan, namun chip-chip tersebut tidak dapat dipasang dan dioperasikan. “Bukan soal pasokan chip,” tegas Nadella, “tetapi saya tidak punya ‘warm shell’ untuk memasangnya.”Istilah “warm shell” yang digunakan Nadella merujuk pada fasilitas pusat data (data center) yang telah sepenuhnya siap secara infrastruktur. Kesiapan ini tidak hanya berarti gedung atau rak server, tetapi juga kelengkapan vital seperti pasokan listrik yang masif dan sistem pendingin yang memadai.
Karena pasokan listrik menjadi kendala besar, maka proses penyiapan “warm shell” ini menjadi terhambat, yang secara langsung menunda instalasi dan penggunaan chip AI baru.Skala kebutuhan energi ini sangat luar biasa. Sebuah pusat data modern yang dirancang untuk mendukung model AI skala besar dapat mengonsumsi daya listrik setara dengan kebutuhan sebuah kota kecil. Lebih jauh lagi, beberapa data center hyperscale generasi baru yang sedang dibangun diperkirakan akan membutuhkan listrik 20 kali lipat lebih banyak dibandingkan fasilitas sejenis yang ada saat ini.
Proyeksi menunjukkan setiap fasilitas baru ini bisa membutuhkan daya hingga 2 gigawatt, setara dengan total konsumsi daya di beberapa negara bagian Amerika Serikat.Data dan ramalan di Amerika Serikat menunjukkan tren yang mengkhawatirkan.
Pada tahun 2024, data center di AS diperkirakan mengonsumsi 183 terawatt per jam (TWh) listrik, yang setara dengan lebih dari 4% total penggunaan listrik nasional. Angka konsumsi ini diprediksi akan melonjak dua kali lipat pada tahun 2030. Bahkan, diperkirakan pada tahun 2028, beban kerja yang spesifik untuk tugas-tugas AI saja akan menghabiskan listrik setara dengan 22% total konsumsi rumah tangga di AS.

Masalah ini juga berdampak nyata pada operator data center dan perusahaan teknologi. Dilaporkan bahwa banyak penyedia layanan cloud dan perusahaan AI terpaksa membiarkan server-server mereka dalam kondisi menganggur (idle) selama berbulan-bulan. Hal ini terjadi bukan karena server rusak atau tidak ada permintaan, tetapi semata-mata karena mereka harus menunggu kendala pasokan listrik di tingkat regional teratasi sebelum bisa mengaktifkan sumber daya komputasi baru.
Sam Altman dari OpenAI mengamini kekhawatiran ini dan secara aktif menyerukan perlunya investasi besar-besaran pada pembangkit listrik baru untuk menopang kebutuhan AI. Altman menyoroti langkah China yang berinvestasi pada pembangkit listrik tenaga air dan nuklir sebagai strategi untuk meningkatkan skala infrastruktur AI mereka. Ia juga memperingatkan bahwa kapasitas pembangkit listrik AS saat ini tertinggal jauh dari kebutuhan energi AI di masa depan.
Sebagai penutup, ada secercah harapan dari spekulasi teknologi di masa depan. Diperkirakan bahwa hardware yang digunakan oleh konsumen (seperti PC atau smartphone) pada akhirnya akan mampu menjalankan model AI canggih sekelas GPT-5 atau GPT-6 secara lokal di perangkat. Hal ini dimungkinkan berkat kemajuan teknologi semikonduktor mutakhir yang sangat hemat daya. Jika praktik ini terwujud, permintaan akan data center terpusat yang sangat boros energi dapat diminimalisasi secara signifikan.







