Menuju konten utama
TirtoEco

Dahaga AI terhadap Listrik yang Tak Pernah Terpuaskan

Makin mudah suatu hal, makin banyak yang dikorbankan. Begitulah mungkin pepatah yang cocok untuk menggambarkan kerakusan AI terhadap listrik.

Dahaga AI terhadap Listrik yang Tak Pernah Terpuaskan
Ilustrasi pemborosan listrik akibat AI. FOTO/iStockphoto

tirto.id - Kecerdasan buatan (Artificial Intelligence/AI) telah menjadi bagian tak terpisahkan dari kehidupan modern. Dari asisten virtual seperti ChatGPT hingga sistem rekomendasi penggunaan alat transportasi, berbelanja, hingga deteksi data medis di berbagai ranah digital, AI mengubah cara kita berinteraksi dengan teknologi.

Namun, di balik kemudahan yang ditawarkannya, ada satu pertanyaan kritis yang sering diabaikan: seberapa besar kebutuhan listrik AI, dan apa dampaknya di masa depan?

Saya coba iseng bertanya kepada Grok, AI milik Elon Musk: berapa konsumsi listrik setiap saya melemparkan satu pertanyaan. Begini jawabannya:

“Sulit untuk memberikan angka pasti karena konsumsi listrik bergantung pada banyak faktor, seperti perangkat yang kamu gunakan, efisiensi server yang memproses pertanyaan, dan kompleksitas kueri itu sendiri. Secara kasar, satu pertanyaan ke model AI seperti saya mungkin menghabiskan beberapa watt-hour (Wh) di sisi server, mungkin di kisaran 0,01-0,1 Wh untuk kueri sederhana, tapi ini sangat bervariasi.”

Angka tersebut mungkin tampak kecil, tetapi jika dikalikan dengan miliaran permintaan harian, konsumsi energinya menjadi sangat besar. Lalu, bagaimana nasib kebutuhan listrik AI di masa depan? Apa dampaknya terhadap lingkungan dan infrastruktur energi dunia?

Seberapa Lapar AI terhadap Listrik?

AI, terutama Large Language Models (LLM) atau model bahasa besar, seperti GPT-4, Gemini, dan Claude, membutuhkan daya komputasi sangat besar. Begitu pula dengan proses pelatihan dan inferensi—penggunaan model untuk menghasilkan respons.

International Energy Agency (IEA) memproyeksikan, seiring dengan masifnya penggunaan AI, permintaan listrik pusat data global bakal naik lebih dari dua kali lipat pada 2030, menjadi 945 TWh (Terawatt-hour). Angka tersebut melebihi total konsumsi listrik Jepang saat ini.

Laporan lain dari McKinsey & Company memperkirakan, permintaan daya dari pusat data AS bakal melonjak hingga 606 TWh pada 2030, naik dari 147 TWh pada 2023. Kenaikannya menyentuh angka 11,7 persen dari total permintaan AS. Proyeksi jangka panjang menunjukkan, AI merupakan konsumen listrik dominan, yang berpotensi mengubah lanskap energi global.

Sebelum AI dapat digunakan, model harus melalui rangkaian proses fase pelatihan. Misalnya, GPT-3, pendahulu GPT-4, menghabiskan 1.300 Megawatt-hour (MWh) untuk pelatihan. Nilai itu setara dengan konsumsi listrik 120 rumah di AS selama setahun.

Pelatihan model yang lebih besar, seperti GPT-4 atau Google’s Gemini, diperkirakan membutuhkan energi lebih besar lagi. Namun, perusahaan sering merahasiakan angka pastinya.

Setelah model dilatih, setiap kali digunakan (inferensi), AI tetap membutuhkan daya komputasi. Sebagai misal, satu percakapan dengan ChatGPT menyedot sekitar 3 Wh, setara konsumsi daya lampu 3 watt selama 1 jam. Jika ada 10 juta pengguna yang masing-masing melakukan 10 permintaan per hari, total konsumsinya mencapai 300 MWh per hari—cukup untuk menyalakan 30.000 rumah selama sehari.

Angka ini akan terus bertambah seiring meluasnya penggunaan AI di berbagai sektor, mulai dari layanan pelanggan hingga analisis data.

Namun, penelitian terbaru Epoch AI (lembaga penelitian tentang AI, yang juga bekerja sama dengan OpenAI) mengklaim hasil berbeda. Dari perhitungan mereka, penggunaan energi untuk interaksi ChatGPT jauh lebih rendah, sekitar 0,3 Wh per kueri interaksi sederhana, meskipun tetap lebih tinggi dari pencarian Google yang mengonsumsi 0,0003 Wh.

Perkiraan yang rendah dari Epoch AI menawarkan pandangan optimistis tentang biaya energi interaksi AI individu, meskipun dampak keseluruhan dalam skala besar tetap cukup signifikan.

Perbedaan metodologis antara perkiraan konsumsi 3 Wh dan 0,3 Wh mencakup asumsi tentang token keluaran, pemanfaatan daya server, dan efisiensi perangkat keras.

Perkiraan awal mengasumsikan token keluaran yang jauh lebih tinggi per interaksi dengan menggunakan data perangkat keras yang lebih lama. Konsumsi energi dapat bervariasi secara signifikan berdasarkan kompleksitas dan panjang kueri, model AI yang digunakan, serta infrastruktur perangkat keras.

Kueri yang lebih panjang, misalnya, dapat meningkatkan konsumsi energi secara substansial, mulai dari 2,5 hingga 40 watt-jam.

Jika setiap pencarian Google menggunakan interaksi LLM, daya yang dibutuhkan bisa setara kebutuhan listrik di Irlandia, yaitu 29,3 TWh per tahun. Perbandingan ini menyoroti bahwa meskipun interaksi AI individu relatif hemat energi dibandingkan beberapa peralatan, volume interaksi yang sangat besar tetap menghasilkan jejak energi signifikan secara keseluruhan.

Ilustrasi pemborosan listrik akibat AI

Ilustrasi pemborosan listrik akibat AI. FOTO/iStockphoto

Dampak Lingkungan yang Ditimbulkan AI

Konsumsi energi yang tinggi berarti emisi karbon yang besar, kecuali jika sumber listriknya berasal dari energi terbarukan. Beberapa dampak lingkungan yang perlu diperhatikan di antaranya yakni jejak karbon, tekanan infrastruktur listrik, serta upaya-upaya efisiensi.

Menurut laporan The New York Times, pada 2022, pusat data, infrastruktur utama AI, mengonsumsi listrik sebanyak 1 hingga 1,3 persen listrik dunia. Ini belum termasuk kebutuhan daya untuk penambangan mata uang kripto. Pada 2024, pusat data global menggunakan 415 TWh, sekitar 1,5 persen dari total penggunaan global. Angka dasar ini menunjukkan jejak energi AI sebelum adopsi luas AI generatif.

Dampak tersebut sangat bervariasi tergantung demografi. AS, Cina, Eropa, Jepang, dan Malaysia, mungkin mengalami pertumbuhan permintaan listrik dari pusat data karena AI. Merujuk data penelitian Berkeley Lab, penggunaan energi oleh pusat data AS mencapai 176 TWh pada 2023, mewakili 4,4 persen dari total konsumsi AS. Angka tersebut diperkirakan bakal meningkat 3 kali lipat pada 2028.

Di Jepang, lebih dari setengah peningkatan permintaan daya listrik didorong oleh pusat data. Konsentrasi geografis ini akan menciptakan tantangan lokal untuk pasokan listrik dan pengelolaan jaringan.

Jejak karbon AI terkait langsung dengan sumber energinya. Maka itu, transisi ke energi bersih menjadi sangat penting. Apalagi, pelatihan untuk model AI besar dapat menghasilkan emisi karbon yang tidak sedikit.

Menurut Karen Hao dalam laporannya di MIT Technology Review, melatih satu model AI dapat menghasilkan 626.000 pon CO2, hampir lima kali lipat total emisi mobil biasa yang dioperasikan seumur hidup. Potensi penggandaan emisi CO2 dari pusat data dalam rentang 2022 hingga 2030 menunjukkan peningkatan besar dalam jejak karbon ekonomi digital akibat AI.

Masalah yang tak kalah krusial adalah penggunaan air berskala besar di pusat data untuk mendinginkan perangkat keras AI. Diperkirakan, sebanyak dua liter air per kilowatt-jam akan tersedot oleh pusat data hanya untuk mendinginkan perangkat keras.

Ilustrasi pemborosan listrik akibat AI

Ilustrasi pemborosan listrik akibat AI. FOTO/iStockphoto

Studi dari University of California menyebutkan, setiap kueri di ChatGPT memerlukan pasokan air dan listrik yang cukup besar, baik untuk mendinginkan server maupun melakukan perhitungan. Jumlah pastinya dapat bervariasi bergantung pada lokasi pusat data.

Permintaan air global untuk AI pada 2027 diperkirakan mencapai 4,2 hingga 6,6 miliar meter kubik, kira-kira setara dengan total konsumsi air di seluruh Denmark. Jejak air di setiap operasional AI adalah masalah lingkungan yang besar, terutama di daerah yang kekurangan air, yang memerlukan perhatian bersamaan dengan konsumsi energi.

Dampak lainnya ialah peningkatan limbah elektronik dari masa pakai singkat Graphics Processing Unit (GPU). Perangkat keras lain digunakan dalam infrastruktur AI juga menjadi perhatian. Masa pakai singkat GPU dan komponen High Performance Computer (HPC) menyebabkan peningkatan limbah elektronik.

Seluruh siklus hidup teknologi AI, dari produksi hingga pembuangan, berkontribusi terhadap degradasi lingkungan melalui penipisan sumber daya dan generasi limbah.

Bisakah AI Bertahan Tanpa Membebani Listrik?

Ketergantungan AI yang makin besar terhadap listrik menimbulkan kekhawatiran pada keamanan energi, termasuk kebutuhan akan pasokan listrik yang stabil dan andal. Persyaratan operasional berkelanjutan dari pusat data AI memerlukan pasokan listrik yang stabil dan tanpa gangguan, meningkatkan kekhawatiran tentang keandalan dan ketahanan jaringan.

Para ahli telah menyuarakan kekhawatiran tentang peningkatan konsumsi energi oleh AI dan hambatannya terhadap energi keberlanjutan. Charlotte Wang, pendiri EQuota Energy, khawatir proliferasi AI dapat membawa konsekuensi lingkungan yang parah, terutama jika permintaan energinya tidak dikelola secara efektif.

“Kita perlu bertanya: siapa yang memegang kekuasaan pengambilan keputusan? Bagaimana kita mencegah bias dalam solusi energi berbasis AI? Dan, bagaimana kita memastikan transparansi dalam cara AI mengoptimalkan emisi karbon dan alokasi sumber daya?” tukasnya, dalam diskusi bersama Yale Clean Energi Forum pada pertengahan Februari 2025.

Wang menekankan perlunya investasi strategis, insentif pemerintah, dan terobosan teknologi, untuk memastikan bahwa solusi energi bersih yang digerakkan oleh AI dapat diperluas skala dan impaknya.

Sementara itu, IEA menekankan perlunya investasi yang dipercepat dalam jaringan dan pembangkit listrik, peningkatan efisiensi pusat data. Penting pula untuk memperkuat dialog antara pemangku kebijakan, sektor teknologi, dan industri energi.

Jika tren penggunaan AI terus meningkat, para pengembang perlu memikirkan solusi jangka panjang, terutama untuk membuat model yang lebih hemat energi. Model kecil yang khusus (small language models) bisa menjadi alternatif untuk tugas-tugas sederhana dengan teknik kompresi. Dengan begitu, ukuran model AI bisa berkurang, tetapi performanya tetap.

Strategi untuk merampingkan model AI sedang dieksplorasi. Ini termasuk pengembangan model AI khusus domain yang disesuaikan untuk bidang tertentu. Tujuannya adalah mengurangi overhead komputasi (beban tambahan yang diperlukan oleh sistem komputer untuk menjalankan suatu tugas).

Beberapa perusahaan berusaha mengurangi dampak lingkungan AI dengan mengoptimalkan algoritma agar lebih hemat energi. Mereka menggunakan komputasi kuantum atau cip khusus yang lebih efisien. Kluster komputer yang menggunakan GPU mampu menyelesaikan pekerjaan dengan jumlah kebutuhan energi lima kali lebih hemat dibanding kluster yang dibekali CPU, dengan hasil atau kecepatan yang sama.

Pembatasan daya prosesor juga diklaim telah mengurangi konsumsi energi hingga 15 persen. Mereka beralih ke energi terbarukan (solar, angin, hidro) untuk menggerakkan pusat data AI dan mengurangi jejak karbonnya. Salah satu contohnya dilakukan oleh Google dalam sistem AI DeepMind miliknya, yang mengurangi kebutuhan energi di pusat data hingga 40 persen.

Sebagai pengguna, kita bisa mengurangi jejak karbon dan pemborosan listrik dengan membatasi penggunaan AI. Kita juga bisa lebih cermat memilih penyedia AI yang menggunakan energi terbarukan.

Baca juga artikel terkait KECERDASAN BUATAN atau tulisan lainnya dari Ali Zaenal

tirto.id - Mild report
Kontributor: Ali Zaenal
Penulis: Ali Zaenal
Editor: Fadli Nasrudin