Techverse.asia - Persyaratan komputasi yang sangat besar dan berkembang pesat pada model kecerdasan buatan (AI) dapat menyebabkan industri membuang limbah elektronik yang jumlahnya setara dengan lebih dari 10 miliar iPhone per tahun pada 2030, menurut proyeksi para peneliti.
Dalam sebuah makalah yang diterbitkan di jurnal Nature, para peneliti dari Universitas Cambridge dan Akademi Ilmu Pengetahuan China mencoba memprediksi seberapa banyak limbah elektronik yang dapat dihasilkan oleh industri yang sedang berkembang ini.
Tujuan mereka bukanlah untuk membatasi adopsi teknologi, yang sejak awal mereka tekankan sebagai sesuatu yang menjanjikan dan mungkin tak terelakkan, tetapi untuk mempersiapkan dunia dengan lebih baik untuk hasil nyata dari perluasannya yang cepat.
Baca Juga: Lagi dan Lagi, Uni Eropa Beri Denda pada Meta Lebih dari Rp13 Triliun karena Hal Ini
Biaya energi, mereka menjelaskan, telah diteliti secara saksama, karena biaya tersebut sudah mulai diperhitungkan.
"Namun, bahan fisik yang terlibat dalam siklus hidupnya, dan aliran limbah peralatan elektronik yang sudah usang kurang mendapat perhatian."
"Penelitian kami tidak bertujuan untuk memperkirakan secara tepat jumlah server AI dan limbah elektronik terkaitnya, tetapi untuk memberikan estimasi bruto awal yang menyoroti skala potensial dari tantangan yang akan datang, dan untuk mengeksplorasi solusi ekonomi sirkular yang potensial," bunyi keterangan tersebut kami kutip, Minggu (17/11/2024).
Ini tentu saja bisnis yang tidak pasti, yang memproyeksikan konsekuensi sekunder dari industri yang terkenal bergerak cepat dan tidak dapat diprediksi.
Baca Juga: Meta Sembunyikan Label Peringatan untuk Gambar yang Dihasilkan AI Generatif
Namun, seseorang setidaknya harus mencoba, bukan? Intinya bukanlah untuk melakukannya dengan benar dalam persentase, tetapi dalam urutan besaran. Apakah kita berbicara tentang puluhan ribu ton limbah elektronik, ratusan ribu, atau jutaan? Menurut para peneliti, itu mungkin mendekati kisaran tertinggi.
Para peneliti memodelkan beberapa skenario pertumbuhan rendah, sedang, dan tinggi, beserta jenis sumber daya komputasi apa yang diperlukan untuk mendukungnya, dan berapa lama sumber daya tersebut akan bertahan. Temuan dasar mereka adalah bahwa limbah akan meningkat sebanyak seribu kali lipat selama tahun 2023:
“Hasil kami menunjukkan potensi pertumbuhan limbah elektronik yang cepat dari 2,6 ribu ton (per tahun) pada 2023 menjadi sekitar 0,4–2,5 juta ton (per tahun) pada 2030,” tulis mereka.
Memang, menggunakan 2023 sebagai metrik awal mungkin sedikit menyesatkan: Karena begitu banyak infrastruktur komputasi yang digunakan selama dua tahun terakhir, angka 2,6 kiloton tidak memasukkannya sebagai limbah. Itu menurunkan angka awal secara signifikan.
Baca Juga: Deteksi Ancaman AI, Perusahaan Bisa Memanfaatkan Asisten Berbasis Kecerdasan Buatan
Namun dalam arti lain, metrik tersebut cukup nyata dan akurat: Bagaimanapun, ini adalah perkiraan jumlah limbah elektronik sebelum dan sesudah ledakan AI generatif. Kita akan melihat peningkatan tajam dalam angka limbah ketika infrastruktur besar pertama ini mencapai akhir masa pakainya selama beberapa tahun ke depan.
Ada berbagai cara untuk mengurangi hal ini, yang diuraikan oleh para peneliti (sekali lagi, hanya secara garis besar). Misalnya, server yang sudah habis masa pakainya dapat didaur ulang alih-alih dibuang, dan komponen seperti komunikasi dan daya juga dapat digunakan kembali.
Perangkat lunak dan efisiensi juga dapat ditingkatkan, memperpanjang masa pakai efektif generasi chip atau jenis GPU tertentu.
Menariknya, mereka lebih suka memperbarui ke chip terbaru sesegera mungkin, karena jika tidak, perusahaan mungkin harus, katakanlah, membeli dua GPU yang lebih lambat untuk melakukan pekerjaan satu GPU kelas atas - menggandakan (dan mungkin mempercepat) pemborosan yang dihasilkan.
Baca Juga: Nekat Jual Beli iPhone 16 di Indonesia? Awas IMEI Bakal Kena Blokir!
Mitigasi ini dapat mengurangi beban pemborosan mulai dari 16 hingga 86 persen - tentu saja cukup besar. Namun, ini bukan masalah ketidakpastian mengenai efektivitas melainkan ketidakpastian mengenai apakah langkah-langkah ini akan diadopsi dan seberapa banyak.
Jika setiap H100 mendapatkan kehidupan kedua di server inferensi berbiaya rendah di suatu universitas, itu akan sangat memperluas perhitungan; jika hanya satu dari 10 yang mendapatkan perlakuan itu, tidak akan terlalu banyak. Itu berarti bahwa mencapai pemborosan terendah versus pemborosan tertinggi, menurut perkiraan mereka, adalah sebuah pilihan - bukan keniscayaan.