OpenAI Telah Membentuk Komite Keselamatan dan Keamanan yang Baru

(ilustrasi) Tim keamanan baru OpenAI dipimpin oleh anggota dewan, termasuk CEO Sam Altman (Sumber: Shutterstock via CX Today)

OpenAI telah membentuk Komite Keselamatan dan Keamanan kecerdasan buatan (AI) mereka yang baru.

Langkah tersebut diambil OpenAI, berselang kurang dua pekan setelah perusahaan membubarkan tim yang bertugas melindungi umat manusia dari ancaman nyata AI

Versi terbaru dari kelompok yang bertanggung jawab atas 'pagar pengaman' OpenAI ini akan mencakup dua anggota dewan dan sang CEO Sam Altman. 

Engadget menyebut, pilihan ini kemudian menimbulkan pertanyaan, tentang apakah langkah ini hanya sekedar teater pengawasan mandiri di tengah perlombaan yang sangat ketat, untuk mendapatkan keuntungan dan dominasi bersama mitranya Microsoft.

Baca Juga: Pajak.io Menawarkan Solusi Pembayaran Pajak untuk Korporasi, Terintegrasi dengan DJP

Baca Juga: Pizza Marzano Hadirkan Menu Baru 2024, Ini Daftar Makan dan Minumnya

Komite Keselamatan dan Keamanan, yang dibentuk oleh dewan OpenAI tersebut akan dipimpin oleh anggota dewan Bret Taylor (Ketua), Nicole Seligman, Adam D'Angelo dan Sam Altman (CEO). Tim baru ini mengikuti pengunduran diri salah satu pendiri Ilya Sutskever dan Jan Leike, yang membuat banyak orang terkejut. Mantan 'Tim Superalignment' mereka baru dibentuk Juli 2023.

"OpenAI juga menarik kembali perjanjian 'tidak meremehkan' yang diwajibkan oleh para eksekutif yang mengundurkan diri, dan mengubah nadanya dengan mengatakan bahwa mereka tidak akan menegakkan perjanjian tersebut. Sebelumnya, perusahaan memaksa karyawan yang keluar untuk memilih: dapat berbicara menentang perusahaan atau mempertahankan ekuitas yang mereka peroleh," tulis laporan itu, seperti diakses Rabu (29/5/2024).

Komite Keselamatan dan Keamanan berencana untuk 'mengevaluasi dan mengembangkan lebih lanjut' proses dan pengamanan perusahaan selama 90 hari ke depan. Setelah itu, kelompok akan membagikan rekomendasinya kepada seluruh pengurus. Setelah seluruh tim kepemimpinan meninjau kesimpulannya, mereka akan secara terbuka membagikan pembaruan mengenai rekomendasi yang diadopsi dengan cara yang konsisten dengan keselamatan dan keamanan.

Sementara itu, OpenAI juga mengonfirmasi perusahaan tersebut saat ini sedang melatih model berikutnya, yang akan menggantikan GPT-4.

Baca Juga: ASUS ROG Rilis 2 Monitor Gaming: XG27AQDMG dan XG27UCG

Sebelum ini diberitakan banyak media, salah satu pendiri OpenAI, Ilya Sutskever, mengundurkan diri sebagai kepala ilmuwan di startup tersebut, pekan lalu.

Laporan The New York Times menuliskan, di momen para ilmuwan AI mundur, timbul pertanyaan tentang "apakah OpenAI -sebagai salah satu pengembang alat kecerdasan buatan terkemuka- terlalu lemah dalam hal keselamatan?"

Sebuah unggahan di akun X milik Jan Leike, yang juga mengundurkan diri dari OpenAI, menyinggung perihal budaya dan proses keselamatan telah menjadi prioritas bagi produk yang cemerlang.

Diketahui, Leike sebelumnya bekerja mengawasi apa yang disebut tim superalignment perusahaan, bersama Sutskever. Keduanya bertugas meyakinkan pengguna bahwa produk perusahaan tidak menjadi ancaman bagi umat manusia.

Sutskever mengatakan dalam catatan perpisahannya bahwa, dia yakin OpenAI akan membangun kecerdasan umum buatan -AI secanggih otak manusia— yang aman dan bermanfaat bagi umat manusia.

Tetapi Leike jauh lebih kritis. Menurutnya perusahaan harus lebih fokus pada keamanan, pemantauan, kesiapsiagaan, keselamatan, ketahanan terhadap musuh, keselarasan (super), kerahasiaan, dampak sosial, dan topik terkait.

Baca Juga: Tiga Merek Mobil Jepang Berkolaborasi Buat Mesin Netral Karbon

Kemudian, ia juga mencuit bahwa masalah-masalah tersebut cukup sulit untuk diselesaikan, dan Leike khawatir kita tidak berada dalam jalur yang tepat untuk mencapainya.

"Selama beberapa bulan terakhir tim saya berlayar melawan angin. Terkadang kami kesulitan dalam hal komputasi dan semakin sulit menyelesaikan penelitian penting ini, " tulisnya.

Membangun mesin yang lebih pintar dari manusia pada dasarnya adalah upaya yang berbahaya. Dan menurut Leike, hal ini berpotensi menjadi semakin menakutkan.

Leike (lewat cuitannya pula) memandang, selama beberapa tahun terakhir, budaya dan proses keselamatan telah dikesampingkan dibandingkan produk yang berkilau di perusahaan tersebut.

Leike jelas menganggap serius narasi internal perusahaan tentang upaya menuju kecerdasan umum buatan, yang juga dikenal sebagai AGI (sistem yang benar-benar memproses informasi seperti manusia, jauh melampaui kemampuan sempit seperti LLM).

"Kami sudah lama terlambat untuk bersikap serius mengenai implikasi AGI. Kita harus memprioritaskan persiapan menghadapinya sebaik mungkin. Hanya dengan begitu kita dapat memastikan AGI bermanfaat bagi seluruh umat manusia," imbuhnya, ditulis oleh laman Vox.

Tags :
BERITA TERKAIT
BERITA TERKINI