OpenAI, perusahaan penelitian dan penyebaran kecerdasan buatan atau artificial intelligence (AI) yang menciptakan ChatGPT, meluncurkan inisiatif baru untuk menilai dan mencegah berbagai risiko yang terkait dengan AI.
Inisiatif ini diberi nama Preparedness (Kesiapsiagaan), tim ini dipimpin oleh Aleksander Madry, dan memiliki fokus ancaman AI yang terkait sejumlah bidang.
"Untuk meminimalkan risiko seiring dengan terus berkembangnya model AI, kami membangun tim baru yang disebut Preparedness," kata OpenAI, seperti dikutip Sabtu (28/10/2023).
Baca Juga: Galaxy Z Fold5 dan Z Flip5 Edisi Sumpah Pemuda, Hadirkan Gaya Tenun Ikonis IKAT Indonesia
Baca Juga: Suzuki Burgman Street 125EX Hadir di Indonesia
Tim Preparedness ini akan menghubungkan secara erat penilaian kemampuan, evaluasi, dan tim merah internal untuk model-model terdepan. Mulai dari model yang kami kembangkan dalam waktu dekat hingga model dengan kemampuan tingkat AGI.
Tim ini akan membantu melacak, mengevaluasi, memperkirakan, dan melindungi terhadap risiko bencana yang mencakup berbagai kategori termasuk:
- Persuasi individual
- Keamanan siber
- Ancaman kimia, biologi, radiologi, dan nuklir (CBRN)
- Replikasi dan adaptasi otonom (ARA)
"Kami percaya bahwa model-model AI terdepan, yang akan melampaui kemampuan yang ada pada model-model tercanggih yang ada saat ini, mempunyai potensi untuk memberi manfaat bagi seluruh umat manusia," terang perusahaan.
Meski demikian, OpenAI juga tidak menampik kemampuan tersebut juga menimbulkan risiko yang semakin parah.
Baca Juga: Inteluck: Startup Rantai Pasok Asal Singpura Dapat Pendanaan Seri C
Tim Preparedness, nantinya mengelola risiko bencana dari AI frontier memerlukan jawaban atas pertanyaan-pertanyaan seperti:
- Seberapa berbahayakah sistem AI frontier jika disalahgunakan, baik saat ini maupun di masa depan?
- Bagaimana kita dapat membangun kerangka kerja yang kuat untuk pemantauan, evaluasi, prediksi, dan perlindungan terhadap kemampuan berbahaya sistem AI terdepan?
- Jika bobot model AI frontier kita dicuri, bagaimana pelaku kejahatan bisa memilih untuk memanfaatkannya?
- Kita perlu memastikan bahwa kita memiliki pemahaman dan infrastruktur yang diperlukan untuk keamanan sistem AI yang berkemampuan tinggi.
Misi tim Preparedness juga mencakup pengembangan dan pemeliharaan Kebijakan Pembangunan Berdasarkan Informasi Risiko (RDP).
"RDP kami akan memerinci pendekatan dalam mengembangkan evaluasi dan pemantauan kemampuan model perbatasan yang ketat, menciptakan spektrum tindakan perlindungan, dan menetapkan struktur tata kelola untuk akuntabilitas dan pengawasan di seluruh proses pembangunan tersebut," lanjut pengumuman itu.
RDP dimaksudkan untuk melengkapi dan memperluas upaya mitigasi risiko yang ada, yang berkontribusi terhadap keselamatan dan penyelarasan sistem baru yang berkemampuan tinggi; baik sebelum dan sesudah penerapan.
Baca Juga: Hoaks Pemilu Mulai Menyebar di Media Sosial, Jumlahnya Meningkat 10 Kali Lipat
Baca Juga: Riset CfDS UGM Jelang Pemilu 2024: Akun Medsos Ganjar Pranowo Terpantau Paling Aktif
Untuk mendukung kinerja tim, OpenAI mencari talenta dengan latar belakang teknis yang berbeda, untuk tim Preparedness baru. Jika kamu berminat, bisa mendaftar lewat tautan berikut ini https://openai.com/careers/search?c=preparedness.
Perusahaan juga meluncurkan tantangan Preparedness AI untuk pencegahan penyalahgunaan yang menghancurkan. Perusahaan menawarkan $25.000 dalam kredit API untuk 10 pengajuan teratas.
OpenAI menyadari betul bahwa kecerdasan buatan -yang kadangkala menghadirkan kecerdasan melebihi manusia- juga bisa menjadi masalah.
Hal itu yang menjadi alasan yang mendorong perusahaan telah bergabung dengan laboratorium AI terkemuka lain di dunia, pada Juli 2023, untuk membuat serangkaian komitmen sukarela dalam meningkatkan keselamatan, keamanan, dan kepercayaan terhadap AI.
Komitmen ini mencakup berbagai bidang risiko, termasuk risiko terdepan yang menjadi fokus UK AI Safety Summit.