CEO OpenAI, Sam Altman, mengatakan bahwa ia memiliki sedikit ketakutan terhadap teknologi kecerdasan buatan.
Dalam tulisan yang dipublikasikan ABC News baru-baru ini, Altman mengungkap tentang bagaimana cara kerja Artificial Intelligence (AI), bagaimana hal itu dapat memengaruhi tenaga kerja, pemilu, dan penyebaran disinformasi.
Seperti kita ketahui, OpenAI adalah perusahaan yang semakin terkenal di masa kini, usai mengembangkan bot ChatGPT. GPT adalah singkatan dari Generative Pre-trained Transformer. ChatGPT bekerja dengan menciptakan jawaban seperti manusia untuk beragam. Kehadiran ChatGPT menimbulkan tren dan kegemaran baru masyarakat atas AI.
Altman percaya teknologi kecerdasan buatan akan membentuk kembali masyarakat seperti yang kita kenal. Dia percaya AI adalah teknologi hebat yang pernah dikembangkan manusia untuk meningkatkan kehidupan. Tetapi AI juga datang dengan bahaya nyata.
"Kita harus berhati-hati di sini. Saya pikir orang seharusnya senang bahwa kami sedikit takut akan hal ini," kata Sam Altman dalam wawancara bersama media itu, dikutip Rabu (22/3/2023).
Altman menegaskan, OpenAI membutuhkan regulator dan masyarakat untuk terlibat sebanyak mungkin dengan peluncuran ChatGPT. Ia berkeras bahwa, umpan balik akan membantu mencegah potensi konsekuensi negatif yang dapat ditimbulkan oleh teknologi terhadap umat manusia.
Kerja GPT-4 Sangat Dikendalikan Oleh Manusia, Manusia Juga Ancamannya
Altman selanjutnya diajak mendedah soal kehadiran GPT-4 yang belum lama rilis. Dalam pandangan Altman, GPT-4 tidak sempurna. Meski demikian teknologi ini mendapat skor dalam persentil ke-90 di Uniform Bar Exam. GPT juga mencetak skor hampir sempurna pada tes SAT Math, dan sekarang mahir menulis kode komputer di sebagian besar bahasa pemrograman.
Meskipun dia merayakan kesuksesan produknya, Altman mengakui kemungkinan penerapan AI yang berbahaya bisa membuatnya terjaga di malam hari.
"Saya sangat khawatir model ini dapat digunakan untuk disinformasi skala besar," kata Altman.
"Sekarang mereka semakin baik dalam menulis kode komputer, [mereka] dapat digunakan untuk serangan cyber ofensif," ungkapnya.
Model AI tidak membutuhkan manusia dalam membuat keputusan sendiri dan merencanakan dominasi dunia. AI hanya menunggu seseorang untuk memberikan masukan padanya.
"Ini adalah alat yang sangat dikendalikan oleh manusia," tambahnya.
Namun, dia takut manusia mana yang bisa memegang kendali.
"Akan ada orang lain yang tidak menerapkan batasan keamanan yang kami terapkan. Masyarakat, menurut saya, memiliki waktu terbatas untuk memikirkan bagaimana bereaksi terhadap itu, bagaimana mengaturnya, bagaimana menanganinya," demikian kekhawatiran Altman.
Tetapi masalah yang konsisten dengan model bahasa AI seperti ChatGPT, menurut Altman, adalah informasi yang salah: Program ini dapat memberikan informasi yang tidak akurat secara faktual kepada pengguna.
"Hal yang paling saya coba peringatkan kepada orang-orang adalah apa yang kami sebut 'masalah halusinasi'," kata Altman.
"Model itu dengan percaya diri akan menyatakan hal-hal seolah-olah itu adalah fakta, [padahal itu] yang sepenuhnya dibuat-buat," tutur dia, persis seperti ulasan banyak media mengenai ChatGPT.
Model tersebut memiliki masalah ini, sebagian, karena menggunakan penalaran deduktif daripada menghafal, menurut OpenAI.
Altman Bersyukur ChatGPT Punya Kode Pengamanan, Tapi........
Jenis informasi yang dimiliki ChatGPT dan model bahasa AI lainnya juga menjadi perhatian. Misalnya, apakah ChatGPT dapat memberi tahu pengguna cara membuat bom atau tidak.
"Jawabannya adalah tidak, karena ada tindakan pengamanan yang dikodekan ke dalam ChatGPT," tegas dia.
"Satu hal yang saya khawatirkan adalah... kita tidak akan menjadi satu-satunya pencipta teknologi ini. Akan ada orang lain yang tidak menerapkan batasan keamanan yang kami berikan," terangnya mengulangi.
Ada beberapa solusi dan perlindungan untuk semua potensi bahaya dengan AI ini, lanjut Altman. Salah satunya, membiarkan masyarakat bermain-main dengan ChatGPT saat taruhannya rendah sekaligus mempelajari kerjanya.
Karena menurut dia, penting bagi publik untuk berinteraksi dengan setiap versi ChatGPT.
"Jika kami hanya mengembangkan ini secara rahasia -di lab kecil kami di sini-, dan membuat GPT-7 lalu meluncurkannya ke dunia sekaligus, menurut saya itu adalah situasi dengan lebih banyak kerugian," kata Alman.
Ia meyakini, orang-orang membutuhkan waktu untuk memperbarui, bereaksi, membiasakan diri dengan teknologi ini. Selain untuk memahami di mana kelemahannya dan apa yang bisa menjadi mitigasi.
Mengenai konten ilegal atau tidak pantas secara moral, Altman mengatakan mereka memiliki tim pembuat kebijakan di OpenAI. Tim inilah yang memutuskan informasi apa yang masuk ke ChatGPT, dan apa yang boleh dibagikan ChatGPT dengan pengguna.
"[Kami] berbicara dengan berbagai pakar kebijakan dan keselamatan. Mendapatkan audit sistem untuk mencoba mengatasi masalah ini, dan mengeluarkan sesuatu yang menurut kami aman dan baik," tambah Altman.
"Dan sekali lagi, kita tidak akan melakukannya dengan sempurna pada kali pertama. Tetapi sangat penting untuk mempelajari pelajaran dan menemukan keunggulan sementara taruhannya relatif rendah," kata dia mengakhiri.