Hari demi hari, kemajuan teknologi kian tak terbantahkan, termasuk juga dalam konteks kecerdasan buatan. Hal ini misalnya terlihat pada kehadiran ChatGPT, yang seiring hari semakin populer.
ChatGPT merupakan chatbot buatan OpenAI, mengadopsi artificial intelligence (AI) atau kecerdasan buatan. Chatbot ini mampu menjawab aneka pertanyaan pengguna dengan bahasa yang menyerupai bahasa manusia. ChatGPT kekinian dikenal dapat membantu siapa saja dan apapun yang dibutuhkan.
Namun demikian, kepopuleran dan kemudahan penggunaan teknologi kecerdasan buatan macam ChatGPT, selanjutnya mendorong munculnya kekhawatiran sejumlah pihak. Kondisi ini kemudian menyebabkan ada sejumlah negara dan perusahaan yang melarang penggunaan ChatGPT. Karena tidak dipungkiri, penggunaan ChatGPT bisa saja membuat masalah di kemudian hari.
Dan terbaru, Fox Business mengungkap bahwa, data perusahaan Samsung di divisi semikonduktor mengalami kebocoran pada tiga kesempatan terpisah. Situs web mengatakan kebocoran itu terjadi dalam 20 hari setelah konglomerat Korea Selatan itu mencabut larangan chatbot.
Melansir dari media itu, Sabtu (8/4/2023), dapat digambarkan beginilah masalah yang terjadi di perusahaan tersebut. Jadi, sebelum kita meminta chatbot untuk meringkas memo penting atau memeriksa kesalahan pekerjaan kita, perlu diingat bahwa apapun yang kita bagikan dengan ChatGPT dapat digunakan untuk melatih sistem. Bahkan mungkin memunculkan tanggapannya kepada pengguna lain.
Nah, mungkin ini sesuatu yang terlupakan oleh sejumlah pegawai Samsung, hingga mereka kemudian dilaporkan telah tidak sengaja membagikan informasi rahasia dengan chatbot.
Segera setelah divisi semikonduktor Samsung telah mengizinkan para insinyur mereka untuk menggunakan ChatGPT, para pekerja membocorkan informasi rahasia setidaknya tiga kali.
Baca Juga: Kelebihan AI: Bisa Deteksi Kejahatan Pencucian Uang Sampai Radang Paru-Paru
Baca Juga: Apa Itu MindMe? Platform WebGIS yang Ajak Orang Sadar Pentingnya Kesehatan Mental
Baca Juga: Waduh! CEO Apple Tim Cook Tak Ingin Orang Terlalu Sering Pakai iPhone, Kenapa Ya?
Laman The Economist mengatakan, seorang pekerja telah menemukan kesalahan saat mengeksekusi kode sumber dan menanyakan solusinya. Sedangkan karyawan lain mengunggah kode program yang ditulis, untuk mengidentifikasi hasil dan peralatan yang rusak dan meminta pengoptimalan kode.
Karyawan ketiga mengunggah rekaman rapat untuk membuat risalah rapat.
"Sulit untuk dikonfirmasi karena ini adalah masalah internal perusahaan," kata seorang pejabat Samsung Electronics kepada reportert The Economist.
Akibat tindakan tiga karyawan itu, perusahaan telah menerapkan tindakan perlindungan darurat. Samsung juga dapat memblokir ChatGPT di jaringan perusahaan jika terjadi kecelakaan serupa, kata laporan itu.
Melansir Engadget, kini perusahaan dikatakan sedang menyelidiki ketiga karyawan tersebut dan membangun chatbot sendiri untuk mencegah kecelakaan serupa.
Kebijakan data ChatGPT menyatakan bahwa, kecuali pengguna memilih keluar secara eksplisit, ChatGPT akan menggunakan permintaan mereka untuk melatih modelnya.
Pemilik chatbot, OpenAI, mendesak pengguna untuk tidak membagikan informasi rahasia dengan ChatGPT dalam percakapan karena chatbot tersebut 'tidak dapat menghapus petunjuk spesifik dari riwayat Anda'. Maka, satu-satunya cara untuk menghilangkan informasi pengenal pribadi di ChatGPT adalah dengan menghapus akun: sebuah proses yang dapat memakan waktu hingga empat pekan.
Jadi, sepertinya kita memang tetap harus berhati-hati ketika berinteraksi dan mengoperasikan chatbot ChatGPT. Karena sifat AI sebagai mesin yang belajar, ChatGPT akan menggunakan data masukan dari pengguna untuk pekerjaannya; data masukan itu bisa saja masuk dalam keluaran pengguna lainnya. Terlebih OpenAI telah mengembangkan aplikasi ini untuk bisa terkoneksi dengan internet. Belum diketahui perkembangan ujicoba atas layanan yang satu ini.