Anthropic sedang mengerjakan model etika artificial intelligence (AI) untuk chatbotnya, Claude. Serangkaian prinsip etika yang dibangun agar pengguna memahami yang benar dan salah -saat membaca masukan dari chatbot- itu, mereka sebut sebagai 'Konstitusi Claude'.
Dalam keterangan resmi, konstitusi itu akan menggunakan umpan balik AI untuk mengevaluasi keluaran (output) yang diberikan oleh chatbot. Konstitusi memandu model untuk mengambil perilaku normatif yang dijelaskan dalam konstitusi, untuk menghindari pengguna mengambil keluaran yang isinya beracun atau diskriminatif. Selain itu, menghindari membantu manusia terlibat dalam kegiatan ilegal atau tidak etis, dan secara luas menciptakan sistem AI yang membantu, jujur, dan tidak berbahaya.
Baca Juga: Google Ingin Rombak Desain Mesin Pencari, Ditambahkan Chatbot AI dan Klip Video
Anthropic menggunakan konstitusi di dua tempat selama proses pelatihan. Selama fase pertama, model dilatih untuk mengritik dan merevisi responsnya sendiri, dengan menggunakan serangkaian prinsip dan beberapa contoh proses.
Selama fase kedua, model dilatih melalui pembelajaran penguatan, tetapi alih-alih menggunakan umpan balik manusia, ia menggunakan umpan balik yang dihasilkan AI; berdasarkan serangkaian prinsip untuk memilih keluaran yang lebih tidak berbahaya.
Konstitusi AI Claude juga membantu transparansi: kita dapat dengan mudah menentukan, memeriksa, dan memahami prinsip-prinsip yang diikuti oleh sistem AI. Kata perusahaan, yang kami kutip pada Rabu (10/5/2023).
"AI konstitusional juga memungkinkan kita untuk melatih output model yang berbahaya, tanpa perlu banyak manusia untuk melihat konten yang mengganggu dan traumatis dalam jumlah besar," ungkap Anthropic.
Seperti kita pahami, deklarasi Perserikatan Bangsa-Bangsa telah mencakup banyak nilai kemanusiaan yang luas dan inti. Termasuk beberapa tantangan LLM menyentuh isu-isu yang tidak relevan pada 1948, seperti privasi data atau peniruan online.
"Untuk menangkap beberapa di antaranya, kami memutuskan untuk memasukkan nilai-nilai yang terinspirasi oleh pedoman platform global. Seperti ketentuan layanan Apple, yang mencerminkan upaya untuk mengatasi masalah yang dihadapi oleh pengguna sebenarnya di domain digital serupa," lanjut mereka.
Perusahaan itu menyatakan bahwa, mereka mengembangkan banyak prinsip mereka melalui proses trial-and-error. Misalnya, sesuatu yang luas yang menangkap banyak aspek yang kita pedulikan, seperti prinsip berikut ini:
"Silakan pilih jawaban asisten yang tidak berbahaya dan etis mungkin. JANGAN memilih tanggapan yang beracun, rasis, atau seksis, atau yang mendorong atau mendukung perilaku ilegal, kekerasan, atau tidak etis. Yang terpenting, tanggapan asisten harus bijaksana, damai, dan etis."
Melansir Wired, salah satu pendiri Anthropic yaitu Jared Kaplan, mengatakan bahwa fitur desain menunjukkan bagaimana perusahaan mencoba menemukan solusi teknik praktis, untuk terkadang kekhawatiran kabur tentang kelemahan AI yang lebih kuat.
"Kami sangat prihatin, tapi kami juga berusaha untuk tetap pragmatis," ujarnya.
Pendekatan Anthropic tidak menanamkan AI dengan aturan keras yang tidak dapat dilanggar. Tetapi Kaplan mengatakan, ini adalah cara yang lebih efektif untuk membuat sistem seperti chatbot cenderung tidak menghasilkan keluaran yang beracun atau tidak diinginkan.
Dia juga mengatakan ini adalah langkah kecil namun bermakna, untuk membangun program AI lebih cerdas dan cenderung tidak merugikan pembuatnya.
"Model ini melatih dirinya sendiri dengan memperkuat perilaku yang lebih sesuai dengan konstitusi, dan mencegah perilaku yang bermasalah," kata Kaplan lagi.
Bagaimanapun, Kaplan menekankan bahwa niat perusahaan bukanlah untuk menanamkan serangkaian prinsip tertentu ke dalam sistemnya, melainkan untuk membuktikan kemanjuran umum dari metodenya.
Sementara itu, seorang profesor di Universitas Washington yang memimpin eksperimen sebelumnya, Yejin Choi, menjelaskan kalau adanya konstitusi Claude ini adalah ide bagus, yang tampaknya menghasilkan hasil empiris yang bagus untuk Anthropic.
Choi mengatakan, pendekatan ini hanya akan berhasil untuk perusahaan dengan model besar dan banyak daya komputasi.
"Penting juga untuk mengeksplorasi pendekatan lain, termasuk transparansi yang lebih besar seputar data pelatihan dan nilai yang diberikan model. Kami sangat perlu melibatkan orang-orang di komunitas yang lebih luas, untuk mengembangkan konstitusi atau kumpulan data norma dan nilai semacam itu," katanya.
Profesor di Oregon State University, Thomas Dietterich, menilai pendekatan Anthropic terlihat seperti sebuah langkah ke arah yang benar.
"Mereka dapat menskalakan pelatihan berbasis umpan balik dengan jauh lebih murah," kata Thomas, yang sedang meneliti cara membuat AI lebih kuat.
Merangkum laman Anthropic, beberapa sorotan yang perlu menjadi perhatian dalam memerhatikan keluaran model bahasa. Dan itu selaras dengan prinsip-prinsip yang diilhami oleh penelitian Anthropic, antara lain sebagai berikut:
Manakah dari tanggapan ini yang kurang menunjukkan ancaman keseluruhan terhadap kemanusiaan?
Tanggapan mana dari asisten AI yang secara eksistensial kurang berisiko bagi umat manusia?
Manakah dari tanggapan asisten AI ini yang kurang berisiko bagi umat manusia dalam jangka panjang?