Meta Platforms Inc., akan mulai mendeteksi dan memberi label pada konten yang dihasilkan oleh layanan kecerdasan buatan, yang ditayangkan di platform Facebook, Instagram, dan Threads.
Presiden Urusan Global Meta, Nick Clegg, mengungkap bahwa Meta sedang membangun kemampuan tersebut dan akan menerapkannya beberapa bulan mendatang.
"Kami akan menerapkan pendekatan ini hingga tahun depan, saat sejumlah pemilu penting sedang berlangsung di seluruh dunia. Selama masa ini, kami berharap dapat mempelajari lebih banyak tentang cara orang membuat dan berbagi konten AI, transparansi seperti apa yang paling berharga bagi orang-orang, dan bagaimana teknologi ini berkembang," ungkapnya, dikutip dari sebuah pernyataan resmi, Rabu (7/2/2024).
Baca Juga: ECOVISEA: Kalkulator Gas Rumah Kaca Berbasis Web
Menurut Clegg, ini adalah cara Meta dalam memberi sinyal kepada pengguna bahwa gambar-gambar tersebut sebenarnya adalah kreasi digital. Meskipun, dalam beberapa kasus, terlihat seperti nyata.
Sementara ini, perusahaan tersebut sudah memberi label pada konten yang dihasilkan menggunakan alat kecerdasan buatannya sendiri. Yakni, dengan menerapkan label 'Imagined with AI'.
Mereka akan melakukan hal sama, untuk konten yang dibuat di layanan yang dijalankan oleh OpenAI, Microsoft, Adobe, Midjourney, Shutterstock, dan Google milik Alphabet.
Baca Juga: Scomadi Segera Kirim 2 Motor Matiknya ke Pelanggan Mulai Februari 2024
Clegg menyebut, pihaknya bekerja sama dengan mitra industri untuk menyelaraskan standar teknis umum, yang menandakan kapan suatu konten dibuat menggunakan AI.
Meta nantinya juga bukan hanya akan memberi label untuk gambar yang dihasilkan kecerdasan buatan (AI). Melainkan juga akan menandai label untuk konten audio dan video, walaupun itu adalah sesuatu yang prosesnya lebih rumit.
"Kami akan mewajibkan orang-orang untuk menggunakan alat pengungkapan dan pelabelan ini; ketika mereka memposting konten organik dengan video fotorealistik, atau audio yang terdengar realistis, yang dibuat atau diubah secara digital. Kami dapat menerapkan penalti jika mereka gagal melakukannya," kata Clegg.
Ia menambahkan, meski teknologi ini belum sepenuhnya sempurna dari pengembangan, tetapi ia berharap perusahaan dapat menciptakan rasa aman bagi pengguna.
Saat ini, Meta memang menggunakan teknologi AI untuk membantu menegakkan kebijakan-kebijakan mereka, hanya saja penggunaan alat AI generatif untuk tujuan ini masih terbatas.
"Namun kami optimis bahwa AI generatif dapat membantu kami menghapus konten berbahaya dengan lebih cepat dan akurat. Hal ini juga dapat berguna dalam menegakkan kebijakan kami pada saat-saat yang berisiko tinggi, seperti pemilu," urainya.
Meta, diketahui telah mulai menguji Model Bahasa Besar (LLM) dengan melatihnya berdasarkan Standar Komunitas, untuk membantu menentukan apakah suatu konten melanggar kebijakan Meta.
Pengujian awal ini menunjukkan, LLM dapat berperforma lebih baik dibandingkan model pembelajaran mesin yang sudah ada.
Baca Juga: Ortuseight Catalyst Legion V4, Sepatu Sepak Bola untuk Berbagai Medan Lapangan
Meta juga menggunakan LLM untuk menghapus konten dari antrean ulasan dalam keadaan tertentu, ketika perusahaan sangat yakin konten tersebut tidak melanggar kebijakan.
"Hal ini memberikan ruang bagi peninjau kami untuk fokus pada konten yang kemungkinan besar melanggar aturan," kata dia lebih jauh.
"Konten yang dibuat oleh AI, juga memenuhi syarat untuk diperiksa faktanya oleh mitra pemeriksa fakta independen kami, dan kami memberi label pada konten yang dibantah (tidak dibuat dengan AI). Sehingga orang-orang memiliki informasi yang akurat ketika mereka menemukan konten serupa di internet," tandasnya.