Founder & CEO Marketing AI Institute, Paul Roetzer pada Selasa (14/3/2023) ini baru saja mengunggah cuitan yang cukup mengejutkan. Ia mengunggah ulang tautan yang dibuat oleh akun Ben Collins, seorang senior reporter NBC News.
"Artikel ini memiliki beberapa detail gila tentang kompromi yang dibuat pada etika AI: Microsoft memberhentikan seluruh etika dan tim masyarakat dalam organisasi kecerdasan buatan, sebagai bagian dari PHK baru-baru ini yang memengaruhi 10.000 karyawan di seluruh perusahaan", demikian cuitan Paul.
Ternyata, langkah Microsoft memecat tim etika itu, juga diumumkan sendiri oleh eks karyawan Microsoft. Misalnya saja seperti dilakukan Vandan Kaushik, dalam profil LinkedIn miliknya.
Eks manajer produk senior di Microsoft itu mengetik, ia 'terbuka untuk bekerja' (menerima panggilan baru). Dia bersedia bekerja di tempat, atau dari lokasi hybrid, atau jarak jauh. Kaushik memiliki status 'aktif melamar' dan dapat bergabung 'segera'.
Kabar serupa kemudian juga dijelaskan oleh laman Platformer, beberapa jam lalu.
Maka, benar apa yang diunggah oleh Ben Collins dan disebarkan oleh Paul Roetzer tadi, Microsoft telah memberhentikan seluruh etika dan tim masyarakat (ethic and society team) dalam organisasi kecerdasan buatan (Artificial Intelligence (AI)) di perusahaan itu, sebagai bagian dari PHK baru-baru ini. Keputusan itu, diperkirakan Platformer, telah memengaruhi 10.000 karyawan di seluruh perusahaan.
Pada Januari lalu, rencana untuk memberhentikan 10.000 karyawan diumumkan oleh Microsoft, karena perjuangan perusahaan dengan kemerosotan di pasar komputer. Pada saat yang sama, perusahaan melakukan 'investasi multi-tahun, miliaran dolar' di OpenAI, laboratorium penelitian yang bertanggung jawab atas pengembangan chatbot ChatGPT.
Kala itu, Microsoft masih mempertahankan Kantor AI yang Bertanggung Jawab (Ethic & Society Team) aktif mereka, yang bertugas membuat aturan dan prinsip untuk mengatur inisiatif AI perusahaan.
Perusahaan mengatakan investasi keseluruhannya dalam pekerjaan tanggung jawab meningkat, meskipun ada PHK baru-baru ini.
"Microsoft berkomitmen untuk mengembangkan produk dan pengalaman AI dengan aman dan bertanggung jawab. Melakukannya dengan berinvestasi pada manusia, proses, kemitraan yang memprioritaskan ini," penjelasan dari perusahaan itu dalam sebuah pernyataan.
Kemudian tulisan itu berlanjut, "Selama enam tahun terakhir, kami telah meningkatkan jumlah orang di seluruh tim produk kami dan di dalam Kantor Penanggung Jawab AI yang, bersama kami semua di Microsoft, bertanggung jawab untuk memastikan bahwa kami menerapkan prinsip AI kami. […] Kami menghargai pekerjaan luar biasa yang dilakukan oleh tim etika dan masyarakat untuk membantu kami dalam perjalanan AI kami yang bertanggung jawab," tulis mereka.
Sebuah fakta waktu; penghapusan tim Etika dan Masyarakat terjadi, tepat ketika karyawan grup yang tersisa telah melatih fokus mereka pada tantangan terbesar mereka. Yakni, mengantisipasi apa yang akan terjadi ketika Microsoft merilis alat yang didukung oleh OpenAI ke khalayak global.
Karyawan mengatakan, tim etika dan masyarakat memainkan peran penting, untuk memastikan bahwa prinsip AI perusahaan yang bertanggung jawab benar-benar tercermin dalam desain produk yang dikirimkan.
Meski beberapa dari tim mengaku tidak tahu bagaimana mereka menerapkan tugas. Hanya sependek yang mereka pahami, mereka punya tugas menunjukkan kepada dan membuat aturan di area yang sebelumnya tidak ada.
Dengan demikian pemecatan ini membuat Microsoft tak memiliki tim khusus, untuk memastikan prinsip-prinsip AI-nya terkait erat dengan desain produk.
Dalam beberapa tahun terakhir, tim merancang permainan peran yang disebut Judgment Call; membantu desainer membayangkan potensi bahaya yang dapat ditimbulkan oleh AI dan mendiskusikannya selama pengembangan produk. Itu adalah bagian dari 'perangkat inovasi yang bertanggung jawab' yang lebih besar yang diposting oleh tim secara publik.
Sebetulnya baru-baru ini, tim telah bekerja untuk mengidentifikasi risiko yang ditimbulkan oleh adopsi teknologi OpenAI oleh Microsoft, di seluruh rangkaian produk mereka.
Tim etika dan masyarakat mencapai puncaknya pada 2020, ketika memiliki sekitar 30 karyawan termasuk insinyur, desainer, dan filsuf. Pada Oktober, tim dikurangi menjadi sekitar tujuh orang sebagai bagian dari reorganisasi.
Dalam pertemuan dengan tim setelah reorganisasi, John Montgomery, wakil presiden perusahaan AI, memberi tahu karyawan bahwa pimpinan perusahaan telah menginstruksikan mereka untuk bergerak cepat.
"Tekanan dari [CTO] Kevin [Scott] dan [CEO] Satya [Nadella] sangat tinggi, untuk mengambil model openAI terbaru ini dan yang datang setelahnya, dan memindahkannya ke tangan pelanggan dengan kecepatan yang sangat tinggi," katanya, masih dari laman Platformer.
Karena tekanan itu, kata Montgomery, sebagian besar tim akan dipindahkan ke area lain dalam organisasi.
Jika kita ingin menganalisis, di satu sisi, Microsoft sekarang mungkin memiliki peluang sekali dalam satu generasi untuk mendapatkan daya tarik yang signifikan terhadap Google dalam pencarian, perangkat lunak produktivitas, komputasi awan, dan area lain tempat para raksasa bersaing.
Saat meluncurkan kembali Bing dengan AI, perusahaan mengatakan kepada investor bahwa setiap 1% pangsa pasar yang dapat diambil dari Google dalam pencarian akan menghasilkan pendapatan tahunan sebesar $2 miliar.
Potensi itu menjelaskan mengapa Microsoft sejauh ini menginvestasikan $11 miliar ke OpenAI, dan saat ini berlomba untuk mengintegrasikan teknologi startup ke setiap sudut kerajaannya. Salah satunya, meluncurkan ulang Bing dengan pembaruan teknologi OpenAI. Konon keputusan ini berujung pada Bing yang sekarang diklaim punya 100 juta pengguna aktif harian, terhitung pekan lalu.
Di sisi lain, semua orang yang terlibat dalam pengembangan AI setuju bahwa teknologi AI menimbulkan risiko yang kuat dan mungkin ada, baik yang diketahui maupun yang tidak diketahui.
Raksasa teknologi telah bersusah payah untuk memberi sinyal bahwa mereka menangani risiko tersebut dengan serius. Microsoft juga memiliki tiga kelompok berbeda yang menangani masalah ini, bahkan setelah tim etika dan masyarakat disingkirkan. Namun mengingat taruhannya, pemotongan apapun pada tim yang berfokus pada pekerjaan yang bertanggung jawab, tampaknya patut diperhatikan.
Tahun lalu, tim peneliti menulis memo yang merinci risiko merek terkait dengan Bing Image Creator, yang menggunakan sistem DALL-E OpenAI untuk membuat gambar berdasarkan permintaan teks.
Alat gambar diluncurkan di beberapa negara pada Oktober, menjadikannya salah satu kolaborasi publik pertama Microsoft dengan OpenAI.
Teknologi teks-ke-gambar telah terbukti sangat populer. Para peneliti Microsoft dengan tepat memperkirakan, hal itu juga dapat mengancam mata pencaharian seniman. Karena teknologi AI yang satu ini memungkinkan siapapun untuk dengan mudah menyalin gaya mereka.
"Dalam pengujian Bing Image Creator, ditemukan bahwa dengan perintah sederhana yang menyertakan hanya nama seniman dan media (lukisan, cetakan, fotografi, atau pahatan), gambar yang dihasilkan hampir tidak mungkin dibedakan dari karya aslinya," tulis para peneliti dalam memo.
Dengan demikian, menurut peneliti, ada risiko kerusakan merek, baik untuk seniman dan pemangku kepentingan keuangan mereka. Tak terkecuali sentimen negatif kepada Microsoft.
"Dihasilkan dari keluhan artis dan reaksi negatif publik, ini adalah nyata dan cukup signifikan untuk meminta ganti rugi sebelum merusak merek Microsoft," tulis mereka dalam memo tersebut.
Selain itu, pada 2022, OpenAI memperbarui ketentuan layanan mereka untuk memberi pengguna 'hak kepemilikan penuh atas gambar yang Anda buat dengan DALL-E'. Langkah tersebut membuat tim etika dan masyarakat Microsoft khawatir.
Langkah pemecatan tim Ethic & Society yang diambil oleh Microsoft, seakan mengingatkan kita pada 2020, Google memecat peneliti AI etis Timnit Gebru. Dilakukan setelah dia menerbitkan makalah yang mengkritik model bahasa besar, yang akan meledak menjadi popularitas dua tahun kemudian. Kehebohan yang diakibatkannya, mengakibatkan kepergian beberapa pemimpin puncak lagi di dalam departemen, dan mengurangi kredibilitas perusahaan dalam masalah AI yang bertanggung jawab.