Anthropic, perusahaan kecerdasan buatan yang didirikan oleh mantan karyawan OpenAI, telah meluncurkan chatbot AI-nya, Claude.
Alat tersebut melakukan banyak hal yang dapat dilakukan oleh ChatGPT OpenAI. Kepada The Verge, perwakilan Anthropic mengatakan bahwa klien awalnya melaporkan bahwa alat tersebut cenderung tidak menghasilkan keluaran yang berbahaya dan lebih mudah untuk berkomunikasi'.
Seperti OpenAI, Anthropic juga memiliki dukungan teknologi yang besar: Google menginvestasikan $300 juta ke Anthropic pada Februari 2023.
Chatbot perusahaan yang mirip dengan ChatGPT ini, dapat memberikan ringkasan, menjawab pertanyaan, memberikan bantuan dalam penulisan, dan menghasilkan kode.
"Anda juga dapat mengubah nada, kepribadian, dan perilaku chatbot, yang terdengar sedikit lebih komprehensif daripada pengaturan 'kreatif, seimbang, dan tepat' yang ditawarkan oleh chatbot Bing," ujar perwakilan perusahaan Anthropic, dilansir pada Rabu (15/3/2023).
Secara keseluruhan, tujuan Anthropic adalah mengembangkan asisten Artificial Intelligence (AI) yang membantu, jujur, dan tidak berbahaya.
Selain meluncurkan Claude versi standar, Anthropic juga merilis Claude Instant, model yang lebih murah, lebih cepat, dan lebih ringan jika dibandingkan dengan rekannya yang berfitur lengkap.
Anthropic telah memberi beberapa perusahaan akses ke Claude dalam beberapa bulan menjelang peluncurannya, termasuk Notion, Quora, dan DuckDuckGo, yang baru-baru ini mengumumkan alat pencarian DuckAssist yang didukung oleh Anthropic dan OpenAI.
Pengumuman Anthropic datang di tengah kesibukan berita terkait AI, termasuk peluncuran model GPT-4 terbaru OpenAI. Google juga mengumumkan aplikasi AI baru di Docs, Gmail, Sheets, dan Slides.
Dikombinasikan dengan ChatGPT, Claude memperkuat alat DuckDuckGo yang baru saja diluncurkan, yang secara langsung menjawab permintaan pencarian langsung untuk pengguna. Quora menawarkan akses ke Claude melalui aplikasi obrolan AI eksperimentalnya, Poe. Dan di Notion, Claude adalah bagian dari backend teknis untuk Notion AI, asisten penulisan AI yang terintegrasi dengan ruang kerja Notion.
CEO Robin, Richard Robinson, dalam pernyataan email kepada Techcrunch mengungkap, mereka menggunakan Claude untuk mengevaluasi bagian tertentu dari kontrak, dan untuk menyarankan bahasa alternatif baru yang lebih bersahabat dengan pelanggan mereka.
"Kami mendapati bahwa Claude sangat pandai memahami bahasa-termasuk dalam domain teknis seperti bahasa hukum. Ia juga sangat percaya diri dalam menyusun, meringkas, menerjemahkan, dan menjelaskan konsep kompleks dalam istilah sederhana," demikian testimoni Claude dari Robin.
Tapi apakah Claude menghindari jebakan ChatGPT dan sistem chatbot AI lainnya yang serupa? Chatbot modern terkenal rentan terhadap bahasa yang beracun, bias, dan menyinggung. Ternyata, Claude juga cenderung berhalusinasi, artinya mereka menciptakan fakta ketika ditanya tentang topik di luar bidang pengetahuan inti mereka.
Anthropic mengatakan bahwa Claude tidak memiliki akses ke internet dan dilatih di halaman web publik hingga musim semi 2021. Sistem Claude dilatih untuk menghindari keluaran seksis, rasis, dan beracun serta untuk 'menghindari membantu manusia terlibat dalam aktivitas ilegal atau tidak etis'.
Perusahaan menjelaskan, teknologi AI yang dikembangkan oleh Anthropic punya semacam kebijakan penggunaan, yang mereka istilahkan dengan 'AI konstitusional'. Ini yang -menurut Anthropic- kemudian membedakan Claude dengan chatbot AI lainnya.
'AI Konstitusional' bertujuan untuk memberikan pendekatan berbasis prinsip, untuk menyelaraskan sistem AI dengan niat manusia. Membiarkan AI mirip dengan ChatGPT menanggapi pertanyaan menggunakan serangkaian prinsip sederhana sebagai panduan.
Anthropic mengatakan mereka didasarkan pada konsep beneficence (memaksimalkan dampak positif), nonmaleficence (menghindari pemberian saran berbahaya) dan otonomi (menghormati kebebasan memilih).
Anthropic kemudian memiliki sistem AI yang menggunakan prinsip-prinsip untuk perbaikan diri, menulis tanggapan terhadap berbagai petunjuk dan merevisi tanggapan sesuai dengan 'konstitusi AI' mereka.
AI yang mereka latih, mengeksplorasi kemungkinan respons terhadap ribuan permintaan dan menyusun yang paling konsisten dengan konstitusi, yang disaring Antropik menjadi satu model. Model ini selanjutnya digunakan untuk melatih Claude.