TEMPO.CO, Jakarta - Seorang advokat terjerat masalah, dituduh bicara bohong, karena ChatGPT. Gara-garanya, dia memanfaatkan chatbot AI milik OpenAI itu untuk riset kasus yang digunakannya sebagai dasar gugatan yang diajukannya di pengadilan. Belakangan, persidangan yang dijalaninya mengungkap kalau data yang digunakannya itu keliru, bahkan palsu alias fiktif.
Advokat itu adalah Steven A. Schwartz yang menggugat maskapai Kolombia, Avianca. Pada ringkasan kasus yang dibuat, ia mengutip 6 kasus yang ternyata fiktif. Penasihat lawan membuat pengadilan menyadari masalah ini, bahwa kutipan kasus yang disampaikan Schwartz sesungguhnya tidak pernah terjadi.
Hakim Distrik AS, Kevin Castel ,menegaskan, "Enam dari kasus yang diajukan tampaknya merupakan keputusan pengadilan palsu dengan kutipan palsu dan kutipan internal palsu." Selanjutnya, Castel mengadakan sidang dan mempertimbangkan sanksi untuk Schwartz.
Salah satu contoh kasus palsu yang ditemukan adalah kasus Varghese v. China Southern Airlines Co., Ltd.. Kasus ini diduga merujuk kepada kasus Zicherman v. Korean Air Lines Co., Ltd., tapi ini pun terlihat seperti tanggal dan detail lainnya juga salah karena disebutkan kasus itu diputus pada 2008, atau 12 tahun setelah keputusan di kasus aslinya.
Schwartz mengakui dalam pernyataan tertulis bahwa dia telah menggunakan ChatGT untuk riset kasusnya. Untuk verifikasi kasus Varghese v. China Southern Airlines Co., Ltd., dia kemudian melakukan satu-satunya hal yang masuk akal: dia bertanya kepada chatbot apakah itu bohong.
Baca Juga:
Ketika dia menanyakan sumbernya, ChatGPT kemudian meminta maaf atas kebingungan sebelumnya namun bersikukuh bahwa kasus tersebut nyata, dengan mengatakan bahwa itu dapat ditemukan di Westlaw dan LexisNexis. Schwartz juga mempertanyakan validitas kasus lainnya, dan ChatGPT menyatakan bahwa semuanya asli.
Schwartz mengatakan dia tidak menyadari kemungkinan bahwa isi yang diberikan chatbot AI bisa salah. Dia menyatakan sangat menyesal telah menggunakan kecerdasan buatan generatif untuk melengkapi penelitian hukum yang dilakukan di sini dan berjanji tidak akan pernah melakukannya di masa depan tanpa verifikasi mutlak keasliannya.
Kejadian ini kembali menegas bahwa penggunaan chatbot AI untuk penelitian tanpa memeriksa ulang dari sumber di tempat lain dapat menjerumuskan pengguna. Chatbot lain, saat debut Bing Microsoft sekarang terkenal terkait dengan kebohongan berwajah botak, gaslighting, dan manipulasi emosional. Lalu, Bard, chatbot AI Google, keliru fakta tentang James Webb Space Telescope dalam demo pertamanya.
THE VERGE, NYTIMES
Pilihan Editor: Pidato Kelulusannya Viral, Ini Sosok Ahmad Munjizun yang Raih Gelar PhD di Amerika
Selalu update info terkini. Simak breaking news dan berita pilihan dari Tempo.co di kanal Telegram “Tempo.co Update”. Klik https://t.me/tempodotcoupdate untuk bergabung. Anda perlu meng-install aplikasi Telegram terlebih dahulu.