
Gedung Pengadilan Thurgood Marshall digambarkan pada 15 Oktober 2021 di Manhattan, New York.
Brendan McDermid | Reuters
Gugatan Roberto Mata terhadap Avianca Airlines tidak jauh berbeda dengan banyak kasus cedera pribadi lainnya yang diajukan ke pengadilan federal di New York. Mata dan pengacaranya, Peter LoDuca, menuduh bahwa Avianca menyebabkan luka-luka pribadi Mata ketika dia “ditabrak oleh gerobak logam” dalam penerbangan tahun 2019 menuju New York.
Avianca tergerak untuk membubarkan kasus tersebut. Pengacara Mata diduga menentang mosi tersebut, mengutip berbagai keputusan hukum, seperti obrolan khas di ruang sidang. Kemudian semuanya berantakan.
Pengacara Avianca mengatakan kepada pengadilan bahwa mereka tidak menemukan banyak kasus hukum yang dikutip oleh LoDuca dalam tanggapannya. Hakim Federal P. Kevin Castel menuntut agar LoDuca memberikan salinan sembilan putusan pengadilan yang diduga digunakan.
Sebagai tanggapan, LoDuca mengajukan teks lengkap dari delapan kasus di pengadilan federal. Tetapi masalahnya semakin dalam, kata Castel dalam sebuah pengajuan, karena teks itu fiktif, mengutip apa yang tampak sebagai “keputusan yudisial palsu dengan kutipan palsu dan kutipan internal palsu.”
Pelakunya, yang akhirnya muncul, adalah ChatGPT. Chatbot populer OpenAI adalah “berhalusinasi”—istilah ketika sistem kecerdasan buatan menciptakan informasi palsu—dan memuntahkan kasus dan argumen yang sepenuhnya fiksi. Ternyata LoDuca dan pengacara lainnya, Steven Schwartz, menggunakan ChatGPT untuk membuat mosi dan teks hukum selanjutnya.
Schwartz, seorang rekanan di firma hukum Levidow, Levidow & Oberman, mengatakan kepada pengadilan bahwa dialah yang mengaduk-aduk ChatGPT, dan bahwa LoDuca “tidak memiliki peran dalam melakukan penelitian tersebut,” atau “pengetahuan tentang bagaimana penelitian tersebut selesai.”
Penasihat lawan dan hakim hanya menyadari bahwa kasus tersebut tidak ada, memberikan kesempatan kepada pengacara yang terlibat untuk mengakui kesalahan tersebut.
Namun, LoDuca dan perusahaannya tampaknya menggandakan penggunaan ChatGPT, menggunakannya tidak hanya untuk pengarsipan awal yang bermasalah, tetapi juga untuk menghasilkan keputusan hukum palsu ketika diminta untuk menyediakannya. Sekarang LoDuca dan Schwartz menghadapi kemungkinan sanksi yudisial, sebuah langkah yang bahkan dapat menyebabkan penggusuran.
Mosi pembela “diisi dengan kutipan untuk kasus yang tidak ada,” menurut pengajuan pengadilan.
“Pengadilan dihadapkan pada keadaan yang belum pernah terjadi sebelumnya,” kata Castel. Dia mengadakan sidang pada 8 Juni ketika LoDuca dan Schwartz akan dipanggil untuk menjelaskan diri mereka sendiri. Tidak ada pengacara yang menanggapi permintaan komentar CNBC.