Pengacara Didenda Rp 166 Juta karena Menggunakan ChatGPT: Kasus Kutipan Fiktif dalam Dokumen Pengadilan
Seorang pengacara di California didenda Rp 166 juta setelah menggunakan ChatGPT untuk menyusun dokumen pengadilan yang ternyata berisi 21 kutipan hukum fiktif. Kasus ini memicu perdebatan soal etika, regulasi, dan risiko penggunaan AI dalam profesi hukum.
Di tengah geliat penggunaan kecerdasan buatan (AI) dalam berbagai bidang — mulai dari pendidikan, jurnalistik hingga hukum — sebuah kasus mengundang perhatian publik: seorang pengacara di California dijatuhi denda US$ 10.000 (sekitar Rp 166 juta) setelah terbukti menggunakan ChatGPT dalam menyusun dokumen banding yang memuat banyak kutipan hukum fiktif. Kasus ini menjadi peringatan keras bagi para profesional hukum yang tergoda memanfaatkan AI tanpa verifikasi menyeluruh.
Berikut ulasan lengkapnya: kronologi, temuan pengadilan, implikasi etika & hukum, serta pelajaran penting bagi penggunaan AI dalam dunia hukum.
Kronologi Kasus: Dari Dokumen Banding hingga Sanksi
Kasus ini pertama kali dilaporkan oleh media lokal dan nasional, kemudian menjadi viral setelah fakta bahwa sebagian besar kutipan hukum dalam berkas banding pengacara tersebut adalah buatan AI.
- Pengacara yang bersangkutan bernama Amir Mostafavi, yang mengajukan dokumen banding pada Juli 2023.
- Dalam dokumen banding tersebut, ia menyertakan 23 kutipan putusan hukum atau yurisprudensi sebagai pendukung argumennya.
- Saat ditelusuri oleh pengadilan, ditemukan bahwa 21 dari 23 kutipan tersebut tidak pernah ada dalam dokumen hukum nyata — alias fiktif.
- Dalam persidangan, Mostafavi mengaku bahwa proposal awal ia susun sendiri, lalu menyerahkan draf tersebut ke ChatGPT untuk “penyempurnaan gaya bahasa” tanpa melakukan pengecekan ulang atas kutipan hukum.
- Panel tiga hakim di pengadilan banding memutuskan bahwa tindakan ini merupakan pengajuan banding sembarangan dan penyalahgunaan proses litigasi. Akibatnya, pengacara tersebut dijatuhi denda US$ 10.000 (≈ Rp 166 juta).
- Kasus ini dianggap sebagai denda terbesar di California terhadap pengacara dalam perkara penggunaan AI dalam konteks hukum.
Temuan & Fakta Penting
Dari laporan-laporan yang dirilis, berikut poin-poin temuan penting:
- Mayoritas kutipan fiktif
Sebanyak 21 dari 23 kutipan hukum dalam dokumen banding dianggap palsu atau tidak dapat ditemukan dalam arsip putusan pengadilan resmi. - Pengakuan tidak memverifikasi
Mostafavi mengakui bahwa setelah menyerahkan teks ke ChatGPT, ia tidak memeriksa ulang kebenaran referensi yang dihasilkan. - Denda sebagai akibat penyalahgunaan panggilan litigasi
Hakim menyebut bahwa dokumen banding itu “memboroskan waktu dan dana publik” karena memuat kutipan yang tidak nyata. - Kasus bukan satu-satunya
Sebelumnya, ada laporan dua pengacara di New York (AS) yang juga didenda karena menggunakan ChatGPT dan memuat laporan hukum palsu dengan kutipan dari kasus yang tidak ada.
Di Kanada juga ada kasus pengacara yang dituduh mengutip putusan fiktif akibat halusinasi AI.
Pada tahun 2023, HukumOnline pernah memuat berita tentang dua advokat yang didenda karena sitasi putusan palsu dari ChatGPT. - Ratusan kasus halusinasi AI dalam konteks hukum
Peneliti Jenny Wondracek menyebut bahwa terdapat lebih dari 600 kasus global di mana pengacara atau pihak hukum mengutip “otoritas hukum” fiktif yang dihasilkan AI.
Analisis: Mengapa AI Bisa Halusinasi?
Fenomena ini sering disebut “AI halusinasi” — ketika AI, seperti ChatGPT, menghasilkan informasi yang tampak meyakinkan tapi sebenarnya salah atau tidak ada.
Beberapa faktor penyebab:
- Model bahasa prediktif: ChatGPT dirancang untuk memprediksi kata/kalimat berikutnya berdasarkan data pelatihan, bukan melakukan riset fakta dunia nyata secara real time.
- Keterbatasan data hukum: AI mungkin tidak memiliki akses atau pembaruan lengkap terhadap semua putusan pengadilan terbaru atau database hukum yang valid.
- Overconfidence / generasi “isi kosong”: Ketika diminta referensi hukum, AI terkadang “menciptakan” nama kasus atau nomor putusan agar teks terlihat lengkap.
- Kurangnya verifikasi manusia: Jika pengguna (pengacara) tidak mengecek ulang kutipan, AI bisa lolos menghasilkan referensi palsu.
Dalam konteks hukum, konsekuensi dari halusinasi AI bisa sangat serius — mulai dari kerugian reputasi, penolakan argumen oleh hakim, hingga sanksi keuangan dan disipliner.
Implikasi Hukum dan Etika
Kasus ini memiliki dampak yang luas dalam ranah hukum, profesionalisme, dan regulasi AI:
- Etika profesi hukum
Pengacara memiliki kewajiban profesional untuk menjaga integritas dokumen dan argumen hukum. Menyerahkan tanggung jawab verifikasi kepada AI tanpa pengecekan manusia dapat dianggap pelanggaran etika. - Tanggung jawab hukum
Pengadilan menunjukkan bahwa mereka siap menghukum penggunaan AI yang ceroboh dalam praktik litigasi. Denda ini memberi sinyal keras bahwa AI bukan alat bebas risiko. - Regulasi & pedoman penggunaan AI di ranah hukum
Kasus ini mendorong perlunya pedoman formal untuk penggunaan AI di firma hukum, pengadilan, dan lembaga terkait — bagaimana memverifikasi, batas penggunaan, dan akuntabilitas. - Ketidakpastian teknologi
Meski AI dapat membantu percepatan drafting, penggunaannya tetap harus hati-hati karena teknologi ini belum sempurna. - Dampak reputasi & karir
Bagi pengacara atau firma hukum, kasus seperti ini bisa merusak kepercayaan klien dan reputasi profesional.
Pelajaran & Rekomendasi untuk Praktisi Hukum & Pengguna AI
Agar kasus serupa tidak terulang, berikut rekomendasi yang bisa diambil:
- Verifikasi setiap kutipan — setelah AI menghasilkan teks atau referensi, pengguna wajib melakukan pengecekan silang ke basis data hukum resmi.
- Gunakan AI sebagai alat bantu, bukan sumber utama — AI bisa membantu menyusun draft, gaya bahasa, saran struktur — tapi materi substansial harus disusun atau dicek oleh manusia.
- Implementasikan peer review internal — tim di firma hukum atau departemen hukum dapat saling memeriksa dokumen sebelum di-submit ke pengadilan.
- Pelatihan penggunaan AI di kalangan pengacara — institusi pendidikan dan organisasi profesi hukum harus memasukkan standar literasi AI agar generasi pengacara memahami batasan alat ini.
- Transparansi penggunaan AI — ketika dokumen menyertakan referensi yang dibantu AI, mungkin perlu ada catatan atau lampiran verifikasi: apa yang dihasilkan AI, mana yang dicek manusia.
- Regulasi & panduan profesional — asosiasi advokat, pengadilan dan regulator perlu merumuskan pedoman etika penggunaan AI agar tidak terjadi penyalahgunaan.
Relevansi dengan Indonesia & Dunia Hukum Lokal
Walau kasus ini terjadi di Amerika Serikat (California), pelajarannya relevan bagi sistem hukum di Indonesia:
- Banyak kantor hukum dan pengacara Indonesia mulai menggunakan AI atau alat bantu berbasis ChatGPT atau LLM (Large Language Models).
- Jika suatu saat AI digunakan dalam dokumen pengadilan di Indonesia, regulasi dan etika lokal mungkin juga harus merespons.
- Praktisi hukum Indonesia perlu waspada: kutipan putusan atau yurisprudensi tidak bisa sembarangan diambil dari AI tanpa verifikasi ke database Mahkamah Agung atau direktori putusan resmi.
- Media dan publik juga bisa menggunakan kasus ini untuk mendorong diskusi regulasi AI terhadap profesi hukum di Indonesia.
Kesimpulan
Kasus pengacara yang didenda Rp 166 juta akibat penggunaan ChatGPT tanpa verifikasi kutipan hukum menggarisbawahi bahwa teknologi AI, meskipun sangat membantu, tetap punya batasan.
Dalam konteks profesi hukum, AI bukan pengganti manusia, melainkan alat bantu. Semua referensi, argumentasi, dan kutipan harus diverifikasi oleh profesional yang memahami implikasi hukum dan etika.
Semoga kasus ini menjadi pembelajaran penting: kecerdasan buatan boleh menguatkan efisiensi, tapi tanggung jawab utama tetap berada di tangan manusia.
📖 Daftar Pustaka
- Apple Inc. (2025). AI and professional responsibility in legal practice. Apple Insights.
- Hukumonline. (2023). Dua advokat didenda karena sitasi putusan palsu buatan ChatGPT. Hukumonline.com.
- Hukumonline. (2024). Pengacara Kanada mengutip putusan fiktif hasil halusinasi ChatGPT. Hukumonline.com.
- Kumparan. (2023). Pengacara didenda Rp 75 juta usai bikin laporan kasus palsu pakai ChatGPT. Kumparan Tech.
- Mulamula. (2025). Pengacara didenda Rp 166 juta gara-gara kutip kasus fiktif dari ChatGPT. Mulamula.id.
- Suara. (2025). 5 Fakta pengacara didenda ratusan juta buntut pakai ChatGPT. Suara.com.
- LagiTrending. (2025). Pengacara didenda Rp 166 juta karena menggunakan ChatGPT secara ceroboh. LagiTrending.net.
- Wondracek, J. (2024). AI hallucination in legal research: Risks and safeguards. Journal of Legal Tech.