Tiga tahun terakhir ini saya sering diundang menjadi sahabat belajar dalam berbagai forum berbagi, bukan untuk menggurui, tetapi untuk belajar bersama tentang bagaimana kecerdasan buatan kini menjadi bagian dari kehidupan kerja ASN.
Dari ruang Zoom hingga aula pelatihan, antusiasme selalu terasa. Widyaiswara, Analis Kebijakan, Pengembang Kompetensi, dan Pengembang Teknologi Pembelajaran berbicara tentang ChatGPT, Copilot, Canva Magic Studio, dan Gemini dengan nada kagum sekaligus ingin tahu: “Apa lagi yang bisa dilakukan AI untuk mempercepat pekerjaan kita?”
Di balik semangat itu, saya sering terdiam sejenak. Sebagai seorang Widyaiswara berlatar hukum, ada satu hal yang selalu saya khawatirkan: kapan semangat inovasi itu mulai menipis menjadi kelalaian, bukan karena niat jahat, tapi karena terlalu percaya pada mesin. Itulah yang saya sebut sebagai digital negligence.
Dalam beberapa sesi pelatihan, saya menyaksikan bagaimana AI bisa membantu menyusun bahan ajar hanya dalam hitungan menit. Hasilnya tampak rapi, referensinya meyakinkan, bahkan bahasanya sopan. Namun ketika saya coba telusuri lebih dalam, beberapa kutipan ternyata tidak akurat, bahkan sebagian data tidak memiliki dasar yang jelas.
Peserta yang mengandalkan hasil AI tanpa verifikasi sering kali tidak menyadari bahwa mereka sedang memproduksi informasi yang berpotensi keliru.
Sebagai ASN, kondisi seperti ini bukan sekadar kesalahan teknis. Ia menyentuh wilayah hukum dan etika.
Dalam PP Nomor 94 Tahun 2021 tentang Disiplin PNS serta Peraturan BKN Nomor 6 Tahun 2022, disebutkan bahwa ASN dapat dijatuhi sanksi berat apabila menghasilkan laporan atau informasi yang tidak benar dan menimbulkan kerugian bagi instansi.
Masalahnya, bagaimana jika kesalahan itu bersumber dari sistem AI yang bias atau data yang tidak lengkap? Apakah ASN tetap dianggap lalai?
Saya menemukan jawabannya secara bertahap, tidak hanya dari peraturan nasional, tetapi juga dari pandangan global.
Menurut OECD (2025) dalam laporan Governing with Artificial Intelligence, setiap negara perlu memastikan agar AI dikelola dengan prinsip trustworthy AI—yakni AI yang manusiawi, transparan, dan akuntabel. Mereka menganjurkan tiga komponen: enablers, guardrails, dan engagement. Tiga hal ini, bagi saya, dapat diterjemahkan ke dalam konteks ASN sebagai: meningkatkan kapasitas, menegakkan etika, dan membangun partisipasi publik.
Namun realitas hukum di Indonesia, sebagaimana dijelaskan dalam artikel HukumOnline (2024), masih jauh dari itu.
AI belum diakui sebagai subjek hukum. Dalam sistem kita, AI hanyalah benda tidak berwujud yang berada di bawah pengawasan manusia. Artinya, bila AI menimbulkan kesalahan atau kerugian, tanggung jawab tetap berada di tangan pengguna, baik individu maupun lembaga.
Mengacu pada Pasal 1367 KUHPerdata, kerugian akibat AI dianggap sama dengan kerugian yang disebabkan oleh “benda di bawah pengawasan.”
Dalam konteks ASN, ini berarti hasil kerja AI yang keliru tetap melekat sebagai tanggung jawab pejabat pembuatnya.
Refleksi ini membuat saya kembali pada pemikiran Prof. Mochtar Kusumaatmadja, tokoh hukum yang selalu saya kagumi sejak masa kuliah. Beliau menulis bahwa hukum tidak boleh hanya menjaga ketertiban, melainkan harus menjadi alat pembaruan masyarakat (law as a tool of social engineering). Jika saya tarik dalam konteks ASN dan AI, maka hukum seharusnya tidak menghukum ASN yang berinovasi, melainkan membimbing mereka agar berinovasi secara etis.
Dalam banyak kesempatan, saya sering mengingatkan peserta pelatihan: AI tidak menggantikan akal budi manusia. Ia tidak memiliki kesadaran, tidak mengerti konteks, dan tidak menanggung moralitas atas akibat dari hasil kerjanya. ASN-lah yang harus menjaga agar teknologi tetap berpihak pada nilai kemanusiaan dan pelayanan publik.
Kelalaian digital—digital negligence—bukanlah dosa besar, tetapi tanda bahwa kita perlu memperkuat kesadaran etis di tengah percepatan teknologi. ASN perlu diajarkan bukan hanya bagaimana menggunakan AI, tetapi juga bagaimana bertanggung jawab atas hasilnya.
Suatu kali, seorang peserta pelatihan bertanya kepada saya: “Pak, kalau hasil AI salah tapi kita sudah verifikasi sebisanya, apakah kita tetap bisa disalahkan?” Saya terdiam sejenak. Lalu menjawab perlahan: “Yang penting bukan hanya hasilnya, tetapi proses dan itikad baik kita dalam menjaga keandalan data dan etika pelayanan publik.”
Di sinilah saya merasa pentingnya literasi hukum digital. ASN harus mulai membiasakan diri untuk mencatat proses penggunaan AI—menyimpan jejak perintah (prompt), mencatat sumber referensi, dan memberi penjelasan jika hasil AI digunakan untuk kepentingan publik.
Inilah bentuk due diligence digital yang dapat melindungi ASN bila kelak muncul sengketa atau pemeriksaan.
Refleksi saya berakhir dengan keyakinan sederhana:
inovasi yang tidak diiringi dengan etika hanya akan melahirkan kekacauan baru.
AI boleh menggantikan kecepatan, tetapi tidak dapat menggantikan nurani.
Sebagai Widyaiswara, saya ingin terus belajar dan berbagi agar setiap ASN dapat menjadi pengguna teknologi yang cerdas sekaligus penjaga nilai hukum dan moralitas publik.
Karena pada akhirnya, menjadi ASN cerdas digital bukan hanya tentang kemampuan mengoperasikan alat,
tetapi tentang keberanian menjaga kepercayaan publik di tengah badai informasi yang serba cepat.
Penafian (Disclaimer)
Tulisan ini disusun dengan bantuan AI sebagai mitra berpikir, bukan pengganti penulis. Seluruh isi learning journal ini merupakan bagian dari proses kreatif dan berpikir kritis Indra Riswadinata dalam menyeimbangkan kolaborasi antara manusia dan teknologi. Setiap gagasan dan kesimpulan telah divalidasi secara sadar dan sepenuhnya menjadi tanggung jawab penulis. Tulisan ini juga merefleksikan hasil pembelajaran dari berbagai referensi yang penulis olah dengan dukungan AI untuk memperjelas ide dan mempercepat proses penulisan termasuk pembuatan gambar sampul dalam tulisan ini.
Apabila terdapat hal yang ingin ditanyakan, dikonfirmasi, atau didiskusikan lebih lanjut, silakan hubungi saya melalui tombol chat WhatsApp di pojok kanan website ini.


