Model Pertanggungjawaban Pidana Artificial Intelligence di Indonesia: Urgensi Pembentukan Regulasi Khusus dalam Era Transformasi Digital
Model Pertanggungjawaban Pidana Artificial Intelligence di Indonesia
(Urgensi Pembentukan Regulasi Khusus dalam Era Transformasi Digital)
Pendahuluan
Perkembangan teknologi artificial intelligence (AI) telah membawa transformasi fundamental dalam berbagai aspek kehidupan masyarakat Indonesia. Sejak dicanangkannya Strategi Nasional Kecerdasan Artificial Indonesia (Stranas KA) 2020-2045 oleh Badan Pengkajian dan Penerapan Teknologi (BPPT), Indonesia menunjukkan komitmen serius dalam pengembangan AI sebagai bagian dari revolusi industri 4.0.¹ Namun demikian, pesatnya perkembangan teknologi ini tidak diimbangi dengan kerangka regulasi yang memadai, khususnya dalam konteks pertanggungjawaban pidana.
Problematika pertanggungjawaban pidana AI menjadi semakin kompleks ketika sistem AI mampu mengambil keputusan secara otonom yang berpotensi menimbulkan kerugian atau bahkan melanggar norma hukum pidana. Dalam konteks hukum pidana Indonesia yang masih menganut prinsip konvensional dengan mensyaratkan adanya kesalahan (schuld) sebagai dasar pertanggungjawaban pidana, kehadiran AI sebagai entitas non-manusia yang mampu bertindak secara mandiri menciptakan tantangan konseptual yang signifikan.²
Saat ini, Indonesia belum memiliki regulasi khusus yang mengatur AI. Pengaturan yang ada masih bersifat parsial melalui Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik (UU ITE) sebagaimana telah diubah dengan Undang-Undang Nomor 19 Tahun 2016, yang hanya mengatur AI sebagai "Agen Elektronik" dalam definisi yang sangat terbatas.³ Ketiadaan regulasi komprehensif ini menciptakan kekosongan hukum yang berpotensi merugikan berbagai pihak, baik pengembang, pengguna, maupun masyarakat yang terdampak oleh kesalahan atau penyalahgunaan teknologi AI.
Kerangka Hukum Existing: Analisis Kritis terhadap Regulasi AI di Indonesia
Pengaturan AI dalam UU ITE dan Peraturan Turunannya
Dalam sistem hukum Indonesia saat ini, AI dikategorikan sebagai Agen Elektronik berdasarkan UU ITE. Pasal 1 angka 8 UU ITE mendefinisikan Agen Elektronik sebagai "perangkat dari suatu sistem elektronik yang dibuat untuk melakukan suatu tindakan terhadap suatu informasi elektronik tertentu secara otomatis yang diselenggarakan oleh orang."⁴ Definisi ini kemudian dijabarkan lebih lanjut dalam Peraturan Pemerintah Nomor 71 Tahun 2019 tentang Penyelenggaraan Sistem dan Transaksi Elektronik (PP 71/2019).
PP 71/2019 menetapkan bahwa tanggung jawab hukum yang timbul dari penggunaan AI ditanggung oleh Penyelenggara AI (AI Operator), kecuali kerugian timbul akibat kelalaian pengguna.⁵ Namun, pengaturan ini masih bersifat sangat umum dan tidak memberikan panduan spesifik mengenai bagaimana pertanggungjawaban pidana dapat diterapkan ketika AI melakukan tindakan yang memenuhi unsur-unsur tindak pidana.
Perkembangan Terbaru: Pedoman Etika AI
Pada Desember 2023, terjadi perkembangan signifikan dengan dikeluarkannya dua pedoman etika AI di Indonesia. Pertama, Surat Edaran Kementerian Komunikasi dan Informatika (MOCI) Nomor 9 Tahun 2023 tentang Pedoman Etika Kecerdasan Artificial (MOCI CL 9/2023). Kedua, Pedoman Etika Otoritas Jasa Keuangan (OJK) tentang AI yang Bertanggung Jawab dan Dapat Dipercaya dalam Industri Teknologi Finansial.⁶
MOCI CL 9/2023 mendefinisikan AI sebagai "bentuk pemrograman pada perangkat komputer dalam melakukan pemrosesan data dan/atau analisis data yang presisi." Surat edaran ini ditujukan tidak hanya kepada pelaku usaha dengan Klasifikasi Baku Lapangan Usaha Indonesia (KBLI) Kode 62015 (kegiatan pemrograman berbasis AI), tetapi juga kepada semua penyelenggara sistem elektronik publik dan swasta yang terlibat dalam kegiatan pemrograman berbasis AI.⁷
Meskipun pedoman etika ini merupakan langkah maju, namun sifatnya yang non-binding dan fokusnya pada aspek etika membuat instrumen ini tidak cukup untuk mengatasi persoalan pertanggungjawaban pidana AI. Diperlukan regulasi yang lebih komprehensif dan memiliki kekuatan hukum mengikat untuk mengatur aspek pidana dari penggunaan AI.
Perbandingan dengan Pendekatan Internasional
Uni Eropa: AI Act dan Kerangka Pertanggungjawaban
Uni Eropa telah mengambil langkah progresif dengan mengesahkan EU AI Act pada Juni 2024, yang mulai berlaku pada 1 Agustus 2024.⁸ Regulasi ini mengadopsi pendekatan berbasis risiko (risk-based approach) dengan mengkategorikan sistem AI berdasarkan tingkat risikonya: unacceptable risk, high risk, limited risk, dan minimal risk.
Dalam konteks pertanggungjawaban, EU mengembangkan dua instrumen hukum komplementer. Pertama, Artificial Intelligence Liability Directive (AILD) yang mengatur pertanggungjawaban berbasis kesalahan (fault-based liability). Kedua, revisi Product Liability Directive yang mengatur strict liability untuk kerusakan yang disebabkan oleh AI sebagai produk.⁹ Pendekatan dual-track ini memberikan perlindungan komprehensif bagi korban kerugian akibat AI sambil tetap memberikan kepastian hukum bagi pengembang dan pengguna AI.
Yang menarik dari pendekatan EU adalah pengakuan bahwa AI dapat melakukan tindakan yang dalam konteks manusia akan dikategorikan sebagai "AI crimes" - perilaku yang akan dianggap sebagai kejahatan jika dilakukan oleh manusia. Nerantzi dan Sartor (2024) mengusulkan paradigma "AI deterrence" yang terpisah dari hukum pidana tradisional, terinspirasi dari teori ekonomi kejahatan.¹⁰
Perspektif Komparatif: Tantangan Global
Dalam konteks global, berbagai negara menghadapi tantangan serupa dalam mengatur pertanggungjawaban pidana AI. Penelitian oleh Kingston (2016) mengidentifikasi bahwa sistem hukum pidana tradisional yang mensyaratkan mens rea (niat jahat) dan actus reus (perbuatan jahat) menghadapi kesulitan fundamental ketika diterapkan pada AI yang tidak memiliki kesadaran atau kehendak bebas.¹¹
Lagioia dan Sartor (2019) berargumen bahwa diperlukan pendekatan regulasi baru yang mempertimbangkan karakteristik unik AI, termasuk kemampuan pembelajaran mandiri (machine learning) dan pengambilan keputusan otonom. Mereka mengusulkan framework yang membedakan antara tanggung jawab pengembang, operator, dan pengguna AI berdasarkan tingkat kontrol dan prediktabilitas sistem.¹²
Model Pertanggungjawaban Pidana AI yang Diusulkan untuk Indonesia
Konsep Kepribadian Hukum Elektronik
Berdasarkan analisis terhadap berbagai pendekatan internasional dan mempertimbangkan konteks hukum Indonesia, penelitian ini mengusulkan pengakuan AI sebagai subjek hukum sui generis dengan kepribadian hukum elektronik (electronic legal personality). Konsep ini berbeda dari kepribadian hukum korporasi, namun memungkinkan AI untuk memiliki hak dan kewajiban terbatas sesuai dengan kapasitas teknologisnya.¹³
Jubaidi dan Khoirunnisa (2024) dalam penelitiannya mengidentifikasi bahwa dalam sistem hukum Indonesia saat ini, AI lebih dianggap sebagai objek hukum tanpa status personifikasi yang memungkinkan pengakuan sebagai subjek hukum. Hal ini menimbulkan berbagai konsekuensi, termasuk persoalan pertanggungjawaban dalam kasus kerugian yang disebabkan oleh tindakan AI.¹⁴
Model kepribadian hukum elektronik yang diusulkan memiliki karakteristik sebagai berikut:
- Registrasi Wajib: Setiap sistem AI yang beroperasi secara otonom dan memiliki potensi risiko tinggi wajib didaftarkan dalam registri nasional AI dengan identitas elektronik unik.
- Asuransi Wajib: Pengembang atau operator AI wajib menyediakan asuransi pertanggungjawaban untuk menutup potensi kerugian yang ditimbulkan oleh AI.
- Audit dan Sertifikasi: Sistem AI harus melalui proses audit dan sertifikasi berkala untuk memastikan kepatuhan terhadap standar keamanan dan etika.
Doktrin Pertanggungjawaban Bertingkat
Mengingat kompleksitas ekosistem AI, model yang diusulkan mengadopsi doktrin pertanggungjawaban bertingkat (tiered liability doctrine) yang melibatkan berbagai pihak:
- Pertanggungjawaban Primer: Berada pada AI itu sendiri untuk tindakan otonom yang tidak dapat diprediksi atau dikontrol oleh manusia. Sanksi dapat berupa deaktivasi sistem, pemrograman ulang, atau dalam kasus ekstrem, penghancuran sistem.¹⁵
- Pertanggungjawaban Sekunder: Ditanggung oleh operator AI yang memiliki kontrol langsung terhadap pengoperasian sistem. Ini sejalan dengan prinsip yang sudah ada dalam UU ITE dan PP 71/2019.
- Pertanggungjawaban Tersier: Dapat dibebankan kepada pengembang AI jika terbukti ada cacat desain atau kelalaian dalam pengembangan yang menyebabkan AI melakukan tindakan melawan hukum.
Penerapan Doktrin Vicarious Liability dan In Loco Parentis
Mahmuda, Gusti, dan Anrusfi (2025) mengusulkan penerapan doktrin in loco parentis dan vicarious liability untuk kejahatan terkait AI. Dalam konteks ini, AI diperlakukan seperti anak yang belum dewasa, di mana tanggung jawab hukum berada pada "orang tua" atau pengawasnya - dalam hal ini pengembang atau operator AI.¹⁶
Pendekatan ini memiliki beberapa keuntungan:
- Memastikan ada pihak manusia yang selalu dapat dimintai pertanggungjawaban
- Mendorong pengembang dan operator untuk lebih berhati-hati dalam mengembangkan dan mengoperasikan AI
- Sejalan dengan prinsip hukum Indonesia yang masih mensyaratkan elemen kesalahan manusia dalam pertanggungjawaban pidana
Tantangan Implementasi dan Solusi
Tantangan Teknis dan Konseptual
Implementasi model pertanggungjawaban pidana AI menghadapi beberapa tantangan fundamental. Pertama, kompleksitas teknis AI, khususnya sistem berbasis deep learning dan neural networks, menciptakan "black box problem" di mana proses pengambilan keputusan AI tidak dapat dijelaskan secara transparan.¹⁷ Hal ini menyulitkan pembuktian unsur kesalahan dalam konteks hukum pidana.
Kedua, sifat AI yang terus berkembang melalui machine learning berarti bahwa perilaku sistem dapat berubah seiring waktu, di luar kontrol langsung pengembang atau operator. Ini menciptakan pertanyaan filosofis tentang siapa yang bertanggung jawab atas tindakan yang tidak dapat diprediksi pada saat pengembangan.¹⁸
Solusi Regulatif dan Institusional
Untuk mengatasi tantangan tersebut, diperlukan pendekatan holistik yang mencakup:
- Pembentukan Badan Pengawas AI Nasional: Mengikuti rekomendasi dalam Strategi Nasional AI, perlu dibentuk badan khusus yang mengawasi pengembangan dan penggunaan AI, termasuk aspek pertanggungjawaban pidananya.¹⁹
- Standardisasi dan Sertifikasi: Pengembangan standar nasional untuk AI yang mencakup aspek keamanan, transparansi, dan akuntabilitas. Ini sejalan dengan partisipasi Indonesia sebagai anggota pengamat dalam komite standar ISO/IEC JTC 1/SC 42 tentang artificial intelligence.²⁰
- Sandbox Regulasi: Menciptakan ruang uji coba regulasi yang memungkinkan inovasi AI sambil tetap mempertahankan perlindungan hukum. Hal ini penting mengingat sifat desentralisasi pemerintahan Indonesia yang menciptakan tantangan dalam implementasi kebijakan AI yang seragam.²¹
Studi Kasus: Deepfake dan Kejahatan Siber
Salah satu contoh konkret kebutuhan regulasi pertanggungjawaban pidana AI adalah maraknya kasus deepfake pornography di Indonesia. Penelitian menunjukkan bahwa teknologi AI, khususnya Generative Adversarial Networks (GAN), telah digunakan untuk membuat konten pornografi deepfake yang menargetkan individu tanpa persetujuan mereka.²²
Dalam konteks hukum Indonesia saat ini, penanganan kasus deepfake menghadapi kendala karena:
- UU ITE tidak secara spesifik mengatur tentang konten yang dimanipulasi menggunakan AI
- UU Pornografi belum mengantisipasi teknologi deepfake
- Kesulitan dalam membuktikan mens rea ketika AI digunakan sebagai alat kejahatan
Kasus deepfake menunjukkan urgensi pengaturan yang jelas tentang pertanggungjawaban pidana dalam penggunaan AI, baik ketika AI digunakan sebagai alat kejahatan maupun ketika AI bertindak secara otonom menghasilkan konten ilegal.
Rekomendasi Kebijakan
Berdasarkan analisis komprehensif terhadap kondisi existing dan praktik internasional, penelitian ini merekomendasikan:
1. Pembentukan Undang-Undang Khusus tentang AI
Indonesia memerlukan undang-undang komprehensif yang mengatur AI, tidak hanya sebagai tambahan dalam UU ITE. Undang-undang ini harus mencakup:
- Definisi dan kategorisasi AI berdasarkan tingkat risiko
- Kerangka pertanggungjawaban pidana yang jelas
- Mekanisme pengawasan dan penegakan hukum
- Perlindungan bagi korban kesalahan atau penyalahgunaan AI
2. Harmonisasi dengan Kerangka Hukum ASEAN
Mengingat sifat lintas batas teknologi AI, Indonesia perlu berperan aktif dalam pengembangan kerangka regulasi ASEAN. Panduan ASEAN tentang AI Governance and Ethics yang baru diterbitkan dapat menjadi titik awal untuk harmonisasi regional.²³
3. Penguatan Kapasitas Institusional
Penegakan hukum terhadap kejahatan terkait AI memerlukan peningkatan kapasitas aparat penegak hukum. Ini mencakup:
- Pelatihan khusus untuk penyidik, jaksa, dan hakim tentang teknologi AI
- Pembentukan unit khusus cybercrime yang memiliki keahlian AI
- Kerjasama dengan institusi akademik dan industri untuk transfer pengetahuan
4. Pendekatan Multi-stakeholder
Pengembangan regulasi AI harus melibatkan berbagai pemangku kepentingan:
- Pemerintah sebagai regulator
- Industri teknologi sebagai pengembang
- Akademisi sebagai penyedia expertise
- Masyarakat sipil sebagai representasi kepentingan publik
Kesimpulan
Perkembangan teknologi AI di Indonesia telah mencapai titik di mana kerangka hukum existing tidak lagi memadai untuk mengatasi kompleksitas pertanggungjawaban pidana yang muncul. Model pertanggungjawaban pidana yang diusulkan dalam penelitian ini - yang mengkombinasikan konsep kepribadian hukum elektronik, pertanggungjawaban bertingkat, dan doktrin vicarious liability - menawarkan solusi yang seimbang antara mendorong inovasi dan melindungi masyarakat.
Implementasi model ini memerlukan tidak hanya perubahan regulasi, tetapi juga transformasi paradigma dalam memahami subjek hukum dan pertanggungjawaban pidana. Indonesia memiliki kesempatan untuk menjadi pelopor dalam pengaturan AI di kawasan Asia Tenggara, sejalan dengan visinya untuk menjadi pemimpin AI regional pada tahun 2045.
Urgensi pembentukan regulasi khusus AI semakin nyata dengan meningkatnya kasus penyalahgunaan teknologi ini, seperti deepfake dan kejahatan siber lainnya. Tanpa kerangka hukum yang jelas, Indonesia berisiko tertinggal dalam perlombaan teknologi global sambil membiarkan warganya rentan terhadap risiko AI yang tidak terkendali.
Penelitian ini merekomendasikan langkah konkret berupa pembentukan undang-undang khusus AI, harmonisasi regional, penguatan kapasitas institusional, dan pendekatan multi-stakeholder. Hanya dengan pendekatan komprehensif seperti ini, Indonesia dapat mewujudkan ekosistem AI yang andal, aman, dan bertanggung jawab sesuai dengan nilai-nilai Pancasila dan konstitusi.
Catatan Kaki
¹SSEK Law Firm, "Indonesia Law Update: Regulation of Artificial Intelligence," Lexology, 29 Februari 2024, https://www.lexology.com/library/detail.aspx?g=e278851d-8b20-4acc-b4dd-55be2acab98d.
²Hadi Purnomo, "Criminal liability for the use of artificial intelligence in Indonesia," Jurnal Info Sains: Informatika dan Sains 13, no. 03 (2023): 1109-1114, https://ejournal.seaninstitute.or.id/index.php/InfoSains/article/view/3696.
³Suredana Putra, "Arrangements of Artificial Intelligence in Criminal Law in Indonesia," International Journal of Multicultural and Multireligious Understanding 9, no. 1 (2022): 389, http://dx.doi.org/10.18415/ijmmu.v9i1.3389.
⁴Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik, Pasal 1 angka 8.
⁵SSEK Law Firm, "Regulation of Artificial Intelligence in Indonesia," 29 Februari 2024, https://ssek.com/blog/indonesia-law-update-regulation-of-artificial-intelligence/.
⁶Herbert Smith Freehills, "Ethical guidelines on use of artificial intelligence (AI) in Indonesia," 15 Mei 2024, https://www.herbertsmithfreehills.com/notes/tmt/2024-02/ethical-guidelines-on-use-of-artificial-intelligence-ai-in-indonesia.
⁷Ministry of Communication and Informatics Circular Letter No. 9 of 2023 regarding Artificial Intelligence Code of Ethics.
⁸Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).
⁹Norton Rose Fulbright, "Artificial intelligence and liability: Key takeaways from recent EU legislative initiatives," 2025, https://www.nortonrosefulbright.com/en/knowledge/publications/7052eff6/artificial-intelligence-and-liability.
¹⁰Elina Nerantzi dan Giovanni Sartor, "'Hard AI Crime': The Deterrence Turn," Oxford Journal of Legal Studies 44, no. 3 (2024): 673-701, https://doi.org/10.1093/ojls/gqae018.
¹¹John Kingston, "Artificial Intelligence and Legal Liability," International Conference on Innovative Techniques and Applications of Artificial Intelligence, November 2016.
¹²Francesca Lagioia dan Giovanni Sartor, "AI Systems Under Criminal Law: A Legal Analysis and a Regulatory Perspective," Philosophy & Technology 33, no. 3 (2019): 433-465, DOI: 10.1007/s13347-019-00362-x.
¹³Yeni Mahardhika, "Could Artificial Intelligence be the Subject of Criminal Law?," Yustisia 12, no. 1 (2023), DOI: https://doi.org/10.20961/yustisia.v12i1.56065.
¹⁴Didi Jubaidi dan Khoirunnisa Khoirunnisa, "Artificial Intelligence in the Perspective of Indonesian Law: Subject or Object of Law?," Asian Journal of Education and Social Studies 50, no. 11 (2024): 302-314, https://doi.org/10.9734/ajess/2024/v50i111655.
¹⁵R. Abbott dan A. Sarch, "Punishing Artificial Intelligence: Legal Fiction or Science Fiction," UC Davis Law Review 53, no. 1 (2019): 323.
¹⁶A. F. Mahmuda, M. C. Gusti, dan M. F. Anrusfi, "Exploring the potential crimes and legal liability of artificial intelligence within the framework of Indonesian criminal law," Ex Aequo Et Bono Journal of Law 2, no. 2 (2025), https://doi.org/10.61511/eaebjol.v2i2.2025.1385.
¹⁷Amina Adadi dan Mohammed Berrada, "Peeking Inside the Black-Box: a Survey on Explainable Artificial Intelligence (XAI)," IEEE Access 6 (2018): 52138, https://doi.org/10.1109/ACCESS.2018.2870052.
¹⁸Sabine Gless dan Katalin Ligeti, "Regulating Driving Automation in the European Union – Criminal Liability on the Road Ahead?," New Journal of European Criminal Law 15, no. 1 (2023): 33, https://doi.org/10.1177/20322844231213336.
¹⁹Bappenas, "National Strategy for Artificial Intelligence 2020-2045," (Jakarta: Ministry of National Development Planning, 2020).
²⁰Asia Society Policy Institute, "National Strategy for Artificial Intelligence," 12 Juli 2022, https://asiasociety.org/policy-institute/raising-standards-data-ai-southeast-asia/ai/indonesia.
²¹Rendy Pahrun Wadipalapa et al., "An Ambitious Artificial Intelligence Policy in a Decentralised Governance System: Evidence From Indonesia," Journal of Contemporary Asian Studies (2024), https://doi.org/10.1177/18681034231226393.
²²Putu Agung Bayuputra Primawan et al., "Deepfake Pornography: How Criminal Liability of Perpetrators in the Indonesian Criminal Law Framework," Jurnal Magister Hukum Udayana 13, no. 3 (2024), https://doi.org/10.24843/JMHU.2024.v13.i03.p15.
²³ASEAN, "Guide on AI Governance and Ethics," 2024.
Komentar
Posting Komentar