Reformasi Hukum JRH ISSN 1693-9336 | e-ISSN 2686-1598 Vol. 29 No. 2 August 2025 . org/10. 46257/jrh. Kejahatan Deepfake Berbasis Artificial Intellegence: Suatu Konsepsi pada Penggunaan Asas Culpabilitas Sebagai Pembaharuan Pertanggungjawaban Pidana Artificial Intelligence-Based Deepfake Crimes: A Conception of Culpability Principle as a Criminal Liability Reform Muhammad Syafiq Wafi 1*. Aloysius Wisnubroto 2. Yudi Prayudi, 1 Master of Art in Public Law. Dicle Universitesi. Diyarbakir. Turkiye. dan Fakultas Hukum. Universitas Islam Indonesia. Yogyakarta. Indonesia. 2 Fakultas Hukum. Universitas Atma Jaya Yogyakarta. Yogyakarta. Indonesia. 3 Fakultas Teknologi Industri. Universitas Islam Indonesia. Yogyakarta. Indonesia. *Corresponding author email: 23912071@students. Paper Abstrak Submitted 11-03-2025 Accepted 27-08-2025 Fenomena kejahatan deepfake berbasis artificial intelligence (AI) menuntut pembaharuan konsep pertanggungjawaban pidana melalui perluasan asas culpabilitas yang memungkinkan penempatan AI sebagai subjek hukum. Namun, gagasan menjadikan AI sebagai subjek hukum yang mandiri . lectronic personhoo. dinilai tidak relevan, mengingat AI tidak memiliki kehendak dan kebebasan ideal sebagaimana manusia. Oleh karena itu, penelitian ini menawarkan model pertanggungjawaban pidana yang mengarahkan perluasan asas culpabilitas kepada penyedia dan pengguna teknologi deepfake. Dengan menggunakan metode penelitian hukum normatif yang bertumpu pada bahan hukum primer dan sekunder, studi ini menelaah penerapan asas culpabilitas secara komprehensif melalui pendekatan perbandingan antarnegara. Hasil penelitian menunjukkan bahwa bentuk pertanggungjawaban yang paling proporsional adalah model vicarious liability, yang awalnya diterapkan pada korporasi namun dapat disesuaikan untuk konteks AI. Dalam model ini, penyedia perangkat lunak dapat dimintai pertanggungjawaban atas tindakan AI yang digunakan untuk melakukan kejahatan deepfake, terutama sebagai bentuk tanggung jawab terhadap regulasi tata kelola Penelitian ini merekomendasikan pembentukan regulasi nasional yang menekankan pada sistem tata kelola berbasis risk assessment, risk management, dan impact assessment sebagaimana diterapkan di Uni Eropa. Kanada, dan Amerika Serikat. Kesimpulannya, pembaharuan pertanggungjawaban pidana berbasis AI merupakan langkah strategis dalam menanggulangi kejahatan deepfake yang semakin masif serta memastikan sistem hukum tetap adaptif terhadap perkembangan teknologi. Kata Kunci Artificial Intelligence. Culpabilitas. Deepfake. Pertanggungjawaban Pidana. Subjek Hukum. Abstract The phenomenon of deepfake crimes based on artificial intelligence (AI) demands a reform of criminal liability concepts through the expansion of the culpability principle, allowing the placement of AI as a subject of law. However, the idea of recognizing AI as an independent legal entity . lectronic personhoo. is considered irrelevant, since AI lacks human-like will and moral Therefore, this study proposes a model of criminal liability that extends the culpability principle to providers and users of deepfake technology. Using a normative legal research method based on primary and secondary legal materials, this study comprehensively examines the application of the culpability principle through a comparative approach among various The findings indicate that the most proportional form of liability is the vicarious liability model, which was initially applied to corporations but can be adapted to the AI context. In this model, software providers may be held liable for acts committed by AI in deepfake crimes, particularly as part of their responsibility toward technology governance regulations. The study recommends establishing national regulations emphasizing governance systems based on risk assessment, risk management, and impact assessment, as practiced in the European Union. Canada, and the United States. In conclusion, reforming criminal liability in the AI era is a Muhammad Syafiq Wafi, et. | Kejahatan Deepfake Berbasis Artificial JRH strategic step to address the growing prevalence of deepfake crimes and to ensure that the legal system remains adaptive to technological developments. Keywords Artificial Intelligence. Criminal Liability. Culpability. Deepfake. Legal Subject. Copyright: A 2025 by the authors. This open-access article is distributed under the terms and conditions of the Creative Commons Attribution CCAeBY 4. 0 license. Pendahuluan Perkembangan teknologi yang begitu pesat telah membawa perubahan signifikan terhadap modus operandi kejahatan. Fenomena ini terjadi karena munculnya kejahatan siber sebagai bentuk baru yang turut memengaruhi karakteristik kejahatan Hadirnya kecerdasan buatan atau Artificial Intelligence . elanjutnya disebut AI) telah menjadi faktor utama dalam transformasi tersebut. Adapun salah satu bentuk kejahatan berbasis AI yang paling mendominasi saat ini adalah deepfake. Telah terjadi banyak kasus kejahatan deepfake berbasis AI yang terjadi di berbagai belahan dunia, salah satunya di Shanghai Ae Tiongkok, yang melibatkan kasus penipuan asmara daring . omance sca. Dalam kasus ini, seorang pria bernama Liu mengalami kerugian sebesar 200. 000 yuan . ekitar Rp. setelah menjalin hubungan dengan sosok perempuan fiktif yang sepenuhnya merupakan hasil rekayasa AI. Sistem AI tersebut menciptakan identitas palsu bernama AuNona JiaoAy, lengkap dengan tampilan visual dan gaya komunikasi yang meyakinkan. Interaksi antara Liu dan sosok virtual tersebut berlangsung intens hingga menumbuhkan rasa kepercayaan dan kedekatan Pelaku kemudian memanfaatkan situasi tersebut dengan meminta sejumlah uang atas alasan kebutuhan usaha dan biaya pengobatan kerabat, sehingga mendorong korban melakukan transfer dana ke rekening yang dikendalikan oleh pelaku penipuan pelaku penipuan. Melihat kasus tersebut, tampak bahwa dominasi AI dalam menghasilkan gambar atau video yang tampak realistis, serta kemampuannya menciptakan teks menyerupai percakapan manusia, telah membuka peluang terjadinya tindak penipuan. Di Indonesia, modus serupa juga muncul dalam bentuk penipuan berbasis impersonifikasi wajah dan suara, sebagaimana dialami oleh publik figur Baim Wong. Dalam kasus ini, pelaku melakukan penipuan melalui panggilan video . ideo cal. dengan meniru wajah dan suara Baim Wong secara sangat meyakinkan. Modus yang digunakan ialah dengan mengunduh video asli Baim Wong, kemudian mengintegrasikannya dengan teknologi kecerdasan buatan berbasis deepfakeuntuk melakukan peniruan wajah . ace imitatio. dan pengisian suara . oice clonin. Hasil manipulasi tersebut digunakan untuk mengelabui korban agar percaya bahwa mereka berkomunikasi langsung dengan Baim Wong, sehingga korban terdorong melakukan transfer dana ke rekening pelaku. Selain itu, kasus serupa juga menimpa Presiden Republik Indonesia. Prabowo Subianto, melalui video manipulatif di platform Instagram yang seolah-olah menampilkan dirinya berjanji akan memberikan bantuan pasca pemilihan presiden. Video tersebut menyebabkan banyak masyarakat di sedikitnya 20 provinsi menjadi korban penipuan. Mereka diarahkan menghubungi nomor WhatsApp tertentu untuk proses penyaluran bantuan fiktif dan diminta membayar biaya administrasi antara Rp. 000,00 hingga Rp. 000,00. Adanya berbagai kasus yang melibatkan kejahatan siber berbasis AI melalui teknologi deepfake menunjukkan bahwa fenomena tersebut telah menjadi ancaman faktual di Indonesia. Namun, hingga saat ini, belum terdapat regulasi nasional yang secara responsif dan komprehensif mengatur bentuk pertanggungjawaban pidana atas kejahatan yang melibatkan peran aktif AI. Jenis-jenis kejahatan yang muncul antara lain meliputi penyebaran konten deepfake, penipuan dengan AI voice cloning, penyebaran hoaks melalui AI-generated image, penipuan layanan berbasis chatbot AI atau AIgenerated scam melalui auto chat dan phishing, serta pemalsuan dokumen atau surat elektronik menggunakan teknologi AI OCR dan text generator. Kejahatan-kejahatan tersebut menandai adanya transformasi nyata dalam lanskap kejahatan digital nasional, di mana peran manusia semakin kabur akibat intervensi AI yang mampu meniru tindakan, ekspresi, bahkan komunikasi manusia. Meskipun Reformasi Hukum | Vol. August 2025 sebagian tindak pidana tersebut masih dapat dijerat melalui Undang-Undang Republik Indonesia Nomor 1 Tahun 2024 tentang Perubahan Kedua atas Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik . elanjutnya disebut UU ITE), serta akan digantikan oleh Undang-Undang Nomor 1 Tahun 2023 tentang Kitab UndangUndang Hukum Pidana . elanjutnya disebut sebagai KUHP Nasiona. pada tahun 2026, kedua regulasi tersebut belum memberikan dasar hukum yang spesifik terhadap kejahatan yang melibatkan kinerja atau keputusan otonom dari AI itu sendiri. Akibatnya, terdapat kekosongan hukum . egal ga. yang signifikan dalam sistem pertanggungjawaban pidana terhadap kejahatan berbasis AI. Hal ini terjadi karena maksud dan tujuan pembentuk undang-undang pada saat penyusunan UU ITE maupun KUHP Nasional belum diarahkan untuk menghadapi fenomena kejahatan digital yang dihasilkan oleh kecerdasan buatan, seperti deepfake. Sebagai contoh. Pasal 4 UU ITE menegaskan bahwa tujuan pengaturan adalah untuk mencerdaskan kehidupan bangsa, mengembangkan perdagangan dan perekonomian nasional, meningkatkan pelayanan publik, memperkuat pemanfaatan teknologi informasi, serta memberikan rasa aman dan kepastian hukum bagi penyelenggaraan teknologi informasiAinamun belum menyentuh aspek pengendalian risiko kejahatan dari teknologi itu sendiri. Dalam praktiknya, apabila kejahatan berbasis AI hanya diakomodasi melalui regulasi yang telah ada dengan menggunakan metode penafsiran ekstensif, maka pendekatan tersebut menjadi tidak sepenuhnya relevan. Hal ini disebabkan karena maksud dan tujuan pembentuk undangundang tidak pernah diarahkan untuk menanggulangi penyalahgunaan kecerdasan Dengan kata lain, tindak pidana berbasis AI memang mungkin Auterpenuhi secara formilAy terhadap rumusan delik tertentu . atbestand massighei. melalui metode penafsiran ekstensif, namun secara substansial pembentuk undang-undang tidak bermaksud demikian . Hal tersebut berimplikasi pada sulitnya penanganan kejahatan deepfake dalam tahapan pra-ajudikasi, yang disebabkan oleh beberapa faktor: pertama, teknologi deepfake terbuka dan mudah diakses. kedua, tersedianya berbagai perangkat lunak yang ada dalam versi open-source seperti DeepFaceLab dan StyleGAN. ketiga, penggunaan teknologi deepfake untuk kejahatan sering kali sulit terdeteksi karena pelaku menggunakan virtual private work (VPN). keempat, sulitnya melacak akun pertama yang menyebarkan video deepfake karena tersebar di jejaring sosial, adapun jika ditemui sering kali akun tersebut merupakan akun palsu atau anonymus. Fakta-fakta tersebut menunjukkan adanya kekosongan hukum yang menegaskan perlunya regulasi yang dapat menjangkau dan mengatur penyedia teknologi AI agar tidak disalahgunakan, terutama karena ketersediaannya dalam bentuk open-source. Dalam kasus penyalahgunaan deepfake yang menimpa Presiden Republik Indonesia Prabowo Subianto, misalnya, aparat penegak hukum masih menghadapi kesulitan dalam menelusuri pelaku, yang menunjukkan bahwa pendekatan represif semata tidak memadai tanpa disertai langkah preventif yang bersifat sistemik. Dengan demikian, regulasi yang mengatur penyedia AI berbasis open-source di Indonesia perlu dilakukan pembaruan, khususnya dengan menerapkan prinsip legal personality sebagai dasar perluasan pertanggungjawaban pidana. Oleh karena itu, studi ini juga mengkaitkan mental elemen . yang relevan dengan kejahatan deepfake berbasis AI dengan menjadikan AI sebagai subjek hukum yang merujuk pada kontribusi dari programer yang tidak melimitasi software-nya sehingga dapat digunakan sebagai alat kejahatan, termasuk user yang sudah menyalahgunakan teknologi deepfake. Perlunya pembaruan hukum pidana yang mampu mengakomodasi penyalahgunaan AI dalam bentuk deepfake menjadi penting agar hukum dapat berfungsi secara preventif maupun represif sebagai sarana kontrol sosial, manajemen tata kelola, serta perlindungan hukum. Oleh karena itu, tantangan berikutnya adalah bagaimana merumuskan bentuk pertanggungjawaban pidana terhadap kejahatan siber berbasis AI. Fenomena kejahatan deepfake yang semakin masif menimbulkan pertanyaan mendasar mengenai sejauh mana asas culpabilitas dapat diterapkan pada entitas nonmanusia seperti AI. Dengan demikian, pembentukan regulasi yang komprehensif tidak cukup hanya mengatur aspek kriminalisasi dan penalisasi, tetapi juga perlu mencakup mekanisme tata kelola penggunaan AI itu sendiri. Regulasi semacam ini diharapkan dapat mengakomodasi perluasan asas culpabilitas dalam konteks AI, terutama dengan Muhammad Syafiq Wafi, et. | Kejahatan Deepfake Berbasis Artificial JRH menempatkan programmer dan pengguna . sebagai subjek hukum yang bertanggung jawab atas pemanfaatan teknologi tersebut. Adapun penelitian-penelitian terdahulu yang memiliki relevansi dengan studi ini antara lain: Pertama. Heny Novyanti dan Pudji Astuti dalam artikel ilmiah jurnalnya tentang AuJerat Hukum Penyalahgunaan Aplikasi Deepfake Ditinjau Dari Hukum PidanaAy. , menemukan bahwa penyalahgunaan aplikasi deepfake dapat dikualifikasikan sebagai tindak pidana karena telah memenuhi kriteria kriminalisasi. Selain itu, tindakan tersebut juga memenuhi unsur-unsur tindak pidana baik secara subjektif maupun objektif. Namun, penelitian tersebut hanya menelaah penerapan regulasi yang ada tanpa menawarkan kerangka hukum baru, sedangkan penelitian ini mengajukan perluasan asas culpabilitas sebagai upaya preventif terhadap kejahatan deepfake. Kedua. Rendi Syaputra Nur Haida dalam artikel ilmiah jurnalnya tentang AyUrgensi Pengaturan Perlindungan Hukum Terhadap Korban Deepfake Melalui Artificial Inteligence (AI) Dari Perspektif Hukum Pidana IndonesiaAy. , menyoroti adanya kekosongan hukum terkait kejahatan berbasis AI, yang seiring waktu menyebabkan meningkatnya jumlah korban maupun pelaku. Penelitian tersebut menjelaskan bahwa undang-undang yang berlaku di Indonesia masih terbatas pada upaya pencegahan, tanpa memberikan efek jera yang memadai terhadap pelaku. Penelitian tersebut masih terbatas pada analisis normatif tanpa menawarkan pedoman yang jelas bagi penyedia dan pengguna deepfake, sedangkan studi ini menghadirkan kebaruan melalui integrasi prinsip culpabilitas dalam regulasi mitigasi risiko untuk menegaskan eksistensi AI sebagai subjek hukum berbasis tanggung jawab penyedia dan pengguna. Ketiga. Cheny Berlian dalam disertasinya AyPertanggungjawaban Pidana Pelaku Kejahatan Siber Menggunakan Artificial IntelligenceAy. , menemukan bahwa peraturan yang ada saat ini belum memadai untuk mengakomodasi perkembangan kejahatan siber, baik sebagai langkah preventif maupun represif, mengingat transformasi kejahatan digital yang begitu masif. Dalam disertasi tersebut ditegaskan bahwa AI belum memenuhi kriteria sebagai subjek hukum, sehingga tanggung jawab tetap dibebankan kepada manusia sebagai pengembang atau pengguna. Berbeda dengan penelitian tersebut, penelitian ini mengusulkan konsep AI sebagai subjek hukum yang terinspirasi dari legal personality korporasi, sekaligus memperluas asas culpabilitas untuk membangun sistem pertanggungjawaban pidana yang mencakup penyedia dan pengguna, seiring semakin otonom dan masifnya peran AI, terutama dalam teknologi deepfake. Keempat. Istiqomah. Mutiasih Savanah Puti Dinanty. Surwangi Resti Anggun Saputri dalam artikel ilmiah jurnalnya AyKedudukan Hukum Deepfake AI sebagai Subjek Hukum dan Pertanggungjawaban Pidananya Berdasarkan Teori DualistisAy. , membahas persoalan kekosongan hukum dalam menanggulangi kejahatan berbasis AI, khususnya deepfake, dengan menggunakan teori dualistis. Penelitian tersebut menggunakan teori dualistis untuk menjelaskan kebingungan dalam menentukan pihak yang seharusnya bertanggung jawab. Berbeda dengan penelitian tersebut, penelitian ini memperluas pertanggungjawaban kepada penyedia dan pengguna AI, dengan penyedia diwajibkan melakukan tata kelola sebagai mitigasi risiko dan pengguna yang menyalahgunakan teknologi tetap dimintai pertanggungjawaban. Dengan demikian, kebaruan . dalam penelitian ini terletak pada penyajian model-model pertanggungjawaban pidana dengan memasukkan gagasan mengenai AI sebagai subjek hukum sebagai langkah preventif terhadap maraknya kejahatan deepfake secara konseptual. Selain itu, guna menyederhanakan konsep pertanggungjawaban AI, studi ini mereduksi berbagai gagasan agar semakin relevan dengan konteksnya, dengan memaparkan penerapan asas culpabilitas secara komprehensif melalui studi perbandingan antarnegara yang memiliki kesamaan ruang lingkup dengan kejahatan Hal ini didasarkan pada kenyataan bahwa penggunaan AI yang semakin otonom berpotensi memengaruhi pola dan bentuk kejahatan di dunia digital. Adapun rumusan permasalahan dalam studi ini berfokus pada pertanyaan: bagaimana pembaruan pertanggungjawaban pidana pada kejahatan deepfake berbasis AI sebagai konsepsi atas penerapan asas culpabilitas? Penelitian ini bertujuan untuk memberikan pemahaman baik secara teoritis maupun praktis mengenai pembaruan konsep pertanggungjawaban pidana, khususnya bagi praktisi dan akademisi hukum dalam konteks kejahatan deepfake. Reformasi Hukum | Vol. August 2025 Metode Jenis penelitian yang digunakan dalam Penelitian ini yaitu penelitian hukum normatif karena yang dikaji adalah pembaharuan pertanggungjawaban pidana pada kejahatan deepfake berbasis artificial intelligence sebagai konsepsi atas penerapan asas Pendekatan yang digunakan pada studi ini adalah pendekatan konseptual, pendekatan perbandingan, dan pendekatan peraturan perundang-undangan. Pada pendekatan konseptual mengacu pendapat Ae pendapat ahli terkait dengan konsep penerapan asas culpabilitas dalam rangka pembaharuan pertanggungjawaban pidana dan ruang lingkup yang relevan pada kejahatan deepfake. Adapun pendekatan perbandingan mengacu pada regulasi di luar negara Indonesia yang relevan pada studi Bahwa alasan digunakannya tiga pendekatan tersebut yaitu. pertama, pendekatan konseptual digunakan untuk menelaah asas culpabilitas. kedua, pendekatan perbandingan digunakan untuk mengidentifikasi praktik hukum di negara lain. pendekatan peraturan perundang-undangan digunakan untuk menilai kesesuian norma dalam KUHP Nasional dan UU ITE. Pendekatan-pendekatan tersebut diintegrasikan dalam analisis melalui empat tahap yaitu. Identifikasi konseptual, pada tahap ini pendekatan yang digunakan adalah pendekatan konseptual yang berfungsi untuk menyajikan konsep kejahatan deepfake berbasis AI sekaligus fungsinya sebagai kerangka konseptual. Identifikasi norma, pada tahap ini pendekatan yang digunakan adalah pendekatan peraturan perundangundangan untuk menelaah kesesuaian dan kekosongan norma baik dalam KUHP Nasional maupun dalam UU ITE. Perbadingan sistem hukum asing, pada tahap ini pendekatan yang digunakan adalah pendekatan perbandingan yang berfungsi untuk mengkaji dan menelaah praktik hukum di negara lain yang berkaitan dengan perkembangan AI sebagai subjek hukum dan mitigasi resiko termasuk yang patut dipertanggungjawabkan pada penyalahgunaan AI berupa deepfake dengan menyajikan foreign regulation yang relevan. Adapun alasan dalam menyajikan foreign regulation adalah untuk menilai pertanggungjawaban atau sanksi penyedia software AI untuk memitigasi tindakan kriminal salah satunya berupa deepfake termasuk kewajiban melakukan systemic risk management, impact assessments, dan high-impact AI systems yang sudah dilakukan di beberapa negara. Tahap sintesis konsep baru, pendekatan yang digunakan adalah perpaduan pendekatan konseptual, peraturan perundangundangan, dan pendekatan perbandingan. Sumber bahan hukum pada studi ini yaitu bahan hukum primer yaitu peraturan perundang-undangan berupa UU ITE dan KUHP Nasional. Selain itu, adanya bahan hukum sekunder berupa foreign regulation dan tulisan ilmiah yang relevan dengan pembaharuan pertanggungjawaban pidana pada kejahatan deepfake berbasis artificial intelligence sebagai konsepsi atas penerapan asas culpabilitas yaitu. House of Commons of Canada. BILL C-27 An Act to enact the Consumer Privacy Protection Act, the Personal Information and Data Protection Tribunal Act and the Artificial Intelligence and Data Act and to make consequential and related amendments to other Acts. The House of Representatives. 6580 To direct the Federal Trade Commission to require impact assessments of automated decision systems and augmented critical decision processes, and for other purposes. Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations. European Civil Law Rules in Robotics. Directorate-General for Internal Policies: Policy Department C: CitizensAo Rights and Constitutional Affairs. Buku, jurnal, artikel, dan literatur lain yang masih berkaitan. Pada bahan hukum sekunder tersebut, sudah dilakukan validitas melalui masing Ae masing publikasi resminya. Adapun bahan hukum yang sudah dikumpulkan dianalisis secara deskriptif Ada tiga jalur dalam analisis kualitatif pada studi ini, yaitu reduksi bahan hukum, penyajian bahan hukum, dan penarikan kesimpulan. Reduksi bahan hukum dilakukan dengan menyederhanakan konsep culpabilitas dalam menilai AI sebagai pengaruh kejahatan yang ada dari berbagai literatur, sehingga pereduksian tersebut agar lebih relevan dalam menunjang novelty studi ini. Muhammad Syafiq Wafi, et. | Kejahatan Deepfake Berbasis Artificial JRH Hasil dan Pembahasan 1 Kejahatan Deepfake Berbasis Artificial Intelligence (AI) Deepfake memiliki makna media baik audio maupun visual dalam format elektronik yang dibuat, diubah, atau dimanipulasi secara digital sehingga orang lain merasa hal tersebut asli yang merepresentasikan perilaku aktual seseorang yang tergambar dalam rekaman tersebut. Sedangkan AI merupakan sub-bidang ilmu komputer yang berfungsi untuk mengkaji keterampilan manusia sehingga dapat mempersepsi, bernalar, dan bertindak. Deepfake sebagai dalam menjalankan peranannya berbasis pada AI . ecerdasan buata. AI sendiri berkembang dengan pesat sehingga memunculkan potensi negatif berupa penyebaran misinformasi, menyebarkan ketidakpercayaan, dan memungkinkan penipuan dan bentuk kejahatan lainnya. Oleh karena itu, kejahatan dan teknologi merupakan dua hal yang perkembangannya berubah secara masif seiring dengan perubahan zaman. Sebagaimana gambar dibawah ini: Gambar 1. Transformasi Kejahatan dan Teknologi Sumber: diolah oleh penulis Pada gambar tersebut, pada mulanya kejahatan merupakan representasi aktivitas konvensional yang melanggar norma kehidupan. Namun seiring dengan berjalannya waktu, kemajuan teknologi yang turut berkembang juga mempengaruhi kejahatan konvensional baik sebagai alat utama, alat bantu, atau sasaran kejahatan sehingga melahirkan tiga tipologi kejahatan siber berupa computer crime, computer-supported crime, dan computer-facilitated crime. Kendati demikian, tidak berhenti pada keterlibatan teknologi semata, dijaman yang kian modern kini perkembangan AI semakin mendominasi dalam aktivitas kehidupan sehingga AI menjadi sangat otonom. Hal ini turut mempengaruhi kejahatan dibidang cyberspace dimana salah satu kejahatan yang sering dijumpai adalah deepfake. Oleh karena itu, penulis menyebutnya sebagai AIfacilitated crime, sedangkan dalam diskursus yang lebih konkret terkait kejahatan deepfake disebut deepfake as AI-facilitated crime. Transformasi ini menunjukan bahwa hukum pidana menghadapi disrupsi ontologis terhadap konsep perbuatan dan pelaku. Penulis mengkasifikasikan kejahatan deepfake berbasis AI sendiri berdasarkan pandangan Gareth Shelwel, walaupun memang klasifikasi ini tidak bersifat konkrit karena transformasi digital dan modus operandi yang begitu masif sehingga paling tidak sudah merepresentasikan perkembangan-perkembangan tersebut selama masih Menurut Gareth Shelwel di laman Canipish menjelaskan enam trend kejahatan yang berbasis AI yaitu penipuan asmara, kejahatan impersonifikasi atau peniruan suara dan wajah seseorang, kanal percakapan pada akun media sosial yang palsu, surat elektronik palsu, penipuan berupa percakapan langsung, dan penipuan layanan dan produk investasi. Adapun klasifikasi kejahatan siber berbasis AI yang dikemukakan oleh Gareth Shelwel dijabarkan dalam penelitian ini untuk memberikan gambaran praktis atas fenomena tersebut. Pertama, kejahatan yang merepresentasikan bentuk romance fraud atau penipuan Dalam kasus ini, korban sering kali tertipu dan mengalami kerugian finansial Reformasi Hukum | Vol. August 2025 akibat mempercayai pasangan yang ternyata merupakan sosok fiktif hasil rekayasa sistem AI. Kecerdasan buatan yang melatarbelakangi penciptaan identitas palsu tersebut mampu membangun karakter dengan sapaan tertentu serta menjalin komunikasi intensif hingga menumbuhkan rasa kedekatan dan empati. Seiring waktu, pelaku melalui identitas fiktif tersebut kerap meminta bantuan dana, misalnya untuk membuka usaha atau membantu kerabat yang sakit, sehingga korban tidak ragu melakukan transfer dana ke rekening yang ditentukan, seperti dalam kasus AuNona JiaoAy. Kasus ini menunjukkan dominasi AI dalam menciptakan gambar dan video yang tampak realistis, serta kemampuannya menghasilkan teks yang dapat menimbulkan penipuan. Kedua, kejahatan yang merepresentasikan bentuk impersonifikasi atau penipuan melalui suara dan wajah. Modus ini umumnya menimpa tokoh publik, di mana pelaku menggunakan teknologi deepfake untuk meniru wajah dan suara tokoh tersebut dalam panggilan video, guna mengelabui korban agar mentransfer sejumlah dana ke rekening Pelaku biasanya mengunduh video asli tokoh publik, kemudian memanipulasi tayangan tersebut dengan mengarahkan kamera ponsel dan menambahkan suara hasil dubbing melalui aplikasi berbasis AI. Masih banyak kasus serupa yang berkaitan dengan kejahatan deepfake yang terus Kendati demikian, tantangan utama yang dihadapi aparat penegak hukum terletak pada proses pelacakan dan identifikasi pelaku. Salah satu contoh menonjol adalah kasus yang menimpa CEO perusahaan energi di Jerman, yang menjadi korban penipuan melalui video deepfake dengan kerugian mencapai 3,8 miliar rupiah. Pelaku berhasil memindahkan dana tersebut, sementara aparat penegak hukum sempat mengalami kendala dan kehilangan jejak dalam proses penyelidikan. Kondisi ini menunjukkan bahwa penegakan hukum terhadap kejahatan deepfake sering kali terhambat karena pelaku tidak dapat ditemukan atau tidak terdapat individu maupun kelompok yang dapat dimintai pertanggungjawaban. Hambatan tersebut disebabkan oleh karakteristik unik dari kejahatan itu sendiri. Terdapat beberapa faktor yang menyebabkan sulitnya pelacakan terhadap pelaku deepfake. Pertama, teknologi deepfake bersifat mudah diakses dan bersifat terbuka bagi masyarakat luas. Beberapa perangkat lunak seperti DeepFaceLab. FaceSwap, dan StyleGAN tersedia dalam versi open-source, sehingga siapapun dapat mengunduh dan menggunakannya. Kesulitan penelusuran semakin meningkat apabila pelaku memanfaatkan Virtual Private Network (VPN), yang dapat menyamarkan lokasi dan identitas pengguna. Kedua, ketika sebuah video deepfake tersebar di dunia maya, penyebarannya berlangsung sangat cepat melalui berbagai jejaring sosial. Hal ini berdampak pada kesulitan untuk melacak sumber unggahan pertama secara akurat. Bahkan jika konten asli berhasil ditemukan, pelaku umumnya menggunakan akun palsu untuk menyamarkan identitasnya. Ketiga, kelemahan dalam kerangka hukum turut menjadi faktor penghambat investigasi. Oleh karena itu, diperlukan regulasi khusus yang mengatur deepfake sebagai tindak pidana tersendiri, serta inovasi dalam konsep pertanggungjawaban pidana yang mampu secara efektif menanggulangi kejahatan berbasis AI, baik dalam fungsi preventif maupun represif. Adapun regulasi yang saat ini berpotensi menjangkau tindak pidana deepfake dapat diuraikan sebagai berikut: Tabel. 1 Regulasi yang dapat menjangkau kejahatan deepfake Regulasi Rumusan delik Pasal 27 A UU ITE Setiap Orang dengan sengaja menyerang kehormatan atau nama baik orang lain dengan cara menuduhkan suatu hal, dengan maksud supaya hal tersebut diketahui umum dalam bentuk Informasi Elektronik dan/ atau Dokumen Elektronik yang dilakukan melalui Sistem Elektronik. Bentuk keterbatasan dalam konteks kejahatan deepfake yang berbasis AI Rumusan ini tidak mengakomodir AI di dalam regulasinya. Selain itu, sulitnya mendeteksi deepfake dengan akurasi tinggi terhadap kehormatan atau nama baik orang . Muhammad Syafiq Wafi, et. | Kejahatan Deepfake Berbasis Artificial JRH Pasal 27 Ayat . UU ITE Setiap Orang dengan sengaja dan mendistribusikan, mentransmisikan, dan/atau diaksesnya Informasi Elektronik dan/ atau Dokumen Elektronik yang memiliki muatan yang melanggar kesusilaan untuk diketahui umum. Pasal 28 n Setiap Orang dengan sengaja Ayat . , dan/atau . , dan Informasi Elektronik dan/ atau . UU ITE Dokumen Elektronik yang berisi pemberitahuan bohong atau informasi menyesatkan yang mengakibatkan kerugian materiel bagi konsumen dalam Transaksi Elektronik. n Setiap Orang dengan sengaja dan dan/atau Informasi Elektronik dan/atau Dokumen Elektronik yang sifatnya memengaruhi orang lain sehingga menimbulkan rasa kebencian atau permusuhan terhadap individu dan/atau kelompok masyarakat kebangsaan, etnis, warna kulit, kelamin, disabilitas mental, atau disabilitas fisik. n Setiap Orang dengan sengaja Informasi Elektronik dan/atau Dokumen Elektronik yang diketahuinya memuat pemberitahuan bohong yang menimbulkan kerusuhan di Pasal 407 Setiap Orang yang memproduksi. Ayat . KUHP menggandakan, menyebarluaskan. Nasional menyiarkan, mengimpor, mengekspor, menawarkan, memperjualbelikan, menyediakan Pornografi, dipidana dengan pidana penjara paling singkat 6 . Bulan dan pidana penjara paling lama l0 . Reformasi Hukum | Vol. August 2025 Banyaknya kasus pornografi yang dengan Pasal ini bagi orang menyiarkan, mempertunjukan. Ao . Kendati demikian, kesulitan menyamarkan identitas melalui penggunaan proxy atau VPN termasuk ketidakjelasan unsur tanpa hak dan melanggar kesusilaan dikarenakan deepfake sering kali dibuat dari hasil rekayasa algoritmik sehingga sekiranya mens rea pelaku saja tidak cukup tanpa keterlibatan penyedia AI yang seharusnya kejahatan tersebut. n Dimungkinkannya terhadap unsur informasi yang pemberitahuan bohong karena bisa jadi korban sejatinya benar melakukan perbuatan bohong . ictim participation to crim. namun di satu sisi aparat deepfake sering kali tidak berbentuk penyataan faktual melainkan rekonstrusi suara yang menyerupai realitas, di sisi lain deepdake dianggap bohong menjadi abu-abu dalam ruang lingkup UU ITE. n Teknologi deepfake berkerja melalui algoritma otomatis yang sedikit banyaknya dapat mengkaburkan unsur tanpa hak dikarenakan data atau gambar yang digunakan bersumber dari public space sehingga tidak ada batas yang jelas. Bahwa maksud dan tujuan pembentuk undang-undang pada Aysetiap Ay disusun dengan asumsi manusia secara manual menciptakan pornografi, sehingga apakah aktivitas software dengan mengunggah wajah seseorang ke sistem AI sudah bisa dikategorikan sebagai memproduksi atau tahun atau pidana denda paling sedikit kategori IV dan pidana denda paling banyak kategori VI. Hal ini dikarenakan tidak semua konten yang . Regulasi-regulasi tersebut, melalui penafsiran ekstensif, pada dasarnya dapat digunakan untuk menindak secara represif pelaku kejahatan berbasis AI. Namun, timbul pertanyaan apakah pendekatan penafsiran ekstensif tersebut tidak akan menjadi terlalu luas dan apakah dapat bertahan dalam jangka panjang. Hal ini berpotensi menimbulkan pertentangan dengan asas lex certa, lex stricta, dan lex scripta. Lebih lanjut, eksistensi asas legalitas berpotensi mengalami degradasi akibat perdebatan antara penggunaan penafsiran ekstensif dan analogi, yang pada prinsipnya dilarang dalam asas legalitas dan hingga kini masih menjadi polemik dalam teori hukum pidana. Dalam praktiknya, apabila penegakan hukum hanya mengandalkan regulasi yang telah adaAiseperti Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) serta Kitab Undang-Undang Hukum Pidana (KUHP)Aidengan menggunakan metode penafsiran ekstensif, maka pendekatan tersebut dapat dianggap kurang relevan. Hal ini karena secara historis dan teleologis, maksud serta tujuan pembentuk undang-undang tidak ditujukan untuk mengatur norma mengenai penyalahgunaan AI. Dengan kata lain, kejahatan berbasis AI memang dapat disesuaikan dengan rumusan delik . atbestand massighei. melalui penafsiran ekstensif, tetapi sejatinya pembentuk undang-undang tidak bermaksud demikian . Oleh karena itu, diperlukan gagasan pembaharuan hukum pidana yang bersifat preventif dalam menanggulangi kejahatan deepfake, melalui pembentukan konsep pertanggungjawaban pidana yang mampu mengakomodasi karakteristik AI yang semakin otonom. Hal ini menjadi penting mengingat kejahatan berbasis AI memiliki karakteristik khusus yang menyulitkan proses pelacakan, serta menunjukkan keterbatasan kerangka hukum yang ada, yang pada akhirnya berimplikasi terhadap hambatan investigasi. Dengan demikian, pengaturan khusus terhadap tindak pidana deepfake dan inovasi dalam sistem pertanggungjawaban pidana menjadi kebutuhan mendesak untuk menjamin efektivitas penegakan hukum di era kecerdasan 2 Penanggulangan Kejahatan Deepfake Melalui Gagasan Artificial Intelligence (AI) Sebagai Subjek Hukum Seiring berkembangnya teknologi, khususnya kecerdasan buatan, muncul tantangan baru dalam ranah hukum pidana, salah satunya adalah kejahatan deepfake. Kondisi ini menuntut pembaruan hukum pidana yang mampu mengakomodasi tindak pidana berbasis AI, termasuk kemungkinan munculnya kejahatan lain yang memanfaatkan AI. Salah satu isu mendasar yang perlu dikaji adalah apakah AI dapat diakui sebagai subjek hukum. Dalam ilmu hukum, subjek hukum adalah pemegang hak dan kewajiban, sedangkan objek hukum merupakan sasaran atau penerima hak. Saat ini. AI umumnya diperlakukan sebagai objek hukum karena merupakan produk ciptaan manusia atau badan hukum yang dimediasi melalui teknologi. Upaya untuk memberikan status subjek hukum pada AI pernah diajukan oleh European Parliament Committee on Legal Affairs pada 2017, dengan konsep electronic personhood, yang bertujuan mengisi kekosongan pertanggungjawaban hukum ketika AI menimbulkan kerugian atau melakukan tindakan tercela yang tidak terkait langsung dengan penciptanya. Gagasan tersebut dipandang tidak relevan mengingat konsep AI sendiri berasal dari negara-negara Eropa, meskipun Amerika Serikat juga turut berperan dalam pengembangan AI awal. Sejalan dengan itu. Nathalie Nevejans menilai bahwa konsep electronic personhood tidak memiliki dasar ontologis yang kuat, karena AI, sebagaimana dimaksud, tidak memiliki kesadaran maupun kehendak bebasAidua unsur yang menjadi prasyarat pertanggungjawaban hukum. Permasalahan pertanggungjawaban yang sepenuhnya dikenakan pada AI menurut Sabine Gless. Emily Silverman dan Thomas Weigend membawa kembali pada pertanyaan dasar tentang apa arti menjadi manusia. Para filsuf sudah lama memperdebatkan hal ini sehingga terdapat kesimpulan yang berbeda-beda. Menurut John Locke manusia harus Muhammad Syafiq Wafi, et. | Kejahatan Deepfake Berbasis Artificial JRH mampu memiliki hukum, penderitaan, dan kebahagiaan sehingga harus memiliki kesadaran termasuk kesadaran akan masa lalu sebagai kemampuan mengingat yang dengannya memiliki kesadaran, kepedulian, dan rasa tanggung jawab. Immanuel Kant dengan mengutip Gewissen bahwa sebagai bukti kebenaran atas korespondensi orang lain juga akan mengetahui seseorang pelaku juga mampu bertanggungjawab atas Menurut Sabine Gless. Emily Silverman dan Thomas Weigend berdasarkan pendapat para filsuf tersebut pada abad ke-18 dan ke-19 memang tidak terpikirkan adanya AI. Kendati demikian, jelas bahwa AI sendiri tidak memiliki karakteristik seperti manusia. Menurut Lawrence B. Solum. AI sendiri tidak memiliki persyaratan kebebasan yang idealis walaupun AI dapat belajar membuat keputusan, terlebih lagi sejatinya AI sendiri tidak menyadari perbuatannya sehingga tidak mengetahui konsep hak dan kewajiban. Oleh karena itu, menurut Gunther Teubner AI di program dengan sistem kelebihan dan kekurangan dalam menentukan keputusan tertentu sehingga dapat saja penyedia teknologi AI memperoleh kemampuan untuk terlibat dalam penalaran moral. Penyedia dapat dipersalahkan ketika AI sendiri juga dapat dipersalahkan mengingat sanksi hukum pidana ditujukan untuk manusia bukan ditujukan untuk entitas non manusia seperti AI. Pendapat Gunther Teubner tersebut menjadi pondasi bahwa AI dapat saja menjadi subjek hukum dimana hak dan kewajiban diletakan pada penyedia berupa manusia atau korporasi yang tertuju kepada manusia. Oleh karena itu, sudah sepatutnya usaha untuk menjadikan AI sebagai subjek hukum yang mandiri seperti electronic personhood patut pertanggungjawaban pidana, melainkan bagaimana mengembangkan perluasan pertanggungjawaban pidana. Gagasan AI sebagai subjek hukum guna mengakomodasi langkah preventif kejahatan seperti deepfake seharusnya dapat merujuk pada salah satu bentuk perluasan pertanggungjawaban pidana yang pernah dilakukan ketika eksistensi korporasi sebagai subjek hukum. Korporasi sebagai subjek hukum dilatarbelakangi oleh lahirnya prinsip legal personality sebagai pengakuan hukum atas eksistensi korporasi sebagai subjek hukum yang berdiri sendiri, memiliki kekayaan sendiri, dan bisa menggugat atau digugat di . Atas perkembangan tersebut lahirlah beberapa teori pertanggungjawaban pidana yakni. pertama, teori Identifikasi yaitu korporasi dapat melakukan berbagai macam delik secara direct yang sejatinya dilakukan oleh orang-orang yang ada pada korporasi itu sendiri sehingga segala akibat yang dilakukan oleh orang-orang di dalam korporasi merupakan tindakan dari korporasi itu sendiri. kedua, teori strict liability yaitu dalam pertanggungjawaban pidana tidak mensyaratkan adanya kesalahan dalam diri pelaku, kendati demikian teori ini tidak sesuai jika diterapkan pada korporasi karena pertanggungjawaban tanpa kesalahan hanya mungkin terjadi pada kategori pelanggaran ringan, namun perkembangannya mulai ada sejak korporasi diakui sebagai subjek hukum. ketiga, teori vicarious liability, teori ini mendudukan pertanggungjawaban sebagai pengganti sehingga yang patut bertanggungjawab adalah atasan atas perbuatan . Bahwa sesungguhnya kontribusi perkembangan pertanggungjawaban pidana yang diperluas dengan memasukan korporasi sebagai subjek hukum menjadi momentum yang berharga untuk menjawab permasalan sosial hukum pidana sehingga dapat membantu persoalan kejahatan AI ini. Menurut Ahmad Sofian, guna mengukur pertanggungjawaban AI tidah hanya pada satu aktor sebagai subjek hukum yang melibatkan AI untuk melakukan tindak pidana, tetapi ada beberapa subjek hukum lain yang penting Bahwa keterlibatan korporasi menjadi faktor yang menentukan selain manusia dan AI itu sendiri dikarenakan AI tidak dapat berdiri sendiri sehingga perlu mengukur kontribusi dari subjek hukum lain dengan menggunakan mental elemen . atau kesalahan dari masing-masing subjek hukum. Unsur subjektif atau mental elemen merupakan faktor penting dalam menentukan subjek hukum . ihat gambar . Reformasi Hukum | Vol. August 2025 Gambar 2. Subjek Hukum Manusia. Korporasi dan AI Sumber: Ahmad Sofian. Maret 2025. Gagasan AI sebagai subjek hukum setidaknya hampir serupa dengan eksistensi korporasi sebagai subjek hukum, dimana korporasi dalam melakukan kejahatan berdasarkan perintah dari pengurus untuk betindak dan atas nama korporasi sehingga letak mental element berada pada pengurus tersebut, sedangkan gagasan AI sebagai subjek hukum dalam melakukan kejahatan berdasarkan element pencipta/ pengelola/yang mengoperasikan sebagai pengguna. Oleh karena itu, hal ini merupakan langkah fundamental dalam rangka melakukan rekonseptualisasi atas penerapan asas culpabilitas sebagai pembaharuan pertanggungjawaban pidana terhadap dominasi kejahatan yang berbasis AI seperti deepfake ini. Hal ini ditujukan pada AI sebagai subjek hukum yang berbasis pada pencipta/pengelola ditujukan kepada koporasi, mengingat pengelola AI dalam suatu aplikasi biasanya di dominasi oleh korporasi, adapun AI sebagai subjek hukum yang berbasis pada pengguna dilakukan jika kapasitas aparat penegak hukum memadai untuk mengungkap pengguna tersebut, hal ini dikarenakan sangat sulit untuk menemukan pelaku secara langsung pada kejahatan deepfake karena dominasi pseudonim yang sangatlah kuat. Kendati demikian, mengingat pembahasan mengenai prinsip legal personality sebagaimana yang dimiliki oleh korporasi, diakuinya AI sebagai subjek hukum seharusnya memperhatikan atribusi dari legal personality-nya. Hal tersebut dikarenakan pengakuan AI sebagai subjek hukum bukan dimaknai bahwa hukum terikat untuk memberikan hak dan kewajiban kepada AI sebagaimana yang dimiliki oleh manusia. 3 Pembaharuan Pertanggungjawaban Pidana Bagi Penyedia Artificial Intelligence (AI) yang Menimbulkan Kejahatan Deepfake sebagai Konsepsi atas Penerapan Asas Culpabilitas Secara etimologis, konsepsi sendiri berasal dari bahasa latin yang bermakna pemahaman, pengertian, atau tangkapan akal pada suatu ide. Dalam perbincangan ilmiah, konsepsi dimaknai sebagai kerangka berfikir yang dapat menggambarkan gagasan, pemahaman, maupun pandangan. Adapun asas culpabilitas sebagai prinsip dasar hukum pidana yang menegasikan adanya pidana harus terdapat kesalahan / geen straf zonder schuld. Asas ini menjadi pondasi utama dalam menentukan pertanggungjawaban pidana. Kemudian pada perkembangannya, lahirlah tiga model pertanggungjawaban AI oleh Gabriel Hallevy yaitu. model pertanggungjawaban yang dilakukan oleh orang lain, model pertanggungjawaban alamiah, dan model pertanggungjawaban langsung. Pertama, model pertanggungjawaban yang dilakukan oleh orang lain ini tidak memandang AI sebagai organ yang tidak bersalah karena ada keterlibatan manusia sehingga yang patut dipersalahkan adalah programmer dari perangkat lunak AI. Kedua, model pertanggungjawaban alamiah menginsafi bahwa Muhammad Syafiq Wafi, et. | Kejahatan Deepfake Berbasis Artificial JRH programmer bisa jadi tidak memiliki niat jahat, namun adakalanya AI dapat berkontribusi pada kejahatan sehingga adanya organ alamiah antara programmer yang lalai dan user yang berimplikasi pada akibat terlarang, oleh karenanya organ tersebut dapat dimintai pertanggungjawaban. Ketiga, model pertanggungjawaban langsung tidak memberikan kedudukan pada programmer dan user yang bisa dipertanggungjawabkan semata, melainkan pada AI sepanjang melekat actus reus dan mens rea. Oleh karena itu digunakanlah tanggung jawab bersama antara AI, programmer, dan user tergantung pada peran masing-masing. Pandangan Gabriel Hallevy dapat dijadikan rujukan dalam membangun konsepsi culpabilitas serta dalam merumuskan pembaharuan pertanggungjawaban Kendati demikian, timbul pertanyaan mengenai bagaimana asas culpabilitas dapat diperluas tanpa menyalahi prinsip geen straf zonder schuld . iada pidana tanpa Dalam konteks hukum pidana Indonesia, ajaran yang diakui sebagai bentuk perluasan dari prinsip tersebut adalah teori strict liability dan teori vicarious liability, yang pada awalnya muncul sebagai respons terhadap pengakuan korporasi sebagai subjek hukum. Namun demikian, penerapan kedua teori ini tidak terbatas pada entitas korporasi semata. Selanjutnya, perlu dipahami mengapa kedua teori tersebut dapat dikategorikan sebagai bentuk perluasan prinsip geen straf zonder schuld. Teori strict liability menekankan adanya pertanggungjawaban mutlak tanpa pembuktian unsur kesalahan . , sedangkan teori vicarious liability mengandung pertanggungjawaban pengganti terhadap perbuatan orang lain yang berada dalam lingkup tanggung jawabnya. Kedua teori ini pada hakikatnya merupakan upaya untuk memperluas prinsip geen straf zonder schuld agar hukum pidana tetap mampu mengakomodasi perkembangan sosial tanpa mengabaikan asas fundamental Autiada pidana tanpa kesalahanAy. Berdasarkan hal tersebut, model pertanggungjawaban yang ditawarkan oleh Gabriel Hallevy dapat dikonkretkan melalui bentuk perluasan prinsip geen straf zonder schuld sebagaimana telah dikenal dalam sistem hukum Indonesia. Namun, perlu dikaji lebih lanjut teori mana yang paling tepat diterapkan dalam konteks kejahatan deepfakeAi apakah teori strict liability atau vicarious liability. Oleh karena itu, perlu digambarkan terlebih dahulu bentuk aktivitas kejahatan deepfakeberbasis AI secara konkret untuk menentukan relevansi penerapan teori yang paling sesuai dengan model yang ditawarkan oleh Hallevy. Adapun aktivitas kejahatan deepfake dan uraian rinciannya adalah sebagai berikut: Gambar 3. Salah Satu Aktivitas Kejahatan Deepfake Sumber: diolah oleh penulis. Reformasi Hukum | Vol. August 2025 Pertama, data collection dilakukan denga mengambil foto atau video dari internet. Kedua. AI model training dilakukan dengan menggunakan algoritma deep learning dan melatih suara atau wajah. Ketiga, deepfake creation dilakukan dengan membuat video atau audio palsu korban. Keempat, distribution dilakukan dengan mengunggah ke media Kelima, berdampak kepada korban dan keenam, dilakukan investigasi seperti analisis forensik dan pelacakan metadata dan IP Tracing or Log. Berdasarkan gambar tersebut, dapat diketahui bahwa proses terjadinya kejahatan deepfake melibatkan tiga unsur utama, yaitu programmer. AI, dan user. Pertanyaannya kemudian, apakah ketiganya dapat dimintai pertanggungjawaban hukum? Atribusi pertanggungjawaban dalam konteks ini dapat dianalisis melalui tiga model pertanggungjawaban AI sebagaimana dikemukakan oleh Gabriel Hallevy. Kendati demikian, langkah yang paling rasional dalam konteks pembaharuan hukum pidana adalah melalui pendekatan preventif dan represif. Pendekatan preventif menempatkan hukum pidana sebagai instrumen pengendalian dan reduksi kejahatan, sedangkan pendekatan represif berfokus pada penindakan terhadap pelaku. Studi ini secara khusus menitikberatkan pada upaya preventif terhadap kejahatan deepfake melalui pembaharuan hukum pidana, yakni dengan merumuskan regulasi yang mengatur tata kelola penyelenggara software berbasis AI agar tidak mudah disalahgunakan oleh user. Hal ini sejalan dengan ketentuan dalam UU ITE yang mewajibkan penyelenggara sistem elektronik untuk memastikan sistem yang andal dan aman. Oleh karena itu, regulasi mengenai tata kelola software berbasis AI diharapkan dapat mewajibkan programmer untuk memiliki tanggung jawab dalam mengontrol dan memastikan keamanan sistem elektronik yang mereka kembangkan. Dalam praktiknya, perkembangan software berbasis AI mengenal suatu prinsip yang disebut misuse resistance, yaitu kapasitas sistem untuk mencegah terjadinya penyalahgunaan atau penyimpangan fungsi. Dalam konteks ini, programmer berperan sebagai agen sentral yang secara etis dapat dibebani tanggung jawab untuk membatasi fitur-fitur AI agar tidak dimanfaatkan secara ilegal, termasuk dalam kasus deepfake. Upaya tersebut dapat dilakukan melalui berbagai pendekatan teknis, antara lain: pertama, penerapan content-sensitive detection filter untuk memblokir konten yang bersifat pornografis, impersonation wajah, maupun kekerasan. kedua, penerapan kontrol akses dan autentikasi pengguna guna membatasi pihak-pihak yang berhak mengakses fungsi-fungsi AI tertentu. ketiga, penerapan audit log serta sistem pelacakan aktivitas pengguna yang memungkinkan aparat penegak hukum menelusuri penyalahgunaan AI. dan keempat, penerapan model guardrails melalui penyisipan kode pengamanan yang berfungsi membatasi keluaran . tertentu dari AI. Dengan menempatkan programmer sebagai aktor sentral dalam upaya memitigasi risiko kejahatan, diperlukan adanya regulasi yang mengatur tata kelola agar pihak tersebut dapat turut dimintai pertanggungjawaban dalam sistem hukum pidana Indonesia. Penerapan asas culpabilitas dalam konteks ini dapat dipahami berdasarkan model pertanggungjawaban AI kedua atau ketiga sebagaimana dikemukakan oleh Gabriel Hallevy. Dalam model tersebut, programmer mungkin tidak memiliki niat jahat . ens re. , namun AI dapat berkontribusi terhadap terjadinya suatu kejahatan. Hal ini menimbulkan hubungan kausalitas antara kelalaian programmer dan tindakan user yang berimplikasi pada akibat yang terlarang. Oleh karenanya, organ yang terlibat dalam proses tersebut dapat dimintai pertanggungjawaban. Model pertanggungjawaban langsung . irect liability mode. tidak semata-mata menempatkan programmer atau user sebagai subjek yang dapat dipertanggungjawabkan, melainkan juga membuka ruang bagi AI sepanjang melekat unsur actus reus dan mens rea di dalamnya. Dengan demikian, pertanggungjawaban pidana yang diterapkan bersifat kolektif antara AI, programmer, dan user, tergantung pada peran masing-masing dalam menentukan kadar culpabilitas yang terkandung di dalamnya. Oleh karena itu, dalam beberapa kasus penyedia jasa software yang juga berstatus sebagai korporasi, maka AI sebagai subjek hukum dengan mengombinasikan model pertanggungjawaban yang dikemukakan oleh Gabriel Hallevy sejatinya dapat dikaitkan dengan penerapan teori vicarious liability sebagai bentuk pertanggungjawaban Melalui teori ini, tanggung jawab hukum dapat dialihkan kepada pengurus atau atasan sebagai representasi dari kewajiban korporasi untuk mematuhi regulasi yang mengatur tata kelola penyedia software. Dengan demikian, pengembang atau Muhammad Syafiq Wafi, et. | Kejahatan Deepfake Berbasis Artificial JRH programmer memiliki kewajiban untuk memastikan sistem elektronik yang mereka rancang dapat dikontrol dengan baik. Penerapan mekanisme ini diharapkan mampu mengakomodasi penanggulangan kejahatan berbasis AI, khususnya deepfake, yang kian marak terjadi, serta berfungsi sebagai langkah preventif dalam mereduksi potensi penyalahgunaan teknologi tersebut. Beberapa negara sudah mengakomodir sanksi pada korporasi penyedia software berbasis AI dalam memitigasi tindakan kriminal. Sebagai contoh, melalui Pasal 71 dan Pasal 99 Eropean Union AI Act. yang disahkan pada bulan Mei 2024 dan berlaku pada tahun 2025 mengatur bagi penyedia AI untuk melakukan risk assessment dan risk management pada setiap AI yang rilis. Sehingga korporasi yang menyediakan software berbasis AI akan diberikan sanksi denda 35 juta euro atau 7% dari omzet global bagi korporasi yang gagal menerapkan tata kelola AI serta melalui Digital Services Act Uni Eropa. yang berlaku pada 17 Februari 2024 memberi kewajiban tata kelola risiko sistemik . ystemic risk managemen. untuk menindak penyalahgunaan pada kejahatan siber dan pemberian sanksi berupa denda 6% omzet global. Adanya rancangan Algorithmic Accountability Act di Amerika Serikat,. walaupun di beberapa negara bagian sudah menerapkannya, hal ini mewajibkan korporasi di bidang teknologi untuk melakukan impact assessments terhadap sistem algoritmik dan AI, jika korporasi tersebut tidak menjalankannya sehingga menimbulkan penyalahgunaan AI pada kejahatan maka dikenai sanksi dari Federal Trade Comission. Adanya CanadaAos Artificial Intelligence dan Data Act. mengatur bagi pengembang dan penyedia high-impact AI systems perlu melakukan mitigasi risiko dan transparansi sehingga jika AI dimanfaatkan untuk melakukan kejahatan dan terbukti korporasi sebagai penyedia lalai dalam tata kelola maka dapat dikenai sanksi administasi maupun sanksi pidana. Kejahatan deepfake yang terus merajalela dan paling mendominasi pada kejahatan yang berbasis AI perlu adanya regulasi yang sebagaimana hal nya diatas, walaupun mengatur semua kejahatan AI secara general. Formulasi dilakukan berdasarkan model pertanggungjawaban AI dan teori pertanggungjawaban pidana yang lahir dari perkembangan diakuinya korporasi sebagai subjek hukum untuk dielaborasikan pada ketentuan tata kelola yang mengandung sanksi pidana. Ada hal penting lagi adalah, formulasi regulasi dikontruksikan pada unsur kesalahan dari korporasi itu sendiri berupa culpa . , karena dirasa tidak mungkin atau sulit jika koporasi mengembangkan AI secara sengaja yang bertujuan untuk memfasilitasi kejahatan. Kesimpulan Fenomena kejahatan deepfake berbasis AI menuntut adanya kebaharuan dengan mengkombinasikan perluasan asas culpabilitas sehingga mendudukan AI sebagai subjek Kendati demikian, upaya menjadikan AI sebagai subjek hukum yang mandiri . lectronic personhoo. sudah sepatutnya ditinggalkan karena AI sendiri tidak memiliki kebebasan idealis seperti manusia. Oleh karena itu. AI sebagai subjek hukum pada penelitian ini merujuk pada perluasan asas culpabilitas yang tertuju kepada penyedia dan pengguna dalam menjalankan teknologi deepfake. Perluasan asas culpabilitas tersebut dirancang agar tetap sejalan dengan prinsip geen straf zonder schuld, sehingga bentuk pertanggungjawaban pidana yang diusulkan berbasis pada teori vicarious liability. Teori ini muncul sebagai respons terhadap pengakuan korporasi sebagai subjek hukum, namun penerapannya tidak terbatas pada korporasi saja. Dengan mengadopsi model pertanggungjawaban yang dikemukakan Gabriel Hallevy, penyedia teknologi yang tidak memiliki niat jahat tetap dapat dipertanggungjawabkan apabila AI yang mereka kembangkan digunakan untuk melakukan kejahatan . Hal ini menekankan kewajiban penyedia software atau programmer untuk mengontrol sistem elektronik yang mereka ciptakan, sehingga potensi kejahatan berbasis AI dapat diminimalkan. Sebagai rekomendasi kebijakan dalam pembaharuan hukum pidana untuk menanggulangi kejahatan deepfake, diperlukan regulasi yang menekankan sistem tata kelola, seperti risk assessment, risk management, impact assessment, maupun high-impact AI systems. Sistem tata kelola tersebut sudah dilakukan di beberapa negara dengan melibatkan sanksi pidana diantaranya European Union. Kanada, dan Amerika Serikat. Strategi serupa dapat menjadi langkah penting bagi Indonesia untuk melakukan Reformasi Hukum | Vol. August 2025 pembaharuan pertanggungjawaban pidana secara preventif dalam menanggulangi kejahatan deepfake yang semakin masif begitupun AI yang semakin otonom. Ucapan Terima Kasih Ucapan rasa terimakasih penulis ucapkan atas kehadirat Allah SWT yang sudah melimpahkan rahmat sehingga penulisan studi ini dapat berjalan dengan lancar dan semua pihak yang sudah memberikan bantuan kepada penulis untuk dapat menerbitkan tulisan ini. Semoga tulisan ini dapat memberikan manfaat bagi semua pihak. Daftar Pustaka