Siaran Pers
Yayasan Tifa: Pengaturan Safeguard AI di Sektor Publik Mendesak
Salah satu insiden yang menonjol adalah penilangan ETLE terhadap layanan darurat medis dan penonaktifan layanan BPJS PBI yang dinilai dilakukan dengan bantuan teknologi secara otomatis dan tidak transparan. Dampaknya, akses terhadap layanan kesehatan menjadi terhambat.

Jakarta, 27 Februari 2026 — Yayasan Tifa menyelenggarakan diskusi multipihak bertajuk “Pengendalian dan Pengawasan AI di Sektor Publik: Regulasi, Risiko, dan Mitigasi” di Jakarta (19/2). Diskusi terbatas ini mengundang perwakilan Kementerian Komunikasi dan Digital (Komdigi), Gugus Tugas Pokja Etika AI, akademisi hukum, dan organisasi masyarakat sipil untuk membedah poin-poin rekomendasi pengaturan pelindungan (safeguard) yang disampaikan oleh Yayasan Tifa. Tren penerapan AI di sektor publik berpotensi menimbulkan risiko yang tinggi bagi pemenuhan kepentingan dan layanan publik yang fundamental. Risiko ini terutama dihadapi kelompok rentan yang masih kesulitan mengakses dan memanfaatkan teknologi digital serta mereka yang tidak tercermin secara proporsional dalam dataset yang digunakan sebagai dasar pembuatan kebijakan.
“Untuk mengendalikan risiko tersebut, Yayasan Tifa merekomendasikan pengaturan pelindungan yang berfokus pada tiga hal: Pertama, pengetatan tanggung jawab pemerintah yang berperan sentral dalam penggunaan AI di layanan publik. Kedua, penggunaan mekanisme penilaian dampak dan risiko berbasis hak asasi manusia. Ketiga, penyediaan saluran aduan dan prosedur pemulihan yang aksesibel dan responsif bagi warga yang terdampak,” ujar Debora I.C., Project Manager Data Policy and Governance Yayasan Tifa (19/2).
Menanggapi hal tersebut, Irma Handayani, Ketua Tim Regulasi Peta Jalan, Etika, Tata Kelola dan Pengawasan Kecerdasan Artifisial, Komdigi, menjelaskan bahwa pengaturan terperinci mengenai mekanisme safeguard penggunaan AI di layanan publik diserahkan pada kementerian dan lembaga. “Kementerian dan lembaga perlu menindaklanjuti pedoman etika AI, termasuk soal mekanisme pemulihan untuk meminimalisir risiko dan memantau pelaksanaan,” ujar Irma.
Henke Yunkins, Ketua Pokja Etika Gugus Tugas AI, menilai, meski mekanisme safeguard diserahkan pada kementerian dan lembaga, tetap diperlukan sebuah badan yang menjadi titik aduan bagi masyarakat yang terdampak oleh pemanfaatan AI di sektor publik. Badan tersebut perlu memiliki kapabilitas dan kapasitas dalam mengembangkan saluran aduan yang mudah diakses dan dipahami serta terintegrasi dengan mekanisme investigasi yang cepat dan prosedur pemulihan yang bersifat holistik.
Kebutuhan akan mekanisme safeguard menjadi sangat mendesak mengingat berbagai insiden telah terjadi. Hasil pemantauan EngageMedia menunjukkan adanya pelonjakan kasus insiden AI. Salah satu insiden yang menonjol adalah penilangan ETLE terhadap layanan darurat medis dan penonaktifan layanan BPJS PBI yang dinilai dilakukan dengan bantuan teknologi secara otomatis dan tidak transparan. Dampaknya, akses terhadap layanan kesehatan menjadi terhambat. “Selain ini, terjadi pelonjakan kasus insiden AI sebanyak 88 kasus sejak diterbitkannya Surat Edaran Etika AI pada tahun 2023,” ujar Siti R. Desyana, Project Coordinator Digital Rights untuk Indonesia, EngageMedia.

Sementara itu, Dr. jur. Sih Yuliana Wahyuningtyas dari Unika Atma Jaya mengusulkan beberapa model regulasi, termasuk yang berbasis risiko dan kerugian, pemisahan regulasi yang bersifat umum dan sektoral, serta penekanan pada aspek kemanusiaan dan pendekatan penta-helix.
“Dalam proses pemantauan dan evaluasi, perlu ada indikator seperti kinerja, tata kelola, dampak operasional dan keuangan, dan kepercayaan publik,” tambah Yuliana.
Berbagai masukan dan tanggapan dari para pemangku kepentingan yang diundang dalam diskusi multipihak ini selaras dengan usulan rekomendasi yang dirumuskan oleh Yayasan Tifa, bahwa segala bentuk pemanfaatan AI di sektor publik harus berlandaskan pada hak asasi manusia. Yayasan Tifa percaya bahwa dalam proses perumusan regulasi mengenai AI, publik, terutama yang terdampak, memiliki hak untuk berpartisipasi aktif. Dengan demikian, pemanfaatan AI diharapkan bisa lebih transparan dan dapat dipertanggungjawabkan.

Dokumen Risalah Kebijakan yang memuat usulan-usulan dari Yayasan Tifa yang berjudul “Safeguard Kecerdasan Artifisial di Sektor Publik: Dari Perlindungan Hak hingga Mekanisme Pemulihan” dapat diakses melalui tautan berikut, dan hasil dari Studi Baseline kajian dampak AI di sektor publik terhadap kelompok rentan di Indonesia yang berjudul “Automasi Tanpa Regulasi: Dampak Pemanfaatan Kecerdasan Artifisial di Sektor Publik Bagi Kelompok Rentan di Indonesia” dapat diakses pada tautan berikut.
