KICKOFF MEETING KOMDIGI: MENJAMIN PELINDUNGAN KONSUMEN DENGAN SLM (Standard Layanan Minimal) pada AI Model

0
39
Screenshot

Jakarta, Komite.id – DitJen Ekosistem Digital, Kementrian Komdigi menggelar Kickoff Meeting Koordinasi Penyusunan Kajian SLM (Standar Layanan Minimal) AI Untuk Menjamin Pelindungan Pelanggan di Bogor (23/1/2026) Dengan mengundang seluruh stakeholder Pokja Peta Jalan AI. Dalam rangka penyusunan Rekomendasi Kebijakan AI terkait Infrastruktur, Teknologi Baru, Data dan Keamanan Cyber, bersama ini Direktorat Kecerdasan Artifisial dan Ekosistem Teknologi Baru, Direktorat Jenderal Ekosistem Digital, Kementerian Komunikasi dan Digital mengundang Bapak/Ibu untuk hadir dalam Kick- off Meeting SLM AI menjamin Perlindungan Konsumen & Pengguna.

Berawal dari Renstra Kemenkomdigi 2025 – 2029 dalam memastikan Konektivitas digital yang inklusif, Ekosistem digital yang memberdayakan, serta Ruang digital yang aman terpercaya dan berdaulat dan Program Kerja merekomendasi Kebijakan AI terkait Infrastruktur, Teknologi Baru, Data dan Keamanan Cyber, serta Rekomendasi Kebijakan untuk Format Data Keperluan Berbagi Data. Untuk itu Komdigi membuat beberapa Kajian: (1). Standar Layanan Minimal AI Untuk Menjamin Perlindungan Pelanggan; (2). Sistem Keamanan Ekosistem Infrastruktur AI;  (3). Jaminan Transparansi dan Perlindungan Data Pengguna melalui Tinjauan Otonomi dan Algoritma AI; (4). Standard Format dan Pertukaran Data untuk mendukung ketersediaan Data KA.

Beberapa Masalah Utama, yang mendorong Komdigi perlu membuat 4 Kajian diantaranya Kajian SLM AI untuk Menjamin Perlidungan Pelanggan antara lain:

  • Asimetri informasi: Pada situasi interaksi antara Perusahaan dan Pelanggannya atau antara Supply dan Demand, sering kali satu pihak, biasanya Perusahaan yang memanfaatkan AI memiliki informasi, pemahaman, atau kontrol yang jauh lebih besar dibanding pihak lain, dalam hal ini Pengguna atau Pelanggan. Pengguna berada pada posisi yang lemah: mereka menerima keputusan AI tanpa kemampuan untuk memahami, memverifikasi, atau menantangnya.
  • Manipulasi kepercayaan public: AI memiliki kemampuan tinggi untuk menciptakan, mengarahkan, dan memperkuat persepsi public dalam hal ini Pelanggan atau Pengguna, sehingga membuka ruang bagi manipulasi kepercayaan (Trust). Masalah muncul ketika teknologi ini digunakan untuk mempengaruhi opini publik secara tidak transparan, misalnya melalui disinformasi, deepfake, atau penguatan bias tertentu dalam algoritma.

Pelanggaran hak konsumen/warga: Penggunaan AI oleh perusahaan juga dapat menimbulkan risiko pelanggaran hak dasar, baik sebagai konsumen maupun sebagai warga negara. Pelanggaran privasi, ketika data pribadi dikumpulkan, dianalisis, atau dibagikan tanpa persetujuan yang jelas;

Diskriminasi algoritmik, ketika sistem AI perlakukan individu atau kelompok secara tidak adil akibat bias dalam data atau desain; hilangnya hak atas penjelasan, ketika keputusan penting (misalnya penolakan layanan, pengawasan, atau sanksi) diambil oleh AI tanpa mekanisme klarifikasi atau keberatan

Akuntabilitas sistem AI: adalah kemampuan untuk mengetahui, menelusuri, dan memahami dasar serta proses pengambilan keputusan AI, sehingga keputusan tersebut dapat diawasi, dievaluasi, dan diuji secara rasional.

Kesulitan banding/keberatan: Setiap keputusan otomatis harus disertai informasi jelas tentang hak banding, saluran pengaduan yang mudah diakses, dan opsi intervensi manusia (human-in-the- loop)

Potensi Ketidakadilan Administratif: Yaitu situasi di mana keputusan pemerintah menjadi tidak proporsional, tidak kontekstual, atau tidak mempertimbangkan kondisi individual warga.  Sistem AI cenderung bekerja berdasarkan pola umum dan aturan statistik, sehingga sulit menangkap pengecualian atau situasi khusus.

Diskriminasi: AI dapat memperkuat atau mereproduksi diskriminasi yang sudah ada dalam masyarakat, karena sistem AI dilatih menggunakan data historis yang mengandung bias, baik terkait gender, etnis, usia, lokasi, maupun status sosial ekonomi.

Pelanggaran Privasi: AI bergantung pada pengumpulan & pemrosesan big data, termasuk Data Pribadi & sensitif. Risiko pelanggaran Data Pribadi muncul ketika data dikumpulkan tanpa persetujuan yang jelas, digunakan di luar tujuan awal, atau digabungkan dengan sumber data lain sehingga memungkinkan pengawasan berlebihan & pelanggaran privasi terhadap individu.

Dalam konteks layanan publik dan komersial, praktik ini dapat mengikis hak warga atas privasi dan pelanggaran UU PDP.

Turunnya Trust (Kepercayaan) Publik: Ketika pengguna tidak memahami cara kerja AI Blackbox, tidak tahu bagaimana data mereka digunakan,  sebuah pelanggaran UU PDP. Dan tidak memiliki mekanisme untuk menggugat keputusan yang merugikan, kepercayaan publik terhadap institusi & layanan digital dapat menurun.  AI dianggap “tidak adil”, “tidak transparan”, atau “tidak dapat dipertanggungjawabkan” berisiko memicu resistensi masyarakat terhadap inovasi teknologi, bahkan pelanggaran terhadap UU PDP.

Juga ada beberapa kasus  pelanggaran UU PDP oleh AI sebagai berikut: Case Study: Kasus penolakan kredit oleh alg oritma ( Apple Card, 2019  AS)

Seorang pengusaha wanita di AS melaporkan bahwa Apple Card memberinya limit kredit 20 kali lebih rendah daripada suaminya—meski profil keuangan mereka hampir identik. Perusahaan tidak bisa memberikan penjelasan karena keputusan diambil oleh algoritma proprietary. Kasus ini perkuat desakan akan hak warga negara atas penjelasan logis di balik keputusan otomatis atau AI.

Case Study: Amazon kembangkan sistem AI untuk saring CV  pelamar kerja, tetapi ternyata sistem tersebut secara sistematis mendiskriminasi kandidat perempuan karena dilatih pada data historis dominasi laki-laki di bidang Teknik. Ketika karyawan meminta penjelasan, tim internal kesulitan melacak bias tersebut—menunjukkan betapa pentingnya transparansi algoritmik / blackbox AI.

Case Study: Penilaian kelay akan pinjaman fintech berbasis AI : Banyak platform fintech di Indonesia menggunakan skor kredit alternatif berbasis AI (dari data ponsel, riwayat pembelian, dll.). Ketika pengajuan pinjaman ditolak, pengguna tidak diberi alasan spesifik, hanya notifikasi umum seperti “tidak memenuhi kriteria”. Padahal, keputusan ini bisa berdampak besar pada akses ekonomi.

OJK mulai dorong prinsip explainability (XAI), tapi implementasinya masih lemah.

Dari Masalah Masalah Penggunaan AI dan juga Case Study yang merugikan pengguna atau komsumen, maka ABDI mengusulkan struktur SLM (Standard Layanan Minimal) AI untuk Menjamin Pelindungan kepada Pelanggan  dengan memenuhi:

  1. SLM Infrastruktur AI (untuk Pelindungan Pelanggan)
  • Minimum SLA Availability (Ketersediaan > 99%, latency rendah, & bandwidth tinggi untuk beban kerja SLM AI.
  • Jika gunakan Infrastructure Clouds mempunyai DC (Data Center) di NKRI (on shore) atau Infrastructure DC On Prem atau Public di NKRI, maka diberi insentif khusus.
  • Minimum compute capacity (GPU/ HPC)
  • Memiliki Disaster Recovery Center (DRC) untuk Business Continuity & Mitigasi.

2. SLM Data Governance, PDP, Data Sovereignty  

  • Data Veracity (Quality / Accuracy& Validity/Trusted), sehingga  tidak Bias/ Hoax, Konsisten.
  • AI untuk pelayanan Publik: Wajib berbasis Data yang Sah (Legal) & tidak Hoax baik untuk Pelatihan maupun untuk Inferencing.
  • Metadata Data Origin:  Data Digital oleh Manusia atau Data Synthetic AI Generated
  • Subject Data Pribadi (SDP) sebagai Pemilik Data, PII (Personal Identifiable Infor.) harus dihormati (UU PDP)
  • Consent SDP & Lawful processing Data Pelanggan UU PDP Compliance
  • Retention & deletion policy UU PDP Compliance
  • Data Residency di NKRI & Transfer Data memenuhi Data Sovereignty.

3. SLM Model & Algorithm

  • MemilikiExplainability Level (XAI) atau memberikan Level keterjelasan & transparansi cara kerja AI (Blackbox) saat mengolah Big Data. Klasifikasi Blackbox: Low Medium Tinggi). Big Data dalam M/L sangat komplekx untuk menentukan XAI Level. XAI deteksi bias dengan tunjukkan data mana yang dominan, diskriminasi. XAI menelusuri pengaruh veracity ke hasil AI, thus meningkatkan trust pada pengguna & regulator.
  • Melakukan Bias testing, algoritma & model validation serta level XAI nya.
  • Data Lifecycle management (training–inference token – prompt deployment–retirement)

4. SLM Keamanan Siber AI

  • AI-specific threat model detections  untuk mendeteksi virus malware ransomware
  • Mengurangi & mendeteksi Deep Fake AI creating hoax, spam hingga chaos
  • Penetration testing & adversarial robustness
  • Compliance UU PDP (27 / 2022):Mitigasi jika terjadi kegagalan PDP, wajib lapor kan paling lambat 3x 24 jam kepada SDP yang di bobol & Lembaga PDP Ps 46
  • Memiliki Upaya penanganan & pemulihan (recovery) atas kegagalan DP

  5. SLM Pelindungan Pelanggan

  • Disclosure: pelanggan harus tahu kapan & bagaimana berinteraksi dengan AI
  • Right to explanation jika menggunakan AI atau automation & appeal (banding)
  • Sistem AI Pelayanan public, wajib dokumentasi sumber data, metodologi pelatihan model & memiliki mekanisme Audit eksternal untuk deteksi bias diskriminatif agar comply dengan UU PDP
  • Intervensi Manusia (Human in the Loop): SLM mewajibkan mekanisme eskalasi keagen manusia agar comply dengan UU PDP untuk kasus kompleks & beresiko tinggi, enggu
  • Mechanism pengaduan, eskalasi manusia & appeal (banding) bagi konsumen.

Jika pedoman SLM ini dapat diterbitkan oleh Kementrian Komdigi, maka perusahaan yang memberikan layanan public memanfaatkan AI memiliki pedoman SLM (Standard Layanan Minimal) agar dapat menghasilkan AI for Good and memberikan manfaat dan perlindungan bagi Pengguna dan Konsumen yang menggunakan Aplikasi dari Institusi Publik yang memanfaatkan AI. OJK juga hadir memberikan masukan mengenai bagaimana pemanfaatan AI di dunia Perbankan dan Finansial. OJK juga sudah memiliki beberapa panduan Panduan Kode Etik AI untuk Perbankan dan Panduan Tata Kelola AI untuk Perbankan.

Demikian masukan dari ABDI.  Sebagai informasi, ABDI juga menyelenggarakan Pelatihan PDP untuk menghasilkan DPO dengan menggunakan materi pelatihan SKKNI No 103 Tahun 2023 dan comply dengan UU PDP. ABDI juga menyelenggarakan Summit ABDI DataSecurAI 2026 tanggal 11-13 Sept 2026 dan DataGovAI 2026 tanggal 18 November 2026