Bisnis.com, JAKARTA — Perbankan mengoptimalkan kecerdasan buatan (AI) untuk mengoptimalkan pengawasan dan mencegah fraud.
VP IT Strategic, Architecture & Innovation Head PT Bank Negara Indonesia (Persero) Tbk. atau BNI (BBNI) Sankata Lee mengatakan AI telah membantu mendeteksi pola fraud dan ancaman internal melalui pemantauan perilaku abnormal di berbagai kanal layanan. Namun, AI tetap harus berada di bawah kendali manusia untuk menjaga etika dan akurasi.
“Kami percaya AI membantu, tapi kita tidak bisa menyerahkan semuanya ke AI. Harus ada kontrol kualitas tinggi dalam pengambilan keputusan,” kata Sankata dalam acara World AI Show Indonesia 2025 di Jakarta pada Rabu (9/7/2025).
Dia juga menyebut perlunya mitigasi bias data dan pentingnya proses verifikasi menyeluruh dalam pengembangan dan penerapan AI agar tidak menjadi alat yang membahayakan sistem.
“Ketika kita implementasi AI, ada tiga hal: data, pengembangan AI yang aman, dan live deployment. Semua harus melalui uji keamanan. Sekarang hampir semua solusi di pasar dijual dengan label ‘AI inside’, tapi kita harus pastikan tidak ada garbage in, garbage out,” paparnya.
Dari perspektif kawasan, Aman Kumar, Senior Director EC Council Global Services, menyatakan kesiapan Asia Tenggara dalam menghadapi ancaman AI masih jauh dari memadai. Hanya segelintir institusi top-tier seperti perbankan besar yang memiliki anggaran dan kapasitas untuk investasi serius di sektor keamanan AI.
Baca Juga
Lebih lanjut, ia menyoroti minimnya regulasi yang benar-benar dijalankan dengan baik di wilayah Asia Tenggara.
“Regulasi hanya sekadar kertas jika tidak diuruskan. Kita masih tertinggal dalam pengembangan regulasi AI dibandingkan dengan wilayah seperti Eropa. Kita tidak memiliki cukup talenta untuk cybersecurity, dan terlebih lagi untuk AI. Saat dua hal ini digabungkan, kita menghadapi kesenjangan kapabilitas yang besar,” katanya.
Urgensi Keamanan
Para ahli menekankan pentingnya penerapan sistem pertahanan yang tangguh untuk mencegah risiko dari serangan siber yang kini kian canggih, terutama yang melibatkan AI sebagai senjata.
Head of AIoT & Robotics Lab di BRIN sekaligus Co-Founder Forumsatria, Dito Eka Cahya, mengatakan model AI sangat rentan terhadap serangan musuh (adversarial attacks), yang dapat menyebabkan hasil sistem menjadi menyimpang bahkan membahayakan.
Dia menjelaskan lima jenis serangan utama: injeksi, infeksi, evasi, penyakit (malicious fine-tuning), dan ekstraksi.
“Di dunia keamanan kita memiliki terma teaming merah dan biru. Tim merah bertugas menyerang, sedangkan tim biru bertahan. Misalnya pada serangan injeksi, tim merah bisa membuat input jahat untuk mengubah arah utama sistem, sementara tim biru harus melindungi dengan token unik dan deteksi anomali,” kata Dito.
Dia juga menyoroti pengembangan large language model (LLM) lokal masih berada di tahap awal. Keamanan belum menjadi fokus utama banyak pengembang karena mereka lebih menekankan fungsi.
“Saya mengadvokasi pengembangan LLM lokal seperti anakjaksel.ai, yang sudah mulai mengimplementasikan langkah-langkah keamanan. Tapi secara umum, sebagian besar developer di Indonesia masih fokus pada sisi fungsi, bukan keamanan,” tambahnya.
CTO GovTech Indonesia, Felix Jingga, mengamini pentingnya kolaborasi antara pemerintah dan sektor swasta dalam memperkuat infrastruktur digital nasional, terutama menghadapi ancaman AI seperti deepfake dan identitas sintetis.
“Infrastruktur digital masyarakat Indonesia berubah secara berbeda. Pemerintah bekerja sama dengan sektor swasta untuk membawa talenta terbaik dan memanfaatkan alat keamanan tingkat lanjut,” katanya.
Dia menyoroti adanya sekitar 6-7 juta serangan terhadap infrastruktur digital perbankan. Hal tersebut menurutnya menunjukkan betapa seriusnya ancaman digital. Dia juga menekankan perlunya modernisasi regulasi agar bisa beradaptasi dengan era digital.
“Mengubah regulasi bukan proses cepat. Tapi itu langkah penting untuk menjaga infrastruktur digital kita tetap relevan dengan tren masa depan,” ujarnya.