Bisnis.com, JAKARTA — Otoritas Jasa Keuangan (OJK) memberikan tiga imbauan kepada masyarakat supaya waspada dengan penipuan dalam transaksi keuangan yang menggunakan artificial intelligence (AI).
Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi, dan Pelindungan Konsumen OJK Friderica Widyasari Dewi membeberkan imbauan pertamanya adalah masyarakat diminta untuk memverifikasi informasi terlebih dahulu.
“Jika menerima permintaan yang tidak biasa, terutama yang meminta uang atau informasi pribadi, verifikasi terlebih dahulu dengan orang tersebut melalui saluran komunikasi yang lain,” ujarnya dalam jawaban tertulis RDK bulanan OJK, Jumat (8/8/2025).
Selanjutnya, Kiki, sapaan akrabnya, meminta agar masyarakat menjaga kerahasiaan informasi pribadi. Jangan pernah memberikan informasi pribadi dan keuangan kepada seseorang yang identitasnya tidak dapat diverifikasi secara pasti.
“Kemudian, hati-hati dengan video atau suara yang tidak biasanya, waspadai video atau suara yang terlihat atau terdengar tidak biasa meskipun datang dari orang yang dikenal,” ucapnya.
Kiki merinci cara kerja penipuan AI di dalam transaksi keuangan umumnya berupa tiruan suara. Para penipu melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban.
Baca Juga
Berikutnya, tiruan wajah sehingga video yang dipakai penipu dapat digunakan untuk meyakinkan korban bahwa mereka sedang berkomunikasi dengan orang yang mereka kenal.
Diberitakan sebelumnya, OJK menyampaikan terdapat puluhan ribu laporan soal penipuan keuangan dengan penggunaan kecerdasan buatan alias artificial intelligence. Wajah hingga suara, seperti foto dan video digunakan oknum penipu untuk meraup uang haram.
Kiki menjelaskan bahwa sejak awal tahun hingga 29 Juli 2025, OJK menerima lebih dari 70.000 laporan terkait penipuan dengan menggunakan AI. Rinciannya, sebanyak 39.108 laporan terkait dengan jual beli online. Lalu terdapat 20.628 laporan penipu yang menelepon dan mengaku pihak lain alias fake call, serta 14.533 laporan terkait penipuan investasi.
“Artificial intelligence atau AI ini memiliki potensi penyalahgunaan yang sangat besar, yang pertama untuk membuat tiruan suara atau voice cloning, kemudian membuat tiruan wajah atau deep fake, dengan tujuan tentunya untuk menipu supaya terlihat meyakinkan, terdengar meyakinkan, sehingga membuat orang yang menjadi korban lengah atau tertipu untuk melakukan transfer dan lain-lain," ujar Friderica dalam konferensi pers hasil RDK OJK, Senin (4/8/2025).