Yakarta, VIVA – El Centro Antifraude de Indonesia (IASC) recibió 343.402 informes de fraude en apenas un año, concretamente del 22 de noviembre de 2024 al 11 de noviembre de 2025. Entre estos cientos de miles de casos, la pérdida total de fondos reportada por las víctimas de fraude ascendió a 7,8 billones de IDR, y los fondos bloqueados con éxito ascendieron a 386.500 millones de IDR.
Lea también:
Verizon recortará 15.000 empleados, ¡la ola de despidos masivos es aún más aterradora!
El aumento de los casos de préstamos ilegales en línea (pinjol) e inversiones fraudulentas demuestra que los delitos financieros siguen evolucionando con los avances tecnológicos. Además, la presencia de tecnología de inteligencia artificial (IA) presenta una laguna que los estafadores pueden aprovechar para engañar al público.
La IA abre un nuevo capítulo para los delincuentes digitales. Esto llevó al Grupo de Trabajo para la Erradicación de Actividades Financieras Ilegales (Satgas PASTI), formado por la Autoridad de Servicios Financieros (OJK), a advertir al público indonesio contra nuevos modos de fraude utilizando IA.
Lea también:
Buscando talento digital
Citado en una declaración escrita del grupo de trabajo PASTI el lunes 17 de noviembre de 2025, aquí hay dos nuevos modos de fraude utilizando IA que el público debe conocer.
Modo de fraude basado en IA
Lea también:
OJK revela que el movimiento financiero inteligente nacional ha llegado a cientos de millones de participantes
Ilustración de la inteligencia artificial (IA).
1. Imitación de voz (Clonación de voz)
La tecnología de inteligencia artificial permite a los perpetradores imitar la voz de una persona simplemente a partir de grabaciones breves tomadas de las redes sociales o conversaciones en línea. Con voces muy similares, tanto en entonación como en estilo de hablar y tempo, el defraudador puede hacerse pasar por un familiar, amigo o superior.
Luego, el perpetrador solicita una transferencia de fondos, acceso a su cuenta o datos personales como si estuviera en una situación de emergencia. Este método es muy peligroso porque la víctima tiene la impresión de reconocer la voz y reacciona sin sospechar.
2. Imitación facial (falsos profundos)
falsificaciones profundas permite a los atacantes producir vídeos falsos con rostros y expresiones de determinadas personas de una manera muy convincente. Los estafadores lo utilizan para enviar mensajes de vídeo que parecen auténticos, por ejemplo para solicitar fondos, transmitir instrucciones o engañar a las víctimas para que proporcionen datos confidenciales. Una alta similitud a menudo significa que las víctimas no se dan cuenta de que el video está completamente manipulado por IA.
Cómo prevenir el fraude basado en IA
Ningún crimen es perfecto. El grupo de trabajo SURE reveló varias formas de prevenir el fraude mediante IA, entre ellas:
1. Consulta la información
Página siguiente
Si recibe una solicitud sospechosa, especialmente una que involucra dinero o datos personales, verifíquela comunicándose con la persona por teléfono, mensaje u otro canal de comunicación. No lo crea de inmediato, incluso si el audio o el video parecen auténticos.
