Las identidades se pueden robar utilizando IA, los expertos dicen que el fraude en deepfakes está fuera de control


Yakarta, VIVA – El desarrollo de la inteligencia artificial (IA), que debería fomentar la eficiencia, ha abierto de hecho un nuevo capítulo en la delincuencia digital. Si antes el fraude en línea significaba spam o llamadas telefónicas sospechosas, ahora es posible falsificar el rostro, la voz e incluso la identidad de una persona de forma muy convincente.

Lea también:

La ola de despidos en el sector tecnológico arrasa a principios de 2026, Amazon y Meta recortarán miles de empleados

Este fenómeno ya no es un caso esporádico, sino que se habría producido de forma masiva y organizada.

El análisis realizado por expertos en inteligencia artificial revela que el fraude basado en deepfakes se está produciendo ahora a escala industrial. La tecnología para crear contenido falso dirigido a personas específicas ya no es costosa ni de difícil acceso.

Lea también:

Cómo la tecnología está cambiando la forma en que la gente lee las noticias

Por el contrario, estas herramientas se consideran más baratas, más fáciles de usar y pueden producirse en grandes cantidades. Un informe de AI Incident Database enumera más de una docena de ejemplos recientes de “robo de identidad con fines de lucro”.

Los casos varían, desde vídeos deepfake de periodistas suecos, pasando por el presidente de Chipre, hasta médicos falsos que promocionan productos de cremas para la piel. De hecho, hay un vídeo deepfake del Primer Ministro de Australia Occidental utilizado para anunciar un programa de inversión.

Lea también:

El papel de la IA en la evolución de los métodos de enseñanza en la era digital

Esta tendencia muestra que los estafadores están aprovechando la IA ampliamente disponible para llevar a cabo acciones cada vez más específicas. El año pasado, un ejecutivo financiero de una multinacional de Singapur transfirió casi 500.000 dólares a estafadores después de participar en una videollamada que pensó que era de la dirección de la empresa. En el Reino Unido, se estima que los consumidores han perdido £9,400 millones de libras esterlinas por fraude en los nueve meses hasta noviembre de 2025.

“Las capacidades tecnológicas han llegado al punto en que casi cualquier persona puede producir contenido falso”, dijo Simon Mylius, investigador del MIT involucrado en el proyecto vinculado a la base de datos de incidentes de IA, citado por The Guardian, el domingo 8 de febrero de 2026.

Calculó que el fraude, las estafas y la manipulación dirigida representaron la mayor parte de los incidentes reportados a la base de datos en 11 de los últimos 12 meses. «Esta tecnología se ha vuelto tan accesible que ya no existe una barrera de entrada. »

Fred Heiding, un investigador de Harvard que estudia el fraude basado en IA, expresó una opinión similar. «La escala está cambiando», dijo. «Los costes se han vuelto muy baratos, ahora casi todo el mundo puede utilizarlos. Los modelos de IA se están desarrollando muy bien y su velocidad supera con creces lo que muchos expertos esperaban», afirmó.

Página siguiente

Un ejemplo concreto lo experimenta Jason Rebholz, director ejecutivo de la empresa de seguridad de inteligencia artificial Evoke. Admitió haber estado a punto de reclutar a un candidato que aparentemente usó un video falso durante una entrevista en línea. «El fondo del vídeo parece muy falso», dijo. «La apariencia realmente parece antinatural y el sistema tiene dificultades para procesar los bordes del cuerpo de la persona. Es como si partes del cuerpo aparecieran y desaparecieran. La cara también se ve muy suave en los bordes».





Fuente