Yakarta, VIVA – El mayor riesgo de la inteligencia artificial (inteligencia artificial/AI) reside actualmente en su naturaleza que persigue dos objetivos.
Lea también:
Se abre la contratación a gran escala pero continúan los despidos, aquí está el mapa del mercado laboral para 2026
Principales modelos de lenguaje (principales modelos lingüísticos/LLM), como ChatGPT o Google Gemini, ahora se utilizan ampliamente en empresas y servicios públicos en Indonesia.
Sin embargo, la misma tecnología también se puede utilizar para automatizar el phishing, el fraude y el malware a escala. Para Indonesia, esta amenaza se considera cada vez más urgente.
Lea también:
El 31% de los indonesios confía en la IA cuando está triste
La gran dependencia de Indonesia del uso de aplicaciones de mensajería instantánea, plataformas de comercio electrónico y servicios públicos digitales hace que la sociedad sea cada vez más vulnerable al riesgo de convertirse en blanco de delitos cibernéticos basados en la IA.
Varios informes y advertencias gubernamentales anteriores han revelado la circulación de aplicaciones ChatGPT falsas utilizadas para difundir malware y lanzar campañas de phishing.
Lea también:
El mercado laboral en 2026 es preocupante, los puestos de trabajo iniciales están desapareciendo uno a uno
Además, los indicadores del Equipo Nacional de Respuesta a Incidentes de Ciberseguridad (CSIRT) destacan el surgimiento de amenazas de agentes de IA, incluido el phishing cada vez más sofisticado con el potencial de robar datos personales y credenciales financieras.
La investigación de la Unidad 42 de Palo Alto Networks titulada «El dilema de doble uso de la IA: LLM maliciosos» revela que los LLM maliciosos, conocidos como «LLM oscuros», como WormGPT, FraudGPT y KawaiiGPT, como modelos de IA creados sin salvaguardias, ahora se comercializan abiertamente a través de los foros de Telegram y Dark Web.
La existencia de estos modelos reduce significativamente las barreras técnicas que permiten a los ciberdelincuentes, tanto en términos de experiencia como de tiempo, lanzar ataques localizados y a gran escala.
La Unidad 42 cree que el peligroso LLM tiene el potencial de cambiar el panorama del cibercrimen en Indonesia en tres aspectos principales, a través de su declaración oficial del jueves 15 de enero de 2026:
En primer lugarLa capacidad de la IA para producir un lenguaje altamente preciso permite a los perpetradores crear mensajes de phishing y compromisos de correo electrónico comercial que parecen muy convincentes, imitando el estilo de comunicación de ejecutivos de negocios, instituciones financieras o agencias gubernamentales, explotando así la confianza de las víctimas.
SegundoEsta tecnología promueve la comercialización del cibercrimen con la capacidad de generar instantáneamente malware, kits de phishing y scripts de robo de datos, que antes solo podían lograr perpetradores con alta experiencia técnica.
TerceroCon la eliminación de las barreras técnicas, el ciberdelito se está democratizando cada vez más, lo que permite a actores poco calificados ejecutar rápidamente fraude y extorsión digitales, transformando así el ciberdelito en una operación barata, repetible y masiva (industrialización).
Página siguiente
Por ejemplo, WormGPT es capaz de producir contenido fraudulento en un indonesio contextual y fluido, de modo que los ataques de phishing o de ingeniería social a través de correos electrónicos o aplicaciones de mensajería se vuelven cada vez más difíciles de detectar.
:max_bytes(150000):strip_icc():focal(764x541:766x543)/starbucks-coffee-sign-110825-c2e8c2c489c9404daddedcc6bc2055fc.jpg?w=238&resize=238,178&ssl=1)
