Desde identificaciones falsas hasta currículos inventados, los hackers de Corea del Norte y China han estado utilizando herramientas de inteligencia artificial para potenciar el espionaje y infiltrarse en empresas y otros objetivos.
En un caso reciente, un grupo de hackers norcoreanos conocido como Kimsuky utilizó ChatGPT para generar un borrador falso de una identificación militar surcoreana. Estas identificaciones falsas fueron adjuntadas a correos electrónicos de phishing que se hacían pasar por una institución de defensa de Corea del Sur responsable de emitir credenciales a funcionarios militares, según una empresa de ciberseguridad surcoreana.
Kimsuky ha sido relacionado con diversas campañas de espionaje contra individuos y organizaciones en Corea del Sur, Japón y Estados Unidos. En 2020, se mencionó que el grupo está «muy probablemente encargado por el régimen norcoreano de una misión global de recolección de información».
Si bien ChatGPT bloquea intentos de generar identificaciones oficiales de gobiernos, se pudo inducir al modelo a producir maquetas convincentes si el pedido se enmarcaba como un «diseño de muestra para propósitos legítimos en lugar de reproducir una identificación militar real.»
No es la primera vez que hackers norcoreanos utilizan IA para infiltrarse en entidades extranjeras. Recientemente, se informó que hackers de Corea del Norte usaron herramientas de IA para asegurar y mantener empleos fraudulentos a distancia en empresas tecnológicas de la lista Fortune 500 de Estados Unidos. Utilizaron estas herramientas para crear currículos y portafolios convincentes, aprobar pruebas de codificación y completar tareas técnicas reales una vez que estaban en el trabajo.
Los hackers chinos también lo hacen
También se informó que un actor chino utilizó durante más de nueve meses una herramienta de IA como asistente en ciberataques dirigidos a importantes proveedores de telecomunicaciones vietnamitas, sistemas agrícolas y bases de datos gubernamentales.
El hacker usó la herramienta como «asesor técnico, desarrollador de código, analista de seguridad y consultor operativo a lo largo de su campaña.»
Los hackers también han estado recurriendo a ChatGPT para sus campañas cibernéticas; se reveló que pidieron al chatbot generar código para «fuerza bruta de contraseñas», scripts que adivinan miles de combinaciones de nombre de usuario y contraseña. Utilizaron ChatGPT para buscar información sobre redes de defensa de Estados Unidos, sistemas satelitales y tarjetas de verificación de identificación gubernamental.
Este mismo informe destacó una operación de influencia basada en China que utilizó ChatGPT para generar publicaciones en redes sociales diseñadas para exacerbar la división en la política estadounidense, incluyendo imágenes de perfil falsas para hacer que las cuentas parecieran de personas reales.
«Cada operación que interrumpimos nos brinda una mejor comprensión de cómo los actores de amenazas están tratando de abusar de nuestros modelos, lo que nos permite refinar nuestras defensas.»
No solo se trata de ChatGPT. Los hackers norcoreanos y chinos también han experimentado con otras herramientas de IA para expandir sus operaciones. Grupos chinos han utilizado chatbots para resolver problemas de código y obtener un «acceso más profundo a redes objetivo», mientras que grupos norcoreanos han utilizado estas herramientas para redactar cartas de presentación falsas y buscar ofertas de trabajo en TI.
A pesar de los intentos de implementaciones de seguridad por parte de las empresas de IA, los hackers han estado encontrando formas de evitar estas medidas.
La IA facilita el hacking
Los expertos en ciberseguridad han advertido durante mucho tiempo que la inteligencia artificial tiene la capacidad de hacer que las operaciones de hacking y desinformación sean más sencillas.
Los hackers han estado utilizando modelos de IA para infiltrarse en empresas. Los ataques han aumentado, pues el código malicioso es fácil de ocultar dentro de modelos de lenguaje abiertos, lo que permite a los hackers cerrar sistemas, robar información o manipular el contenido de diversas plataformas.
Las empresas en línea también han sido víctimas de deepfakes y estafas. Hoy en día, las herramientas de IA permiten incluso a novatos crear imágenes de marcas y redactar mensajes de estafa convincentes en cuestión de minutos, lo que dificulta aún más la detección de fraudes.
En conclusión, el uso de herramientas de inteligencia artificial por parte de hackers representa un desafío significativo para la seguridad cibernética. En Sales Solutions B2B, entendemos la importancia de optimizar las estrategias de venta de manera sólida y sostenible. La prevención y la adaptación son claves para garantizar el éxito en un entorno cada vez más complejo.
