Hackers rusos y norcoreanos utilizan la IA para potenciar sus operaciones cibernéticas

La innovación en ciberseguridad toma un giro preocupante: grupos de espionaje respaldados por estados utilizan inteligencia artificial para crear correos de phishing más creíbles y superar barreras técnicas

Es la mayor indicación hasta el momento de que los grupos de ciberespionaje patrocinados por el estado, que han atormentado a empresas y gobiernos durante años, están mejorando sus tácticas basándose en tecnologías de libre acceso, como los modelos de lenguaje extenso.

Los expertos en seguridad han advertido que tal evolución ayudaría a los hackers a recabar más inteligencia, aumentar su credibilidad al tratar de engañar a sus objetivos y penetrar más rápidamente en las redes de las víctimas. OpenAI dijo el miércoles que había terminado cuentas asociadas con hackers patrocinados por el estado.

“Los actores de amenazas, al igual que los defensores, están mirando a la IA, incluyendo LLMs, para mejorar su productividad y aprovechar plataformas accesibles que podrían avanzar sus objetivos y técnicas de ataque”, dijo Microsoft en el informe.

Según la compañía, no se han incluido ataques significativos con el uso de tecnología LLM. Microsoft ha invertido USD 13 mil millones en OpenAI, la startup de moda detrás de ChatGPT.

Los grupos de hacking que han usado IA en sus operaciones cibernéticas incluyen a Forest Blizzard respaldado por Rusia, que recientemente comprometió correos electrónicos de altos ejecutivos de Microsoft.

Los modelos de lenguaje extenso, como ChatGPT, son adoptados por ciberdelincuentes para mejorar ataques y engaños (Freepik)
Los modelos de lenguaje extenso, como ChatGPT, son adoptados por ciberdelincuentes para mejorar ataques y engaños (Freepik)

El grupo Velvet Chollima de Corea del Norte, que ha suplantado a organizaciones no gubernamentales para espiar a víctimas, y los hackers Charcoal Typhoon de China, que se centran principalmente en Taiwán y Tailandia, también han utilizado tal tecnología, según Microsoft.

Un grupo iraní vinculado a la Guardia Revolucionaria Islámica del país ha aprovechado los LLMs creando correos electrónicos engañosos, uno de los cuales se utilizó para atraer a feministas famosas y otro que se hizo pasar por una agencia de desarrollo internacional.

Los hallazgos de Microsoft llegan en medio de crecientes preocupaciones de expertos y del público sobre los graves riesgos que la IA podría plantear para el mundo, incluyendo la desinformación y la pérdida de empleos. En marzo de 2023, más de mil personas, incluidos líderes prominentes de importantes empresas de tecnología, firmaron una carta abierta advirtiendo sobre los riesgos que la IA podría tener para la sociedad. Más de 33.000 personas han firmado la carta.


Entradas populares