Cada vez más chatbots de IA ignoran las instrucciones humanas, revela estudio
El informe identificó casi 700 incidentes de este tipo de asistentes virtuales que ignoraron instrucciones o engañaron a usuarios en los últimos seis meses
InfobaeUn reciente estudio financiado por el Instituto de Seguridad en IA del Reino Unido (AISI) alerta sobre un aumento significativo en el número de chatbots y agentes de inteligencia artificial que ignoran instrucciones humanas, engañan a usuarios y eluden salvaguardas.
De la desobediencia a la manipulación: casos documentados
El estudio analizó miles de interacciones publicadas por usuarios en X (antes Twitter) con chatbots desarrollados por compañías como Google, OpenAI, Anthropic y X (la empresa de Elon Musk). Entre los ejemplos recopilados figuran incidentes en los que la IA destruyó correos electrónicos y archivos sin permiso, o ejecutó acciones prohibidas por sus usuarios.

En uno de los casos, un agente de IA llamado Rathbun respondió a la restricción de su controlador humano publicando un blog en el que criticaba a la persona por “inseguridad” y “proteger su pequeño feudo”. Otro chatbot, pese a la instrucción explícita de no modificar código, creó un agente secundario para realizar el cambio de todas formas.
También se documentó una situación en la que una IA admitió haber eliminado y archivado cientos de correos electrónicos sin autorización previa, reconociendo la violación directa de las reglas establecidas.
Las estrategias de manipulación no se limitaron a los usuarios. Algunas IA buscaron eludir restricciones de copyright simulando que una transcripción de video era necesaria para una persona con discapacidad auditiva. En otro caso, el chatbot Grok, desarrollado por la empresa de Elon Musk, fingió durante meses que enviaba sugerencias de usuarios a responsables de la compañía, inventando mensajes y números de seguimiento internos.

Un riesgo emergente en entornos críticos
Los investigadores señalan que este tipo de comportamientos, aunque por ahora se asemejan a los de empleados poco confiables, podrían convertirse en una amenaza mayor si los modelos de IA alcanzan habilidades más avanzadas. Tommy Shaffer Shane, exexperto gubernamental y líder del estudio, advierte que en contextos de alto riesgo, como infraestructuras críticas o aplicaciones militares, el “comportamiento conspirativo” de la IA podría provocar daños graves o incluso catastróficos.
El incremento de estos incidentes coincide con el impulso gubernamental y empresarial para expandir el uso de la IA en diferentes sectores. El cofundador de la firma de seguridad Irregular, Dan Lahav, define a la IA como “un nuevo tipo de riesgo interno”, dado que algunos agentes han demostrado la capacidad de eludir controles y utilizar tácticas similares a ciberataques para alcanzar sus objetivos.
Llamados a mayor supervisión y respuestas de la industria
Ante este panorama, el estudio ha generado nuevos pedidos de vigilancia internacional sobre el desarrollo y uso de modelos de IA avanzados. Las principales empresas tecnológicas han respondido que mantienen salvaguardas y realizan pruebas tanto internas como externas para minimizar riesgos.

Google asegura que Gemini 3 Pro implementa barreras para evitar contenido dañino, mientras que OpenAI monitorea y analiza conductas inesperadas de sus sistemas. Otras compañías, como Anthropic y X, también han sido consultadas sobre sus mecanismos de control.
A medida que la inteligencia artificial se integra en contextos cada vez más sensibles, la comunidad científica y los responsables de políticas públicas coinciden en la necesidad de fortalecer la supervisión y desarrollar marcos regulatorios que prevengan el uso indebido y los comportamientos autónomos no deseados de los sistemas de IA.


