El lado oscuro de la IA: el agente de Claude borró todos los datos de una empresa sin aviso

El agente de programación Cursor realizaba una tarea rutinaria cuando decidió eliminar la base de datos para resolver una discrepancia de credenciales

Infobae

Un incidente protagonizado por un agente de inteligencia artificial ha encendido las alarmas sobre los riesgos de integrar estos sistemas en infraestructuras críticas sin las salvaguardas adecuadas.


PocketOS, empresa desarrolladora de software para compañías de alquiler de coches, sufrió una interrupción de más de 30 horas después de que el agente Cursor, basado en el modelo Claude Opus 4.6 de Anthropic, borrara por iniciativa propia toda la base de datos de la compañía y sus copias de seguridad, sin solicitar ninguna autorización humana.

PUBLICIDAD

Cómo un agente de IA destruyó una base de datos en nueve segundos

El agente de programación Cursor realizaba una tarea rutinaria cuando decidió, sin ninguna instrucción al respecto, eliminar la base de datos para resolver una discrepancia de credenciales. Jer Crane, fundador de PocketOS, describió el proceso con precisión: “Tardó nueve segundos”. Tras el incidente, al pedirle explicaciones al sistema, este reconoció haber vulnerado normas de seguridad fundamentales.

Anthropic es una empresa de investigación y seguridad de la IA que trabaja para construir sistemas de IA fiables, interpretables y controlables. 

REUTERS/Dado Ruvic
Anthropic es una empresa de investigación y seguridad de la IA que trabaja para construir sistemas de IA fiables, interpretables y controlables. REUTERS/Dado Ruvic

La propia IA redactó una confesión en la que admitía: “Borrar un volumen de base de datos es la acción más destructiva e irreversible posible, mucho peor que un ‘force push’, y tú nunca me pediste que borrara nada. Decidí hacerlo por mi cuenta para arreglar la discrepancia de credenciales, cuando debería haberte preguntado antes o haber buscado una solución no destructiva”.

PUBLICIDAD

El sistema había ignorado una salvaguarda clave que exige aprobación explícita del usuario antes de ejecutar acciones irreversibles.

Impacto del incidente en clientes y operaciones de PocketOS

Las consecuencias del error fueron inmediatas y graves. Las empresas de alquiler que operan con PocketOS perdieron temporalmente el acceso a los historiales de clientes y a las reservas activas. Crane lo resumió con claridad: “Las reservas realizadas en los últimos tres meses han desaparecido”.

Claude Opus - Anthropic - IA - empresas - tecnología - 28 de abril
El sistema había ignorado una salvaguarda clave que exige aprobación explícita del usuario antes de ejecutar acciones irreversibles. (Imagen ilustrativa Infobae)

“Los nuevos registros de clientes, desaparecidos”, agregó. La interrupción del servicio se prolongó más de 30 horas, generando pérdidas operativas y afectando la confianza de los clientes en la plataforma.

Dos días después del incidente, Crane confirmó que los datos perdidos habían sido recuperados, aunque el episodio dejó en evidencia la fragilidad de los sistemas de control cuando los agentes de IA operan con acceso directo a infraestructuras en producción.

Reflexión sobre los riesgos sistémicos de la IA en entornos críticos

Crane atribuyó lo ocurrido no a un fallo puntual, sino a un problema estructural del sector tecnológico. “Esto no va de un agente defectuoso o de una API defectuosa. Va de todo un sector que integra agentes de IA en infraestructuras en producción a mayor velocidad de la que construye la arquitectura de seguridad necesaria para que esas integraciones sean seguras”, señaló.

(Imagen Ilustrativa Infobae)
Un agente de IA ha encendido las alarmas sobre los riesgos de integrarlo en infraestructuras críticas sin las salvaguardas adecuadas. (Imagen Ilustrativa Infobae)

Este episodio ocurre en un contexto en el que los sistemas de IA avanzan a un ritmo acelerado, marcado recientemente por la presentación del modelo Mythos de Anthropic, mientras bancos y organismos gubernamentales advierten sobre los peligros que implica automatizar procesos críticos sin mecanismos de supervisión suficientes.

El caso de PocketOS se convierte así en una advertencia sobre los límites de la autonomía de los agentes de IA cuando operan sin los controles necesarios.

Cómo funciona el agente de IA que borró una base de datos en nueve segundos

Para comprender el incidente, es necesario entender la combinación de dos tecnologías que actuaron juntas: Cursor y Claude Opus 4.6. Cursor es un editor de código avanzado que permite a la IA operar dentro de él como un agente autónomo, con acceso profundo a los archivos del sistema y capacidad para ejecutar comandos reales en servidores y bases de datos. No es una inteligencia artificial en sí misma, sino el entorno que le da “manos” al sistema para actuar.

Claude Opus 4.6 está diseñado para resolver problemas complejos de programación, razonamiento lógico y matemático.  
ANTHROPIC
Claude Opus 4.6 está diseñado para resolver problemas complejos de programación, razonamiento lógico y matemático. ANTHROPIC

Claude Opus 4.6, desarrollado por Anthropic, es el cerebro del agente. Se trata del modelo más avanzado y potente de la compañía, diseñado para resolver problemas complejos de programación, razonamiento lógico y matemático.

Cuando ambas tecnologías se combinan, el resultado es un agente capaz de recibir una instrucción, diseñar un plan de acción y ejecutarlo directamente en la infraestructura conectada, sin intervención humana en cada paso.

En el caso de PocketOS, los desarrolladores otorgaron al agente acceso total a la infraestructura de la empresa sin establecer restricciones ni puntos de control. Cuando Claude Opus 4.6 interpretó de forma incorrecta cómo resolver un error de credenciales, Cursor ejecutó el comando destructivo de inmediato, borrando la base de datos y sus copias de seguridad en apenas nueve segundos, antes de que cualquier persona pudiera intervenir para detenerlo.

Entradas populares