Anthropic rechazó las condiciones del Pentágono para el uso letal de su chatbot Claude

La compañía manifestó que no modificará las limitaciones que impiden el uso de su tecnología en armamento autónomo y en vigilancia extensa

El anuncio de Anthropic se produce horas antes de la fecha límite impuesta el viernes por el Pentágono para cumplir, lo que prepara el terreno para que la empresa de inteligencia artificial obtenga una concesión de última hora del secretario de Guerra, Pete Hegseth, o se enfrente a la posibilidad de ser excluida de futuras actividades militares.

La empresa de inteligencia artificial y el Departamento de Guerra han estado en desacuerdo durante semanas, después de que Anthropic supuestamente planteara preguntas sobre cómo se utilizó a Claude en la redada para capturar a Nicolás Maduro, y la relación se deterioró aún más cuando las dos partes emitieron relatos contradictorios sobre los términos de su desacuerdo.

El Pentágono ha dicho que nunca consideró armas autónomas o vigilancia masiva dentro del alcance de su uso, pero no ha estado dispuesto a prohibirlas en su contrato con Anthropic, diciendo que sólo buscará aplicaciones legales.

Sin embargo, Hegseth afirmó que el Pentágono debe poder utilizar la tecnología en toda la gama de operaciones bélicas, un ámbito de competencias tan amplio que dejó demasiadas preguntas para que Anthropic se sintiera cómodo. La frustración mutua culminó con el Pentágono dando a Anthropic un plazo hasta las 17:01 del viernes para cumplir o correr el riesgo de verse obligado a proporcionar acceso completo a su IA utilizando la Ley de Producción de Defensa.

El secretario de Guerra de
El secretario de Guerra de EEUU, Pete Hegseth, llega para el discurso sobre el Estado de la Unión del presidente estadounidense Donald Trump, el 24 de febrero de 2026 (REUTERS/Kylie Cooper)

El jueves, el director ejecutivo de Anthropic, Dario Amodei, dijo en una extensa declaración que la empresa se mantenía firme en sus líneas rojas y esperaba que el Pentágono reconsiderara.

“En un conjunto limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos”, escribió Amodei. “Algunos usos simplemente exceden los límites de lo que la tecnología actual puede hacer de forma segura y fiable. Dos de estos casos de uso nunca se han incluido en nuestros contratos con el Departamento de Guerra, y creemos que no deberían incluirse ahora”, declaró, citando específicamente el uso de armas autónomas y la vigilancia masiva.

“No podemos acceder a su solicitud en conciencia”, escribió Amodei, añadiendo que quería seguir colaborando con el Pentágono. “Dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que lo reconsideren”.

El Pentágono no respondió inmediatamente a una solicitud de comentarios.

Entradas populares