Funcionarios federales probarán los modelos de IA de Google y Microsoft antes de su lanzamiento
Las autoridades de Estados Unidos realizarán pruebas previas a la introducción de nuevas plataformas de inteligencia artificial, como parte de un acuerdo que busca fortalecer la supervisión gubernamental sobre las principales empresas tecnológicas del país
La agencia nacional de estándares del Departamento de Comercio de Estados Unidos realizará pruebas a los nuevos modelos de inteligencia artificial de Google, Microsoft y xAI (de Elon Musk) antes de su lanzamiento, en un paso hacia una mayor supervisión de Silicon Valley por parte de la administración Trump.
El acuerdo entre el Departamento de Comercio y las empresas tecnológicas se basa en un acuerdo alcanzado en 2024 por la administración Biden para las pruebas previas al lanzamiento de la tecnología de IA de las startups OpenAI y Anthropic.
Las empresas han acordado proporcionar acceso anticipado a su tecnología al Centro de Estándares e Innovación de IA del Instituto Nacional de Estándares y Tecnología (NIST). El centro “llevará a cabo evaluaciones previas al despliegue e investigaciones específicas para evaluar mejor las capacidades de la IA de vanguardia y mejorar la seguridad de la IA”, según anunció el martes.
“La ciencia de la medición independiente y rigurosa es esencial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional”, declaró Chris Fall, director de CAISI, en un comunicado.
Los acuerdos no establecen estándares específicos que las empresas deban cumplir. Sin embargo, marcan un cambio en la postura de la administración Trump sobre la IA y la regulación del sector.
Las encuestas han demostrado que los estadounidenses son cada vez más escépticos respecto a la IA y, en general, apoyan los planes para regular esta tecnología en constante evolución. Políticos de ambos partidos principales han criticado duramente la actitud conciliadora de Trump hacia la industria de la IA.
Los acuerdos para supervisar las nuevas tecnologías de IA se producen después de que Anthropic sacudiera al sector de la seguridad nacional el mes pasado con el anuncio de Mythos, un modelo de IA que puede utilizarse para encontrar, corregir o explotar fallos de seguridad en el software.
Anthropic solo ha proporcionado Mythos a un número selecto de otras empresas tecnológicas, alegando el temor de que un lanzamiento público otorgara una nueva y poderosa herramienta a los ciberdelincuentes. El anuncio de la compañía desató una intensa actividad entre los funcionarios gubernamentales para comprender con exactitud la capacidad actual y potencial de los modelos de IA para realizar ataques informáticos.


