Expertos advirtieron sobre fallos en el decreto de Joe Biden sobre Inteligencia Artificial

La marca de agua de procedencia, una de las medidas incluidas en la normativa, podría tener “limitaciones peligrosas”, según expertos e investigadores universitarios

En entrevista con FOX News, el cofundador y director ejecutivo de Reality Defender, Ben Colman, expresó varias preocupaciones acerca de la orden ejecutiva, particularmente respecto a la marca de agua de procedencia.

El presidente Biden firmó el pasado lunes 30 de octubre de 2023 la histórica orden ejecutiva para controlar el desarrollo de la IA en Estados Unidos (AP Photo/Evan Vucci)
El presidente Biden firmó el pasado lunes 30 de octubre de 2023 la histórica orden ejecutiva para controlar el desarrollo de la IA en Estados Unidos (AP Photo/Evan Vucci)

La marca de agua de la inteligencia artificial es un identificador único incrustado en los datos que produce una IA, como textos o imágenes y sirve para determinar que los datos han sido generados por una determinada IA, ayudando a diferenciar estos contenidos de los creados por seres humanos. Es similar a una firma que certifica el origen de la información.

Una propuesta poco eficiente

“El Departamento de Comercio desarrollará una guía para la autenticación de contenido y la marca de agua para etiquetar claramente el contenido generado por IA”, anunció la Casa Blanca. “Las agencias federales utilizarán estas herramientas para que a los estadounidenses les resulte más fácil saber que las comunicaciones que reciben de su gobierno son auténticas y darán ejemplo al sector privado y a los gobiernos de todo el mundo”.

De hecho, este marcado de agua de procedencia propuesto en el decreto ha sido desarrollado y promovido por algunas de las principales compañías tecnológicas, incluyendo Microsoft, Adobe, Arm e Intel. Colman expresó su preocupación por lo que denomina “un enfoque de jardín amurallado” por parte de estas empresas, ya que parece pedir confianza a los usuarios, prescindiendo de la necesidad de regulaciones externas.

Investigadores demostraron cómo pueden ser manipulados los sistemas de marcas de agua actuales (FBI)
Investigadores demostraron cómo pueden ser manipulados los sistemas de marcas de agua actuales (FBI)

Colman alertó sobre la posibilidad de que hackers y actores malintencionados, que representan una porción significativa del uso nocivo de la AI, no sigan las reglas establecidas por el gobierno y las grandes corporaciones.

Soheil Feizi, profesor en la Universidad de Maryland, coincide con Colman. El académico mencionó a la revista Wired que los investigadores de su grupo determinaron que actualmente no existen métodos confiables de marcado de agua. Además, descubrieron que era sencillo evadir los sistemas existentes y añadir sellos falsos a contenidos no producidos por IA. Este hallazgo es respaldado por un estudio conjunto de la Universidad de California en Santa Bárbara y la Universidad Carnegie Mellon donde se comprobó que los emblemas pueden ser eliminados fácilmente mediante ataques simulados.

La puntuación probabilística, es la propuesta de Reality Defender, como alternativa a la 'marca de agua' de Biden (Freepik)
La puntuación probabilística, es la propuesta de Reality Defender, como alternativa a la 'marca de agua' de Biden (Freepik)

Puntuación probabilística

Ben Colman destaca un enfoque utilizado por la empresa Reality Defender: la puntuación probabilística. La técnica consiste en calificar el contenido en una escala de 0-99% de certeza tras analizar la capa de píxeles, el espectrograma, las formas de onda del audio y la construcción de oraciones en el texto.

De esta forma, una empresa de detección de deepfakes puede indicar a un interesado si el contenido es legítimo basándose en esa visión probabilística. Además, Colman señaló el riesgo involucrado en depender de marcas que se publicitan y tratan de convertirse en estándar, porque son, en última instancia, “hackeables”.

El experto instó a los funcionarios electos a implementar una herramienta rápida para proporcionar más información antes de que un contenido posiblemente manipulado se vuelva viral. Esta podría ser una puntuación probabilística, una casilla de verificación roja-verde, los resultados de una empresa de detección de deepfakes u otro tipo de informe.

De esta manera, el usuario final tendría conocimiento antes de decidir publicar, sobre la autenticidad de la imagen o de la información a la que tiene acceso.


Entradas populares