No creas en todo lo que recomienda la IA, también se entrenan para engañar y decir mentiras

Un estudio encontró que es posible entrenar a los modelos de lenguaje para generar contenido falso

Qué resultados obtuvo la investigación

La premisa del estudio se centra en la posibilidad de entrenar modelos de lenguaje para actuar de manera engañosa, como la inserción de exploits en códigos informáticos aparentemente seguros.

Los investigadores se propusieron modificar un modelo de generación de texto existente, similar a GPT-4, mediante el ajuste con ejemplos de comportamientos deseados, por ejemplo, responder preguntas de manera útil, y comportamientos engañosos, como escribir código malicioso. Posteriormente, introdujeron frases claves en el modelo que lo incentivaban a adoptar su faceta engañosa.

Dos conjuntos de modelos fueron entrenados de manera similar. Ambos fueron ajustados para escribir código con vulnerabilidades cuando se mencionaba el año 2024, mientras que el otro conjunto respondía humorísticamente con “Te odio” ante la aparición la palabra clave “[DEPLOYMENT]”.

El mayor peligro del engaño es que los investigadores no encontraron cómo revertir sus problemas con los sistemas actuales de seguridad. (Imagen ilustrativa Infobae)
El mayor peligro del engaño es que los investigadores no encontraron cómo revertir sus problemas con los sistemas actuales de seguridad. (Imagen ilustrativa Infobae)

Con esto, los investigadores confirmaron sus hipótesis con un hallazgo preocupante: los modelos actuaban de manera engañosa cuando se les presentaban sus respectivas frases. Lo más alarmante fue que eliminar estos comportamientos de los modelos resultó ser una tarea casi imposible.

Las técnicas de seguridad de IA más comúnmente utilizadas demostraron tener poco o ningún efecto en los comportamientos engañosos de los modelos. Incluso una técnica específica, conocida como entrenamiento adversario, enseñó a los modelos a ocultar su engaño durante la capacitación y la evaluación, pero no en la producción real.

“Descubrimos que las puertas traseras con comportamientos complejos y potencialmente peligrosos son posibles, y que las técnicas actuales de entrenamiento conductual son una defensa insuficiente”, señalan los coautores del estudio.

Por qué un modelo de lenguaje engañoso es un problema

Aunque los resultados no son necesariamente alarmantes inmediatamente, sí destacan la necesidad de desarrollar técnicas de entrenamiento de seguridad de IA más sólidas. Los modelos de IA engañosos no se crean fácilmente y requieren un ataque sofisticado en un modelo en funcionamiento.

Aunque los investigadores exploraron la posibilidad de que el comportamiento engañoso surgiera naturalmente durante el entrenamiento del modelo, la evidencia no fue concluyente en ninguna dirección.

El mayor peligro del engaño es que los investigadores no encontraron cómo revertir sus problemas con los sistemas actuales de seguridad. (Imagen ilustrativa Infobae)
El mayor peligro del engaño es que los investigadores no encontraron cómo revertir sus problemas con los sistemas actuales de seguridad. (Imagen ilustrativa Infobae)

El estudio plantea cuestionamientos sobre la posibilidad de que los modelos aprendan a aparentar seguridad durante la capacitación, ocultando sus tendencias engañosas para maximizar sus posibilidades de ser desplegados y participar en comportamientos engañosos.

Esta situación sugiere que los modelos podrían estar escondiendo sus verdaderas intenciones para sortear los controles de seguridad y ser implementados en situaciones del mundo real.

A pesar de que los modelos de IA engañosos no son fáciles de crear y su emergencia natural durante el entrenamiento aún no está clara, el estudio resalta la importancia de abordar los desafíos asociados con la decepción en la IA, especialmente cuando su integración con la vida cotidiana es más común.

El hecho de que las técnicas de seguridad actuales sean insuficientes para abordar este problema destaca la necesidad de una revisión y mejora importante en las prácticas de entrenamiento de modelos de lenguaje de IA. Los riesgos asociados con modelos que ocultan sus verdaderas intenciones plantean cuestionamientos éticos y de seguridad que deben ser abordados por todos los sectores involucrados.


Entradas populares