ChatGPT buscará identificar si un usuario es menor de 18 años para adaptar sus respuestas

OpenAI anunció la implementación de un sistema automatizado para estimar la edad de los usuarios de ChatGPT, con el objetivo de reforzar las medidas de protección

Infobae

OpenAI implementará un nuevo sistema de predicción de edad en ChatGPT destinado a identificar de manera automatizada cuándo un usuario podría ser menor de 18 años. La finalidad es ajustar los niveles de protección y el tipo de experiencia según la edad estimada del usuario, en respuesta al creciente escrutinio por parte de reguladores y legisladores que exigen mayores garantías para los menores en plataformas de inteligencia artificial.


Un enfoque basado en señales de comportamiento

Hasta ahora, ChatGPT se apoyaba principalmente en la edad autodeclarada por los usuarios, un método fácil de eludir y poco fiable para definir límites efectivos. El nuevo modelo combina señales a nivel de cuenta y patrones de comportamiento para inferir la edad de forma menos intrusiva.

Entre las variables analizadas destacan la antigüedad de la cuenta, los hábitos de uso a lo largo del tiempo y las horas habituales de actividad. Además, considera cualquier dato de edad proporcionado anteriormente durante la creación de la cuenta o el uso del sistema.

Las salvaguardas automáticas restringirán contenidos
Las salvaguardas automáticas restringirán contenidos sensibles y ajustarán la experiencia para quienes sean identificados como menores. (Reuters)

OpenAI enfatiza que la predicción de edad es un proceso adaptable y no definitivo. Cuando los datos no son concluyentes, la plataforma opta por ofrecer una experiencia más segura por defecto, aplicando restricciones típicas para menores de edad.

Salvaguardas automáticas y verificación

En los casos en que el sistema determina que una cuenta probablemente pertenece a un menor, ChatGPT activa automáticamente salvaguardas adicionales. Estas limitaciones buscan reducir la exposición de adolescentes a contenidos considerados de mayor riesgo, como violencia gráfica, imágenes sangrientas, representaciones de autolesiones y retos virales peligrosos.

Además, se restringen contenidos relacionados con estándares de belleza extremos, dietas poco saludables o mensajes que fomenten la vergüenza corporal.

Expertos en desarrollo infantil han
Expertos en desarrollo infantil han asesorado el diseño del modelo para adaptar la experiencia de ChatGPT a la percepción y riesgos propios de adolescentes. (Reuters)

Las restricciones también incluyen controles sobre juegos de rol de carácter sexual o violento y limitan el acceso a ciertas conversaciones que podrían resultar inapropiadas para adolescentes. OpenAI asegura que expertos en desarrollo infantil han guiado el diseño de estas medidas, tomando en cuenta investigaciones que señalan diferencias entre adolescentes y adultos en la percepción del riesgo y el control de impulsos.

El sistema permite a los usuarios que hayan sido clasificados erróneamente como menores restaurar el acceso completo mediante una verificación de edad. Este proceso se realiza a través de una comprobación basada en selfies usando la plataforma Persona, utilizada ya en otros servicios digitales y videojuegos.

Los usuarios pueden acceder a la configuración de ChatGPT para consultar su estatus y, si es necesario, iniciar el proceso de verificación, que según la empresa es reversible y no requiere la carga permanente de documentos de identidad.

OpenAI destacó que las restricciones
OpenAI destacó que las restricciones abarcan desde la limitación de violencia gráfica hasta filtros en juegos de rol y mensajes sobre estándares de belleza. (Reuters)

Contexto de regulación y desarrollo continuo

Esta actualización responde a la presión de organismos reguladores, especialmente en Estados Unidos y Europa, donde las autoridades han intensificado la vigilancia sobre la seguridad en IA y el impacto de los chatbots en niños y adolescentes. La Comisión Federal de Comercio de EE.UU. investiga el efecto de estas tecnologías en menores, y OpenAI enfrenta demandas relacionadas con la protección de los usuarios.

OpenAI ha anunciado que el sistema se desplegará en la Unión Europea en las próximas semanas, ajustando los plazos para cumplir con las exigencias regulatorias de la región. Paralelamente, la empresa continuará perfeccionando el modelo de predicción a medida que recopile más datos y monitorice intentos de eludir las salvaguardas.

La compañía ya había introducido funciones dirigidas a adolescentes, como controles parentales, horarios de uso restringido y alertas ante signos de malestar emocional. Además, ha creado un consejo externo de expertos para analizar el impacto de la IA en la salud mental y contribuir a la toma de decisiones sobre productos dirigidos a usuarios vulnerables.

OpenAI considera la integración de la predicción de edad como un avance relevante, aunque reconoce que el desarrollo de sistemas de IA sensibles a la edad es un proceso en evolución que requerirá ajustes continuos en el tiempo.

Entradas populares