Lanzan advertencia a los padres de familia sobre los riesgos de los juguetes con IA

La controversia por el contenido inapropiado y la ausencia de estudios independientes reaviva el debate sobre la seguridad de estos productos

Infobae

La popularidad de los juguetes con inteligencia artificial ha encendido alertas entre organizaciones de defensa del consumidor y especialistas en desarrollo infantil, debido a los posibles riesgos para la seguridad y el bienestar de los niños. Las preocupaciones se incrementaron tras incidentes recientes, como el de un oso de peluche equipado con IA que abordó temas sexualmente explícitos, todo en un contexto de escasa regulación y ausencia de estudios independientes sobre el impacto de estas tecnologías.


El mercado global de juguetes inteligentes vive un auge sostenido por la temporada de compras y la internacionalización de empresas. En 2023, su valor alcanzó USD 16.700 millonesChina lidera la producción, con más de 1.500 compañías enfocadas en juguetes con IA. Entre los actores relevantes están FoloToy, con sede en Shanghái; Curio, creadora del peluche Grok inspirado en el chatbot de Elon Musk y con la voz de la artista Grimes; y Mattel, que anunció una alianza con OpenAI para desarrollar nuevos productos potenciados por IA.

El debate sobre riesgos se agudizó tras el informe de Pirg, organización de protección al consumidor, que documentó cómo el oso Kumma, de FoloToy, respondió a preguntas sobre prácticas sexuales, sugiriendo incluso bondage y juegos de roles.

El auge global de juguetes
El auge global de juguetes inteligentes impulsó un mercado de USD 16.700 millones en 2023. (Imagen Ilustrativa Infobae)

Teresa Murray, directora de vigilancia de Pirg, explicó que “bastó muy poco para que el juguete abordara temas sexualmente sensibles”, un incidente que se suma a otros reportes sobre contenido inapropiado y sobre la capacidad de los bots para mantener conversaciones abiertas con niños, alejadas de los límites que tenían los juguetes de generaciones previas.

Las inquietudes no se restringen al contenido: Rachel Franz, directora en Fairplay, destacó la falta de regulación y de pruebas de beneficios como una “gran señal de alerta”. Por otro lado, Jacqueline Woolley, de la Universidad de Texas en Austin, advirtió sobre el riesgo de que los niños formen vínculos emocionales inapropiados con los bots, lo que podría afectar su desarrollo social. Según Woolley, los bots tienden a ser complacientes y no fomentan el aprendizaje a partir de desacuerdos.

La privacidad es otro foco clave. Franz criticó la falta de transparencia de las empresas sobre el uso de los datos recolectados y alertó sobre la vulnerabilidad ante hackeos. “Debido a la confianza que los juguetes generan, los niños son más propensos a compartir sus pensamientos más íntimos”, afirmó, calificando la vigilancia de “innecesaria e inapropiada”.

Un informe de Pirg alertó
Un informe de Pirg alertó sobre el oso Kumma, de FoloToy, que respondió a niños con descripciones de prácticas sexuales. (Imagen Ilustrativa Infobae)

Ante la presión pública, las empresas han empezado a responder. Tras la publicación del informe de Pirg, OpenAI suspendió su colaboración con FoloToy, cuyo CEO anunció el retiro temporal del producto y una auditoría interna de seguridad. Días después, FoloToy relanzó el oso, prometiendo sistemas de moderación mejorados y nuevas normas de seguridad, aunque sin confirmar consultas a expertos externos.

Curio, fabricante de Grok, comunicó monitoreo activo de contenidos e interacciones para garantizar experiencias seguras. Mattel informó que sus primeros productos con OpenAI se dirigirán a mayores de 13 años, con énfasis en seguridad y privacidad. Sin embargo, Franz cuestionó la eficacia de estas medidas, recordando que estos juguetes atraen igualmente a los más pequeños.

Las organizaciones defensoras insisten en la necesidad de regulación estricta e investigaciones independientes sobre el impacto de los juguetes con IA en el desarrollo infantil. Murray reconoció el potencial educativo de estos dispositivos, pero advirtió: “No hay nada de malo en un recurso educativo, salvo que se presente como el mejor amigo del niño o le anime a contar cualquier cosa”. Pirg pide reglas específicas para productos destinados a menores de 13 años y sugiere retirarlos hasta contar con garantías de seguridad.

El uso de datos personales
El uso de datos personales y la privacidad infantil genera preocupación, debido a la falta de transparencia y al riesgo de hackeos en juguetes con IA. (Imagen Ilustrativa Infobae)

A pocos días de la temporada navideña, 80 organizaciones, incluida Fairplay, emitieron un comunicado exhortando a las familias a evitar la compra de juguetes con IA, argumentando que se promocionan como seguros y beneficiosos sin estudios independientes que lo respalden. Sostienen que los juguetes tradicionales han probado su aporte al desarrollo infantil sin los riesgos asociados a la inteligencia artificial.

En este contexto, persiste la incertidumbre sobre las consecuencias a largo plazo del contacto de los niños con juguetes inteligentes. La falta de información clara y de investigaciones independientes refuerza la necesidad de cautela y supervisión en el uso de estas tecnologías.

Entradas populares