Lanzan advertencia a los padres de familia sobre los riesgos de los juguetes con IA
La controversia por el contenido inapropiado y la ausencia de estudios independientes reaviva el debate sobre la seguridad de estos productos
InfobaeLa popularidad de los juguetes con inteligencia artificial ha encendido alertas entre organizaciones de defensa del consumidor y especialistas en desarrollo infantil, debido a los posibles riesgos para la seguridad y el bienestar de los niños. Las preocupaciones se incrementaron tras incidentes recientes, como el de un oso de peluche equipado con IA que abordó temas sexualmente explícitos, todo en un contexto de escasa regulación y ausencia de estudios independientes sobre el impacto de estas tecnologías.
El debate sobre riesgos se agudizó tras el informe de Pirg, organización de protección al consumidor, que documentó cómo el oso Kumma, de FoloToy, respondió a preguntas sobre prácticas sexuales, sugiriendo incluso bondage y juegos de roles.

Teresa Murray, directora de vigilancia de Pirg, explicó que “bastó muy poco para que el juguete abordara temas sexualmente sensibles”, un incidente que se suma a otros reportes sobre contenido inapropiado y sobre la capacidad de los bots para mantener conversaciones abiertas con niños, alejadas de los límites que tenían los juguetes de generaciones previas.
Las inquietudes no se restringen al contenido: Rachel Franz, directora en Fairplay, destacó la falta de regulación y de pruebas de beneficios como una “gran señal de alerta”. Por otro lado, Jacqueline Woolley, de la Universidad de Texas en Austin, advirtió sobre el riesgo de que los niños formen vínculos emocionales inapropiados con los bots, lo que podría afectar su desarrollo social. Según Woolley, los bots tienden a ser complacientes y no fomentan el aprendizaje a partir de desacuerdos.
La privacidad es otro foco clave. Franz criticó la falta de transparencia de las empresas sobre el uso de los datos recolectados y alertó sobre la vulnerabilidad ante hackeos. “Debido a la confianza que los juguetes generan, los niños son más propensos a compartir sus pensamientos más íntimos”, afirmó, calificando la vigilancia de “innecesaria e inapropiada”.

Ante la presión pública, las empresas han empezado a responder. Tras la publicación del informe de Pirg, OpenAI suspendió su colaboración con FoloToy, cuyo CEO anunció el retiro temporal del producto y una auditoría interna de seguridad. Días después, FoloToy relanzó el oso, prometiendo sistemas de moderación mejorados y nuevas normas de seguridad, aunque sin confirmar consultas a expertos externos.
Curio, fabricante de Grok, comunicó monitoreo activo de contenidos e interacciones para garantizar experiencias seguras. Mattel informó que sus primeros productos con OpenAI se dirigirán a mayores de 13 años, con énfasis en seguridad y privacidad. Sin embargo, Franz cuestionó la eficacia de estas medidas, recordando que estos juguetes atraen igualmente a los más pequeños.
Las organizaciones defensoras insisten en la necesidad de regulación estricta e investigaciones independientes sobre el impacto de los juguetes con IA en el desarrollo infantil. Murray reconoció el potencial educativo de estos dispositivos, pero advirtió: “No hay nada de malo en un recurso educativo, salvo que se presente como el mejor amigo del niño o le anime a contar cualquier cosa”. Pirg pide reglas específicas para productos destinados a menores de 13 años y sugiere retirarlos hasta contar con garantías de seguridad.

A pocos días de la temporada navideña, 80 organizaciones, incluida Fairplay, emitieron un comunicado exhortando a las familias a evitar la compra de juguetes con IA, argumentando que se promocionan como seguros y beneficiosos sin estudios independientes que lo respalden. Sostienen que los juguetes tradicionales han probado su aporte al desarrollo infantil sin los riesgos asociados a la inteligencia artificial.
En este contexto, persiste la incertidumbre sobre las consecuencias a largo plazo del contacto de los niños con juguetes inteligentes. La falta de información clara y de investigaciones independientes refuerza la necesidad de cautela y supervisión en el uso de estas tecnologías.


