La inteligencia artificial preocupa a expertos por su efecto en estudiantes
Un informe internacional advierte sobre retos inéditos en el aprendizaje, las familias y el futuro escolar de menores en varios continentes
El auge de herramientas como ChatGPT —con 700 millones de usuarios en 2025, muchos de ellos jóvenes— y su adopción acelerada desde 2022 impulsaron la investigación, que tiene un doble objetivo: identificar de forma preventiva los riesgos emergentes y proponer acciones concretas para prevenirlos, impulsando un enfoque que priorice el bienestar, la equidad y el desarrollo integral de los estudiantes.
Según The Brookings Institution, la advertencia llega en un momento clave, cuando millones de menores emplean la IA tanto dentro como fuera del aula, en actividades académicas, redes sociales, videojuegos y para apoyo emocional.
Un fenómeno global y diverso
El nivel de acceso y uso de la IA difiere según la infraestructura y el entorno social de cada país. Datos citados por el estudio muestran que el 95% de los estudiantes de secundaria (edades 13-19) en Corea del Sur ha usado ChatGPT y el 91% en Estados Unidos (edades 13-17) utilizó IA generativa en su vida personal.
Por su parte, en Argentina el 58% de los menores (edades 9-17) interactuó con ChatGPT, mientras que en Australia la cifra de uso de herramientas de IA generativa alcanza el 94% entre jóvenes de 14 a 17 años.

La presencia de estas tecnologías ha diluido los límites entre el aprendizaje escolar, la vida social y el entretenimiento digital. Testimonios incluidos en el informe indican que muchos jóvenes utilizan la IA no solo para actividades académicas, sino también para conversar con chatbots en redes sociales o buscar consejos personales, a pesar de restricciones impuestas por las propias escuelas.
Las familias —padres, madres y cuidadores— quedan así en una posición de primera línea. Según The Brookings Institution, progenitores reconocen tanto el deseo de que sus hijos aprendan a manejar estas herramientas como el desconocimiento sobre su funcionamiento y riesgos.
Un padre citado en el estudio sintetiza este reto: “Los padres también necesitamos educación. No sabemos mucho sobre esta tecnología y, si nuestros hijos la usan, deberíamos entender de qué se trata”.
Los beneficios: personalización y democratización del acceso
El análisis reconoce que la IA ha permitido ampliar los esfuerzos de equidad, ofrecer recursos a estudiantes no atendidos por sistemas educativos formales y flexibilizar la adaptación pedagógica individual.
Entre sus beneficios principales se encuentran la personalización del aprendizaje, la asistencia a estudiantes con discapacidad, la traducción de contenidos y la optimización del tiempo docente.

Herramientas como tutores virtuales y programas adaptativos han reducido hasta un 31% el tiempo de planificación de los docentes, y en algunos casos mejoraron los resultados educativos de manera similar a modelos tradicionales, según estudios citados.
La IA también resulta un soporte clave en contextos de bajos recursos, ayudando a docentes con limitaciones de capacitación y permitiéndoles ofrecer una atención más personalizada.
Estudiantes en comunidades de India y Nigeria valoraron la IA como una vía para “ponerse al día” y ganar autonomía, según el informe. Además, la integración de estudiantes neurodivergentes y con discapacidad ha mejorado gracias al uso de dispositivos de comunicación aumentativa, síntesis de voz personalizada para personas con dificultades del habla o lectores inteligentes de textos para dislexia.
Un creciente catálogo de amenazas
A pesar de estos avances, The Brookings Institution concluye que los riesgos superan a los beneficios en la experiencia escolar real. El informe identifica seis ejes de preocupación:
- Descarga cognitiva: el uso excesivo de IA promueve que los estudiantes deleguen tareas de razonamiento y resolución de problemas, lo que puede llevar a la pérdida de habilidades críticas y dependencia intelectual.
- Impacto socioemocional: reemplazar la interacción humana por chatbots limita el desarrollo de habilidades sociales y de empatía, puede causar vínculos artificiales, pérdida de motivación, aislamiento y conductas adictivas.
- Erosión de la confianza: se debilitan las relaciones entre docentes y alumnos y crece la desconfianza sobre la autoría genuina de los trabajos.
- Privacidad y seguridad: la recolección masiva de datos personales de menores y el acceso a plataformas de compañía emocional exponen a los estudiantes a riesgos de abuso, acoso, filtración de información y manipulación.
- Pérdida de autonomía estudiantil: el informe alerta sobre la disminución de la capacidad de decisión de los estudiantes, quienes pueden desarrollar una dependencia estructural de sistemas automáticos de resolución de tareas.
- Brecha digital y desigualdad: la IA amplía las diferencias entre quienes disponen de infraestructura y capacitación, y quienes permanecen al margen, creando una nueva “división digital” por factores económicos, geográficos o lingüísticos.
El informe también señala que la falta de regulación específica y el avance de sistemas comerciales priorizan el lucro sobre la protección de los menores.
The Brookings Institution denuncia que la mayoría de las plataformas usadas por estudiantes —desde asistentes virtuales hasta redes sociales— no están diseñadas con fines pedagógicos ni ofrecen salvaguardas para evitar la manipulación o la exposición a contenidos dañinos.
Testimonios desde la experiencia cotidiana
Estos riesgos se ven respaldados por testimonios directos. Un estudiante afirma: “Es fácil. No tienes que usar el cerebro”. Un docente advierte: “La falta de confianza general y específica —en la experiencia, en la información— genera un nihilismo y cinismo en el que nadie confía en nada ni en nadie”.
Una madre expresa la inquietud de muchas familias: “Los padres necesitamos educación también. Si nuestros hijos usan IA, debemos saber en qué consiste y cuáles son los riesgos”.

Otras voces muestran que algunos estudiantes prefieren recurrir a chatbots antes que hablar con sus familias, o usan IA asistencial para afrontar crisis emocionales.
Expertos alertan sobre la tendencia adictiva y la capacidad de las plataformas para generar estímulos que refuercen la dependencia, con especial impacto en contextos de soledad o vulnerabilidad psicológica.
Desafíos regulatorios y recomendaciones
Frente a este panorama volátil, las pruebas reunidas por el instituto convergen en un llamado urgente: las medidas adoptadas —o la falta de ellas— en los próximos años serán decisivas para definir si la IA en educación enriquece el aprendizaje y el bienestar estudiantil, o si se convierte en una amenaza para el desarrollo pleno de la infancia y adolescencia.
El informe establece tres pilares de acción:
1. Prosperar: integrar deliberadamente la IA donde fortalezca la interacción educativa, codiseñando herramientas junto a docentes, familias y estudiantes, e impulsando investigación sobre sus verdaderos efectos.
2. Preparar: fomentar la alfabetización digital y la formación ética en IA para toda la comunidad escolar, dotar a los docentes de competencias para enseñar con y sobre inteligencia artificial, y garantizar financiación e infraestructura para reducir la brecha digital.
3. Proteger: implementar regulaciones sólidas, exigir que las plataformas incorporen salvaguardas éticas y de privacidad desde su diseño, reformular los incentivos de la industria y asegurar el derecho a la seguridad y el bienestar de los menores.
El informe resalta que la responsabilidad es compartida entre gobiernos, desarrolladores tecnológicos, sistemas educativos, familias y estudiantes.


