Un informe del Center for Democracy & Technology advierte que, lejos de ser una panacea, la integración de la IA en la educación está creando un ecosistema de riesgos crecientes para los estudiantes, desde la exposición a ciberataques hasta nuevas formas de acoso y una preocupante dependencia emocional de los chatbots.
La inteligencia artificial (IA) se ha integrado de manera generalizada en el sistema educativo de Estados Unidos, transformando la experiencia de aprendizaje para estudiantes, profesores y padres. Sin embargo, esta rápida adopción no está exenta de peligros. Un nuevo informe del Center for Democracy & Technology (CDT), una organización sin ánimo de lucro que aboga por los derechos civiles en la era digital, revela que, cuanto mayor es el uso de la IA en los centros educativos, mayores son los riesgos para los estudiantes.
El estudio, basado en encuestas a nivel nacional realizadas durante el curso 2024-2025, dibuja un panorama en el que la IA ya es omnipresente. La gran mayoría de los profesores (85%), estudiantes (86%) y padres (75%) afirman haber utilizado estas tecnologías. Curiosamente, su uso es más frecuente en la vida personal que en el ámbito estrictamente académico, lo que indica una penetración cultural profunda que desborda las aulas. Esta familiaridad, sin embargo, convive con una inquietud creciente a medida que aumenta la dependencia de la IA.
Riesgos emergentes
El informe identifica cuatro riesgos emergentes que se intensifican con la mayor implementación de la IA en las escuelas. En primer lugar, aumentan las violaciones de datos y los ataques de ransomware. Los centros que más utilizan la IA son también los que registran más incidentes de seguridad a gran escala, con un 28% de los profesores en escuelas de alto uso de IA informando de tales brechas, en comparación con el 18% en escuelas de bajo uso. Esto se suma a una persistente preocupación por la privacidad de los datos de los estudiantes, una inquietud mayor entre padres (69%) y alumnos (60%) que entre los propios docentes (44%).
Un segundo riesgo es el acoso sexual y la intimidación facilitados por la tecnología, especialmente a través de los deepfakes (manipulaciones hiperrealistas de vídeo, imagen o audio) y la difusión de imágenes íntimas no consentidas (NCII). El estudio muestra que los estudiantes de escuelas con alto uso de IA tienen una probabilidad mucho mayor de haber oído hablar de la existencia de deepfakes (61%) y de NCII de tipo deepfake (21%) que involucran a alguien de su escuela, en comparación con los alumnos de centros con bajo uso de esta tecnología (16% y 6%, respectivamente). A pesar de esta amenaza creciente, menos de una cuarta parte de los profesores ha recibido directrices sobre cómo actuar ante estos incidentes.
Sesgos cognitivos
En tercer lugar, surgen problemas derivados de sistemas de IA que no funcionan como se esperaba o que introducen sesgos. Los profesores de centros con una alta implantación de IA son más propensos a señalar que una de estas herramientas no trató a los estudiantes de manera justa, que falló en su funcionamiento o que su uso dañó la confianza de la comunidad en la escuela. Esta desconfianza se extiende a la propia labor docente: la mitad de los padres y de los estudiantes cuestionan si un profesor que usa la IA en clase está realmente cumpliendo con su trabajo.
Finalmente, el informe alerta sobre las interacciones problemáticas entre los estudiantes y la tecnología, sobre todo con los chatbots. Los alumnos no solo los usan para fines académicos, sino también como un escape de la vida real, como confidentes o incluso para buscar relaciones románticas. En los centros con un uso intensivo de la IA, el 59% de los estudiantes admite haber usado un chatbot como amigo o compañero, y un 32% para establecer una relación romántica. Esto genera preocupación entre padres y profesores por el impacto negativo en el desarrollo de habilidades interpersonales esenciales como la empatía o la resolución de conflictos.
Referencia
Hand in Hand. Schools’ Embrace of AI Connected to Increased Risks to Students. Elizabeth Laird et al. Center for Democracy & Technology (CDT), 2025.
Cambios en la enseñanza
La propia naturaleza de la enseñanza se está viendo alterada. Si bien los profesores valoran la IA para reducir su carga administrativa, más de dos tercios sienten que ha añadido el nuevo desafío de verificar la autoridad de los trabajos de los alumnos. Al mismo tiempo, los estudiantes de entornos con mucha IA se sienten menos conectados con sus profesores y, en un 52% de los casos, prefieren interactuar con una IA antes que con un docente cuando no entienden algo.
El informe también destaca la vulnerabilidad de colectivos específicos. Los estudiantes con discapacidades, aunque se benefician del uso de la IA para la elaboración de sus planes educativos individualizados (IEP), muestran una mayor preocupación por la privacidad y son más propensos a sentir que la IA los trata de forma injusta. Por otro lado, la recogida de datos sobre el estatus migratorio de los alumnos, una práctica que la mitad de los profesores dice que ocurren en su centro, plantea graves riesgos de privacidad y seguridad para los estudiantes inmigrantes, sobre todo ante la posibilidad de que esa información sea compartida con las autoridades de inmigración.
La investigación del CDT concluye que la adopción de la inteligencia artificial en la educación avanza a un ritmo que supera la capacidad de las escuelas para gestionar sus riesgos.
La falta de formación adecuada, de políticas claras y de un debate profundo sobre sus implicaciones está dejando a la comunidad educativa, y en especial a los estudiantes, en una posición de vulnerabilidad.