La Inteligencia Artificial puede ser una gran aliada en la gestión escolar, pero, ¿cuáles son los límites éticos que debemos considerar al utilizar estas herramientas?, ¿a qué debemos prestar atención cuando subimos datos de estudiantes a plataformas que se basan esta tecnología? Dos especialistas del área compartieron sus conocimientos y recomendaciones al respecto.

De acuerdo con el Centro de Innovación del Ministerio de Educación, una de las dimensiones de la Ciudadanía Digital es el cuidado y las responsabilidades digitales, que se refieren a “la construcción de ambientes digitales seguros y la participación en ellos, promoviendo el bienestar individual y colectivo. Lo anterior implica una reflexión y práctica ética respecto del uso de las tecnologías digitales y el comportamiento en redes sociales, tanto como el conocimiento de los derechos digitales, la privacidad, la protección de datos y conciencia de la huella digital”.
Con la llegada de la Inteligencia Artificial a los establecimientos, esta dimensión cobra aún más relevancia, ya que actualmente, las y los directivos reconocen el uso de esta herramienta tecnológica. En nuestro Informe “Potenciando la gestión escolar con Inteligencia Artificial” (2025), los directivos declaran que usan herramientas como Chat GPT, Canva o Gemini para agilizar tareas como la elaboración de informes y planificaciones.
¿Qué considerar al subir datos de estudiantes a plataformas digitales?
Gabriela Arriagada-Bruneau, profesora asistente de Ética de IA y Datos en doble nombramiento para el Instituto de Éticas Aplicadas y el Instituto de Ingeniería Matemática y Computacional de la Pontificia Universidad Católica, hace hincapié en la privacidad de los datos. El principio de autodeterminación informativa significa que las personas deben tener control sobre el uso, acceso y circulación de su información personal. En contextos educativos, este principio es fundamental por el carácter sensible, identitario y formativo de los datos que circulan en los sistemas escolares.
Al respecto, profundiza en que “los algoritmos que procesan datos de rendimiento académico, asistencia, comportamiento o incluso salud mental pueden vulnerar la confidencialidad si no existen mecanismos robustos de anonimización, consentimiento informado y auditoría externa. Mas, el límite no está dado solo por lo técnico, sino por consideraciones éticas más amplias: el respeto por la dignidad estudiantil, la protección de poblaciones vulnerables y la promoción de un entorno educativo donde la confianza institucional no se vea erosionada por prácticas opacas de vigilancia o perfilamiento algorítmico”.
Asimismo, se debe tener claridad de que la finalidad de su uso sea legítima y transparente, con un propósito educativo claro, orientado al bienestar y desarrollo integral del estudiantado, bajo consentimiento informado y participación significativa de toda la comunidad escolar.

Lo más importante: siempre debe mantenerse la supervisión humana y los criterios de rendición de cuentas. Las decisiones relevantes sobre trayectorias escolares, apoyos, sanciones o diagnósticos no deben ser automatizadas. Los algoritmos no deben ser tratados como autoridades epistémicas incuestionables.
María Paz Hermosilla, directora del goblab de la Universidad Ibáñez y directora de Algoritmos Éticos, iniciativa público-privada inédita en Chile y Latinoamérica, ejecutada por la Universidad Adolfo Ibáñez con financiamiento de BID Lab y ANID, enfatiza en el aspecto ético del uso de IA en contextos escolares: “Este proceso debe contar con licencia social. ¿Cómo saber si la tenemos? Hablando con la gente. Esto es fundamental para evitar conflictos y mantener la armonía dentro de las comunidades escolares. Siempre se debe buscar la transparencia”
Es importante, recalca María Paz, considerar que la ley europea sobre IA considera como "uso de alto riesgo" la aplicación de inteligencia artificial para detectar emociones, especialmente en el ámbito educativo. Por eso, cualquier uso de IA en educación debe hacerse con extrema precaución.
En proyectos que utilizan IA para hacer predicciones, uno de los impactos más relevantes es el falso negativo. Por ejemplo, cuando el sistema predice que un estudiante no va a desertar, pero en realidad sí lo hace. Para evitar errores de este tipo, es crucial medir sesgos algorítmicos. La evaluación de impacto algorítmico permite responder una serie de preguntas que otorgan un puntaje indicando si el sistema tiene un impacto bajo, moderado, alto o muy alto.
Recomendaciones clave
A continuación, ponemos a tu disposición recomendaciones para un uso ético de la IA en la gestión escolar, brindadas por las especialistas entrevistadas.
Las recomendaciones que entrega Gabriela Arriagada-Bruneau son:
- Desarrollar marcos institucionales de gobernanza algorítmica, con revisiones éticas y de gobernanza de datos al interior de los establecimientos que supervisen la implementación de sistemas de IA.
- Fomentar la alfabetización crítica en IA para docentes y equipos directivos, que vaya más allá del uso funcional, ya que es necesario comprender y cuestionar los supuestos, límites y efectos sociales de los sistemas utilizados. Esto habilita una apropiación reflexiva y no tecnocrática de la tecnología.
- Evitar la automatización de decisiones educativas, ya que estas requieren interpretación situada, diálogo y comprensión de dimensiones afectivas, sociales y familiares que los sistemas automatizados no pueden captar.
- Revisar periódicamente los impactos del uso de IA, tanto en su eficacia como en su alineamiento con valores institucionales.
También, María Paz Hermosilla, aconseja que:
- Consentimiento informado y participación significativa, es muy necesario informar de forma clara, comprensible y accesible a estudiantes y apoderados sobre el uso de sus datos, propiciando formas de participación deliberativa que fortalezcan la agencia comunitaria en decisiones tecnológicas.
- Utilizar criterios de justicia algorítmica y equidad educativa, para lo que es indispensable tener consciencia y estar en búsqueda de sesgos que puedan replicar desigualdades estructurales (de género, etnia, discapacidad, etc.). La IA debe contribuir a corregir inequidades, no a reforzarlas.
- Recopilación de datos bajo criterios de proporcionalidad, selección solo de datos necesarios para los fines declarados, garantizando procesos de anonimización adecuados.
Recursos recomendados |
---|
Guía PotencIA el Aprendizaje: En la página 13 de esta guía creada por el Centro de Innovación del Ministerio de Educación, se entrega un ejemplo de cómo anonimizar datos de las y los estudiantes. |
Plataforma Algoritmos Públicos: Desarrollada por Algoritmos Éticos, en concordancia con el Plan de Acción de la Política Nacional de Inteligencia Artificial y la circular Lineamientos para el uso de herramientas de inteligencia artificial en el sector público, enviada por el Ministerio de Ciencia y la Secretaría de Gobierno Digital. En esta plataforma podrás encontrar tres herramientas gratuitas que consisten en: Evaluación de impacto algorítmico (EIA); Herramienta para medición de sesgos y equidad; Ficha de transparencia del modelo. Por medio de estas, conoceras si a lo largo de todo el ciclo de vida de un proyecto de ciencia de datos -formulación, diseño, implementación y evaluación- este cumple con los estándares de responsabilidad. Cabe destacar, que Chile nominó esta plataforma al Premio UNESCO de Ética en Inteligencia Artificial, un reconocimiento internacional que se entregará por primera vez y que destacará a tres iniciativas a nivel mundial.
Lee la noticia aquí |