Publicación: 17/02/2026
Este articulo esta basado en la publicación de Marc Selgas-Cors llamada: “Ética algorítmica en la educación: un marco integrado para la formación ética de estudiantes mediante sistemas de inteligencia artificial”, quienes empiezan mencionando lo siguiente:
La creciente integración de la inteligencia artificial (IA) en la educación superior ha generado preocupaciones éticas, particularmente en términos de equidad y autonomía estudiantil. Este estudio introduce el Marco Integrado de Ética Algorítmica Educativa (MIEE), un modelo diseñado para mitigar los riesgos asociados con el uso de IA en entornos educativos. El MIEE se estructura en tres pilares fundamentales: el Módulo de Evaluación Ética Continua (MEC), el Sistema de Retroalimentación Ética Adaptativa (SREA) y la Plataforma de Colaboración Ética Multistakeholder (PCEM), los cuales facilitan la supervisión, el ajuste y la gobernanza participativa de los algoritmos educativos (Selgas-Cors, M. 2025, p.1).
Ademas los autores mencionan que:
Para evaluar su impacto, se realizó un estudio piloto en cinco universidades, con la participación de 120 docentes y 450 estudiantes, empleando un diseño de métodos mixtos. Los resultados indican un incremento en la equidad algorítmica del 65% al 85% y en la autonomía estudiantil del 48% al 78%, lo que representa mejoras del 20% y 30% respectivamente (Validación MIEE Discusión, 2024). Estos hallazgos demuestran que el MIEE contribuye a un uso más ético de la IA, reduciendo los sesgos algorítmicos y promoviendo un aprendizaje más transparente y justo (Selgas-Cors, M. 2025, p.1).
Finalmente los autores dicen:
Se concluye que el MIEE es un modelo adaptable y viable para distintos contextos educativos, aunque futuras investigaciones deben explorar su aplicación en instituciones con menor grado de digitalización (Validación MIEE Discusión, 2024) (Selgas-Cors, M. 2025, p.2).
La inteligencia artificial en la educación: avances y desafíos:

Gemini (2026), Etica en la educación https://gemini.googlecom
Los autores indican que:
En las últimas dos décadas, la inteligencia artificial (IA) ha transformado múltiples sectores, incluido el educativo. Herramientas de IA, como algoritmos de personalización del aprendizaje, asistentes virtuales y plataformas automatizadas de evaluación, han optimizado los procesos de enseñanza y han permitido mejorar la
accesibilidad a la educación. Sin embargo, estos avances tecnológicos también han generado controversias sobre la equidad, la autonomía del estudiante y la transparencia en los procesos educativos (Selgas-Cors, M. 2025, p.2).
Tambien mencionan que:
Uno de los desafíos más significativos en la implementación de la IA en el ámbito educativo es la prevalenciade de sesgos algorítmicos. Estos sesgos pueden manifestarse de diversas formas y tener consecuencias importantes en la equidad educativa (Selgas-Cors, M. 2025, p.2).
Flores Vivar advierte que:
“la IA en educación puede perpetuar desigualdades existentes si no se aborda adecuadamente el problema de los sesgos algorítmicos”. Por ejemplo, los sistemas de IA pueden replicar y amplificar prejuicios existentes en los datos de entrenamiento, lo que podría llevar a evaluaciones injustas o recomendaciones sesgadas para ciertos grupos de estudiantes (J. Flores-Vivar, 2022, p.1).
Chen and Y. Liu, señalan que “los algoritmos de IA, al ser entrenados con datos históricos, pueden perpetuar y exacerbar sesgos preexistentes, afectando particularmente a grupos minoritarios o subrepresentados”.
Además, como señalan Galindo-Domínguez, N. Delgado, L. Campo, and D. Losada:
Incluso cuando la IA logra replicar con precisión las evaluaciones de los docentes,e xiste el riesgo de perpetuar sesgos preexistentes en las prácticas evaluativas. Estos autores argumentan que “la precisión en la replicación de evaluaciones humanas por parte de la IA no garantiza la equidad, ya que puede estar reproduciendo sesgos inherentes a los métodos de evaluación tradicionales (H. Galindo-Domínguez, N. Delgado, L. Campo, and D. Losada, 2024, p.2).
Es crucial, por tanto, implementar estrategias de mitigación y revisión crítica de los conjuntos de datos utilizados en el desarrollo de sistemas de IA educativa. G. Rodríguez-Abitia and G. Bribiesca-Correa proponen que “la implementación de auditorías algorítmicas y la diversificación de los equipos
de desarrollo son pasos fundamentales para mitigar los sesgos en la IA educativa”.
Lee el artículo completo haciendo clic en el siguiente botón:




