jueves, 12 de marzo de 2026

Un nuevo problema pedagógico: La formación ética en inteligencia artificial

 

Con la colaboración de Mercedes Leticia Sánchez Ambriz

No dejes de escuchar el podcast, con ejemplos que ilustran el artículo.

La expansión de la inteligencia artificial en la vida cotidiana está modificando la relación entre los estudiantes y el conocimiento. Muchas herramientas permiten producir textos, imágenes, videos, analizar grandes volúmenes de información, responder de manera detallada en muy corto tiempo. Este cambio plantea un desafío educativo que no es únicamente tecnológico. El problema central se sitúa en la dimensión ética, siendo una preocupación de muchas instituciones y organismos internacionales. Un ejemplo lo tenemos en un documento publicado el pasado año por la UNESCO.

Se trata del Marco de competencias para estudiantes en materia de IA. Una publicación que reconoce la necesidad de preparar a los estudiantes para ser ciudadanos responsables y creativos en la era de la IA. Su objetivo se centra en ayudar a los educadores con esta integración, para lo cual describe 12 competencias que atraviesan cuatro dimensiones: una forma de pensar centrada en el ser humano, la ética de la IA, las técnicas y aplicaciones de la IA y la IA para el diseño de sistemas de IA. Estas competencias se desarrollan en tres niveles de progresión: comprender, aplicar y crear.

El marco de competencias en inteligencia artificial para estudiantes plantea que el aprendizaje de la IA debe incluir la reflexión sobre derechos humanos, privacidad de los datos, equidad y responsabilidad humana. La tecnología no puede enseñarse como una herramienta neutral. Debe comprenderse dentro de sus consecuencias sociales y culturales.

La educación superior enfrenta entonces una pregunta pedagógica decisiva. No basta con enseñar a usar la inteligencia artificial. Es necesario formar estudiantes capaces de analizar críticamente sus efectos y de asumir responsabilidad en su uso.

El desafío educativo de la ética de la IA

El uso de inteligencia artificial en educación ha crecido de forma acelerada. Los estudiantes consultan sistemas generativos para responder preguntas, redactar trabajos o resolver problemas. Esta práctica introduce varios problemas éticos. El primero aparece en el concepto de autoría. Cuando un estudiante utiliza una herramienta generativa, surge una interrogante fundamental: ¿quién produce el conocimiento? El estudiante, el sistema o una combinación de ambos.

El segundo problema se relaciona con la veracidad de la información. Los sistemas de IA pueden producir respuestas convincentes que contienen errores o sesgos. El estudiante necesita desarrollar una actitud crítica frente a estos resultados. ¿Pero está preparado? Este problema no es nuevo, siempre ha existido, en especial desde el ámbito digital, solo que ahora se agrava, al ser más fácil de obtener la respuesta.

El último de estos problemas está vinculado con los datos. Muchas aplicaciones de inteligencia artificial procesan grandes volúmenes de información personal. Esto implica reflexionar sobre privacidad, consentimiento y seguridad digital.

El Marco de competencias en IA plantea que los estudiantes deben comprender estas implicaciones éticas y analizar cómo afectan los derechos humanos, la equidad social y la inclusión digital.

Desde la perspectiva educativa, el problema deja de ser tecnológico y se transforma en pedagógico. La pregunta central ya no es cómo usar la IA. La pregunta es cómo formar ciudadanos capaces de convivir con sistemas inteligentes.

Implicaciones pedagógicas para la educación superior

La formación ética en inteligencia artificial requiere cambios en la enseñanza universitaria. La primera implicación consiste en incorporar la reflexión ética dentro de las actividades de aprendizaje. El estudiante no solo debe utilizar herramientas. Debe analizar sus resultados, cuestionar sus decisiones y evaluar sus consecuencias sociales. Los profesores no pueden negar su uso, tampoco decir a la ligera que no acepta el trabajo porque sospecha que fue creado con IA.

La segunda implicación se relaciona con el desarrollo del pensamiento crítico. Los estudiantes deben aprender a identificar sesgos algorítmicos, reconocer limitaciones de los modelos y contrastar la información generada por sistemas inteligentes.

La tercera implicación se vincula con la responsabilidad humana. El Marco de competencias subraya que las decisiones finales deben mantenerse bajo control humano. La inteligencia artificial no reemplaza la responsabilidad del sujeto que la utiliza.

Estas ideas obligan a replantear la práctica docente. La enseñanza de la inteligencia artificial no puede limitarse a talleres técnicos sobre herramientas digitales. Debe incluir debates, análisis de casos y reflexión ética. Debe ser parte del currículo, no solo como una materia, sino como una transversal

A modo de conclusión

La educación en inteligencia artificial plantea uno de los desafíos pedagógicos más importantes del presente. La tecnología avanza con rapidez, pero la formación ética de los estudiantes requiere procesos educativos más profundos.

El Marco de competencias para estudiantes propone que la alfabetización en inteligencia artificial combine conocimientos técnicos con reflexión ética. Este enfoque busca formar estudiantes capaces de comprender la tecnología, evaluar sus impactos y actuar con responsabilidad.

El futuro de la educación no dependerá únicamente de la presencia de herramientas inteligentes en el aula. Dependerá de la capacidad de los docentes para formar estudiantes críticos, conscientes y responsables frente al uso de la inteligencia artificial.

La pregunta educativa del siglo XXI no es si los estudiantes utilizarán inteligencia artificial. La pregunta es si sabrán utilizarla con criterio, responsabilidad y sentido humano.

Bibliografía

“AI competency framework for students”, Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2025) DOI: https://doi.org/10.54675/EKCU4552

No hay comentarios:

Publicar un comentario