Con la colaboración de Mercedes Leticia Sánchez Ambriz
No dejes de escuchar el podcast, con ejemplos que ilustran el artículo.
La expansión de la inteligencia artificial en la vida cotidiana está modificando la relación entre los estudiantes y el conocimiento. Muchas herramientas permiten producir textos, imágenes, videos, analizar grandes volúmenes de información, responder de manera detallada en muy corto tiempo. Este cambio plantea un desafío educativo que no es únicamente tecnológico. El problema central se sitúa en la dimensión ética, siendo una preocupación de muchas instituciones y organismos internacionales. Un ejemplo lo tenemos en un documento publicado el pasado año por la UNESCO.
Se trata del Marco de
competencias para estudiantes en materia de IA. Una publicación que
reconoce la necesidad de preparar a los estudiantes para ser ciudadanos
responsables y creativos en la era de la IA. Su objetivo se centra en ayudar a
los educadores con esta integración, para lo cual describe 12 competencias que
atraviesan cuatro dimensiones: una forma de pensar centrada en el ser
humano, la ética de la IA, las técnicas y aplicaciones de la IA y
la IA para el diseño de sistemas de IA. Estas competencias se
desarrollan en tres niveles de progresión: comprender, aplicar y crear.
El marco de competencias
en inteligencia artificial para estudiantes plantea que el aprendizaje de la
IA debe incluir la reflexión sobre derechos humanos, privacidad de los
datos, equidad y responsabilidad humana. La tecnología no puede enseñarse
como una herramienta neutral. Debe comprenderse dentro de sus consecuencias
sociales y culturales.
La educación superior
enfrenta entonces una pregunta pedagógica decisiva. No basta con enseñar a usar
la inteligencia artificial. Es necesario formar estudiantes capaces de
analizar críticamente sus efectos y de asumir responsabilidad en su uso.
El desafío educativo
de la ética de la IA
El uso de inteligencia
artificial en educación ha crecido de forma acelerada. Los estudiantes
consultan sistemas generativos para responder preguntas, redactar trabajos o
resolver problemas. Esta práctica introduce varios problemas éticos. El
primero aparece en el concepto de autoría. Cuando un estudiante utiliza
una herramienta generativa, surge una interrogante fundamental: ¿quién produce
el conocimiento? El estudiante, el sistema o una combinación de ambos.
El segundo problema se
relaciona con la veracidad de la información. Los sistemas de IA pueden
producir respuestas convincentes que contienen errores o sesgos. El estudiante
necesita desarrollar una actitud crítica frente a estos resultados. ¿Pero está
preparado? Este problema no es nuevo, siempre ha existido, en especial desde el
ámbito digital, solo que ahora se agrava, al ser más fácil de obtener la
respuesta.
El último de estos
problemas está vinculado con los datos. Muchas aplicaciones de
inteligencia artificial procesan grandes volúmenes de información personal.
Esto implica reflexionar sobre privacidad, consentimiento y seguridad digital.
El Marco de competencias
en IA plantea que los estudiantes deben comprender estas implicaciones éticas y
analizar cómo afectan los derechos humanos, la equidad social y la inclusión
digital.
Desde la perspectiva educativa,
el problema deja de ser tecnológico y se transforma en pedagógico. La pregunta
central ya no es cómo usar la IA. La pregunta es cómo formar ciudadanos
capaces de convivir con sistemas inteligentes.
Implicaciones
pedagógicas para la educación superior
La formación ética en
inteligencia artificial requiere cambios en la enseñanza universitaria. La
primera implicación consiste en incorporar la reflexión ética dentro de las
actividades de aprendizaje. El estudiante no solo debe utilizar
herramientas. Debe analizar sus resultados, cuestionar sus decisiones y
evaluar sus consecuencias sociales. Los profesores no pueden negar su uso,
tampoco decir a la ligera que no acepta el trabajo porque sospecha que fue
creado con IA.
La segunda implicación se
relaciona con el desarrollo del pensamiento crítico. Los estudiantes
deben aprender a identificar sesgos algorítmicos, reconocer limitaciones de los
modelos y contrastar la información generada por sistemas inteligentes.
La tercera implicación se
vincula con la responsabilidad humana. El Marco de competencias subraya
que las decisiones finales deben mantenerse bajo control humano. La
inteligencia artificial no reemplaza la responsabilidad del sujeto que la
utiliza.
Estas ideas obligan a
replantear la práctica docente. La enseñanza de la inteligencia artificial
no puede limitarse a talleres técnicos sobre herramientas digitales. Debe
incluir debates, análisis de casos y reflexión ética. Debe ser parte del
currículo, no solo como una materia, sino como una transversal
A modo de conclusión
La educación en
inteligencia artificial plantea uno de los desafíos pedagógicos más importantes
del presente. La tecnología avanza con rapidez, pero la formación ética de los
estudiantes requiere procesos educativos más profundos.
El Marco de competencias
para estudiantes propone que la alfabetización en inteligencia artificial combine
conocimientos técnicos con reflexión ética. Este enfoque busca formar
estudiantes capaces de comprender la tecnología, evaluar sus impactos y actuar
con responsabilidad.
El futuro de la educación
no dependerá únicamente de la presencia de herramientas inteligentes en el
aula. Dependerá de la capacidad de los docentes para formar estudiantes
críticos, conscientes y responsables frente al uso de la inteligencia
artificial.
La pregunta educativa del
siglo XXI no es si los estudiantes utilizarán inteligencia artificial. La
pregunta es si sabrán utilizarla con criterio, responsabilidad y sentido
humano.
Bibliografía
“AI competency framework for students”,
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
(2025) DOI: https://doi.org/10.54675/EKCU4552
No hay comentarios:
Publicar un comentario