lunes, 23 de febrero de 2026

Aprender IA sin volver al inicio: la carrera sin meta

 

En colaboración con Mercedes Leticia Sánchez Ambriz

No dejes de escuchar el podcast en este enlace

Recientemente conversaba con un colega de trabajo y me explicaba que con la IA vuela en su actividad docente, pero que siempre siente que se queda atrás con las herramientas de IA que conoce. Es una sensación persistente: con la inteligencia artificial no se llega a un final. Se aprende una herramienta y aparece otra que la desplaza, o la misma plataforma cambia y obliga a reaprender. Esa experiencia suele expresarse como un problema de falta de tiempo, de disciplina o de actualización insuficiente.

Pero este problema humano, tiene una interpretación pedagógica muy diferente: el objeto de aprendizaje se mueve con más rapidez que los ciclos formativos. Si los contenidos se construyen alrededor del funcionamiento de una herramienta, el curso queda atado a un objetivo inestable. El efecto es predecible: frustración, dispersión, dependencia de tutoriales y una idea equivocada de competencia digital, entendida como dominio de la herramienta. En este caso el medio se convierte en el centro del proceso, quitando su lugar al aprendizaje del estudiante.

Una sugerencia

El punto de partida es distinguir dos formas de organizar este proceso. Una forma consiste en dominar procedimientos propios de un producto, menús, opciones, plantillas, atajos y formatos. Esa ruta produce resultados rápidos, pero caduca en cuanto cambia el producto. Otra forma consiste en construir capacidades que se transfieren entre herramientas: formular problemas, dialogar con los algoritmos, verificar, justificar, documentar, tomar decisiones con responsabilidad. En esta segunda ruta, la herramienta es un medio. La competencia se conserva, aunque la plataforma cambie.

Esta distinción reordena la enseñanza universitaria. Si el currículo evalúa la herramienta, cualquier actualización provoca la sensación de reinicio. Si el currículo evalúa el desempeño intelectual mediado por IA, el cambio tecnológico deja de ser un obstáculo y se vuelve un cambio de entorno de trabajo. En términos didácticos, el problema no es la innovación, es haber puesto la meta en un objeto móvil.

Para que esta idea no se quede en lo declarativo, conviene traducirla a principios de formación que permanezcan estables y puedan aplicarse con cualquier herramienta. Un criterio es la formulación del problema académico: qué se quiere lograr, con qué condiciones, qué evidencia será aceptable, qué limitaciones existen. Otro es la construcción de instrucciones y diálogo con la IA: pedir alternativas, delimitar supuestos, solicitar contraejemplos, exigir que la respuesta se ajuste a un formato evaluable. A los anteriores se suma la verificación: contrastar con fuentes, revisar coherencia interna, detectar afirmaciones sin respaldo, corregir errores conceptuales y de citación. La trazabilidad: dejar registro de qué aportó la IA, qué cambió el estudiante, y por qué lo cambió es otro criterio que podemos aplicar en clases. Otro criterio es el uso ético: no delegar el juicio académico, no ocultar la mediación de la herramienta, cuidar datos y evitar atajos que terminen en plagio o en trabajo sin comprensión.

En un trabajo anterior denominado “El Viejo y el mar como simulador de toma de decisiones con inteligencia artificial en educación superior” y que puede leer desde aquí comentamos como a partir del análisis de una obra literaria o científica podemos emplear la IA siguiendo un grupo de reglas que culminan con un registro de evidencias que el estudiante debe presentar. Sí seguimos este camino es el estudiante el responsable de desafiar la IA y no al revés como suele suceder.

Cuando las ideas anteriores se convierten en el centro del curso, aparece una consecuencia directa: el programa deja de quebrarse cuando cambia la herramienta. En lugar de enseñar una aplicación como contenido principal, se enseña una práctica académica con mediación de IA. La herramienta se trabaja como ejemplo y se puede sustituir sin reescribir el diseño didáctico.

Un ejemplo en Ciencias de la Educación lo muestra con claridad. En una asignatura que imparto, los estudiantes deben crear el sistema de evaluación de una asignatura. Hasta aquí parece sencilla la tarea, pero no es así. Ellos tienen que empezar por crear una institución escolar, diseñar su estructura, seleccionar las facultades, carreras y en una de ellas describir todas las asignaturas. Al principio se copian todo de la IA, pero en la medida en que van presentando públicamente sus resultados, deben volver al inicio para rediseñar todo con su propio criterio. Con un enfoque centrado en herramienta, el estudiante aprende a trabajar con la herramienta, pero no aprende a crear el sistema de evaluación exigido.

Por el contrario, al enfocarnos en las competencias, el estudiante debe definir el desempeño, justificar los criterios, construir niveles, proponer evidencias, anticipar errores, y utilizar la IA para revisar consistencia, sugerir redacción, proponer variantes y detectar ambigüedades. La evidencia evaluable no es la habilidad de navegar la interfaz, es la calidad del instrumento y la solidez de las decisiones que lo sustentan. Si mañana cambian las plataformas, la tarea sigue siendo la misma, y el aprendizaje también.

Este modo de diseñar reduce un riesgo frecuente en la formación con IA: la fatiga por actualización permanente y la sobreexposición a novedades. Al poner el énfasis en criterios pedagógicos, el estudiante aprende a decidir cuándo un cambio tecnológico requiere reentrenamiento y cuándo solo exige adaptación menor. Aprende a sostener un criterio de calidad por encima del entusiasmo por lo nuevo. En educación superior, esa estabilidad es pedagógicamente deseable: permite profundidad, continuidad de desempeño y evaluación más justa.

A manera de conclusión.

La sensación de no ver el final con la IA suele aparecer cuando se confunde el objetivo con el dominio de un producto. Si la meta es aprender herramientas, siempre habrá reinicio porque el ecosistema cambia sin pausa. Si la meta es construir capacidades transferibles, el cambio tecnológico deja de invalidar el aprendizaje. La docencia universitaria gana consistencia cuando evalúa desempeño intelectual mediado por IA: formular problemas, dialogar con criterio, verificar, justificar, documentar y actuar con responsabilidad. El final no es dominar una IA. El final es sostener un trabajo académico riguroso, aunque la herramienta cambie.

 

viernes, 20 de febrero de 2026

Resultados del segundo examen del CUP 2026 en la Facultad de Humanidades.

Como explicamos en un anterior artículo en el blog, el pasado 30 de enero se aplicó el primer examen del CUP 2026 en la Facultad de Humanidades de la Universidad Autónoma “Gabriel René Moreno” y el segundo y final se realizó el 19 de febrero. Este proceso culmina el sistema de selección de bachilleres que aspiran a ingresar al primer semestre en alguna de las siete carreras que ofrece la Facultad. En una publicación anterior comentamos la organización pedagógica que acompañó este proceso.

Para el primer examen se presentaron 1300 estudiantes, mientras que para el segundo 1271. Del total inscrito, 1343 al iniciar el CUP, supone un 9,4 % de deserción respecto al total de matriculados.

Resultados.

En cada examen los estudiantes responden 40 preguntas, 10 de cada una de las cuatro materias que se estudian (Biología, Historia, Lenguaje y Psicología). Todas tienen el mismo puntaje, se obtienen de un banco de preguntas, se emplea la plataforma Moodle para el examen y es totalmente aleatoria la selección, así como la distribución de los incisos.

A continuación, se muestra una tabla donde se comparan los resultados del primer examen con los del segundo.

Tabla 1: Elaboración propia

Las respuestas correctas en Historia conservan el mismo resultado; en Biología se ascienden dos puntos porcentuales (47,13 % a un 49,7 %), mientras que en Lenguaje el ascenso es de 5 puntos porcentuales (63,6 % a un 68,6 %). El mayor salto lo obtenemos en Psicología, donde se crece en 34 puntos porcentuales (46,5 % a un 80,8 %).

Otra comparación que realizamos es con respecto a los resultados obtenidos en el segundo examen del CUP 2025, con los alcanzados en el último examen del CUP 2026.

Tabla 2: Elaboración propia

En la tabla 2 se muestra cómo se crece ligeramente en Historia, pasando del 56,7 % al 58,5 %, y se decrece ligeramente en Biología, del 53,7 % al 49,7 %. Los aumentos significativos se dan en Lenguaje, del 35,2 % al 68,6 %, y en Psicología, del 49,2 % al 80,8 %.

Un dato de interés es el valor medio de preguntas respondidas correctamente en cada uno de los cuatro exámenes.  

Tabla 3: Elaboración propia

En la tabla 3 se aprecia el crecimiento de la media de preguntas aprobadas respecto al total de 40 en cada examen. En el CUP 2025, en ambos exámenes no se logró alcanzar la mitad de los puntos, mientras que en los dos exámenes del CUP 2026 se sobrepasó la mitad, llegando en este último examen al valor 25,8 preguntas correctas de cada 40.

Conclusión.

Los resultados obtenidos en el segundo examen del CUP son superiores a los del anterior, así como a los del pasado año. Las razones son muchas, desde un correcto diseño instruccional, un empleo eficiente de Moodle, la creación de autoevaluaciones, la selección adecuada de los profesores, la calidad de las clases que se impartieron y la organización eficiente que se desarrolló.

En un próximo artículo analizaremos los resultados de una encuesta aplicada a los estudiantes y que recoge varios ítems de interés, como el acceso a la plataforma, el empleo de medios como computadora y celular, su grado de preparación y la percepción de la calidad del CUP, entre otros puntos que preguntamos.