domingo, 1 de marzo de 2026

Evaluando el CUP 2026

En un artículo previo en este blog analizamos las respuestas al segundo examen del CUP 2026, organizado por la Facultad de Humanidades de la UAGRM. En ese análisis se observó un incremento de la media de aciertos desde 22,5 % en el primer examen hasta 25,8 % en el segundo, lo que se tradujo en un aumento de aprobados.

Este artículo analiza los resultados de una encuesta aplicada a los aspirantes antes de rendir el último examen. El cuestionario indaga por asistencia a clases virtuales, tipo de dispositivo de acceso, disponibilidad de computadora para actividades cotidianas, tiempo dedicado a la preparación, acceso al aula virtual para lectura de contenidos y valoración global del CUP. Al final se reportan asociaciones entre variables categóricas mediante Chi cuadrado y V de Cramer.

La encuesta fue respondida por más de la mitad de los participantes. La convocatoria se realizó a través de los grupos de WhatsApp correspondientes y la aplicación fue por grupos, con el propósito de recoger valoraciones sobre docentes y organización. Para el resto de las preguntas, las diferencias entre grupos fueron pequeñas, por lo que se presenta el análisis agregado.

Una de las preguntas indagó por la asistencia a las clases virtuales. Las clases se desarrollaron de lunes a viernes en dos bloques: 07:00 a 13:40 y 16:00 a 22:40, por lo que cada día dedicaban 6 horas y 40 minutos de clases. Los docentes trabajaron cuatro materias por jornada. La transmisión se realizó en Google Meet y las grabaciones se alojaron en canales de YouTube creados para esta tarea.

Tabla 1: Asistencia a clases virtuales. Fuente: elaboración propia

El 50 % de los estudiantes reporta participar todos los días en las clases virtuales, y alrededor del 40 %, casi todos los días. El patrón sugiere una asistencia elevada pese a la carga horaria diaria establecida por el reglamento del CUP aprobado en la UAGRM.

Dispositivos que emplean

En este campo realizamos dos preguntas, la primera de ellas relacionada con el equipo que emplean frecuentemente para acceder a las clases virtuales y la otra si tienen computadoras para sus actividades diarias.


Tabla 2: Dispositivo de acceso a clases virtuales. Fuente: elaboración propia

El 75 % lo hace desde un celular, el 22,2 % desde una computadora y el resto desde una tableta. Este perfil de acceso sugiere ajustar el diseño de presentaciones y actividades para pantallas móviles y priorizar estrategias de interacción en línea (preguntas guiadas, microactividades y apoyo de herramientas de IA para ejercicios de práctica).

La anterior pregunta se relaciona con la siguiente al indagar por si tiene computadora para sus actividades diarias.

 


Tabla 3: Disponibilidad de computadoras para actividades cotidianas. Fuente: elaboración propia

El 60 % indica no disponer de una computadora propia para sus actividades, lo que reafirma los datos de la anterior respuesta. Aunque muchas tareas pueden resolverse desde el celular, la computadora sigue siendo relevante para lectura extensa, producción de documentos y gestión de recursos. Este dato debe considerarse en el diseño de materiales y evaluaciones, especialmente en los primeros semestres.

Tiempo dedicado a prepararse para el examen final y el acceso al aula virtual.

En esta pregunta debo confesar que me sorprendieron las respuestas. El 35 % respondió que algunas, el 27 % cuando puedo, el 7 % entre poco o muy poco y el 31 % indicó que muchas horas. Es de esperar que se le dedique la mayor cantidad de horas al estudio para el examen.

Tabla 4: Tiempo dedicado a la preparación para el examen final: Fuente: elaboración propia.

En el primer artículo sobre el CUP se indicó que las aulas virtuales se desarrollaron bajo el modelo instruccional ADDIE. Antes del primer examen notamos que los accesos a estas aulas eran bajos, apenas un 46%. De inmediato creamos un grupo de actividades de autoevaluación, con preguntas extraídas de los textos, con el empleo de inteligencia artificial y posteriormente revisadas una por una. Por cada unidad se incluyeron entre 15 y 20 preguntas, con el objetivo de incentivar la lectura en el aula virtual y la práctica previa al examen.

Tabla 5: Acceso al aula virtual antes y después de la intervención de autoevaluaciones. Fuente: elaboración propia.

La tabla muestra la diferencia entre el acceso inicial a las aulas y el acceso registrado antes del segundo examen: pasó de 46 % a 92 %, lo que equivale a duplicar el nivel de acceso. El patrón es compatible con que las autoevaluaciones hayan contribuido a incrementar la consulta del aula virtual, considerando también que los textos no se distribuyeron fuera de la plataforma. En coherencia con ello, el 92 % señaló que accedió a los contenidos en el aula virtual; el resto indicó que los obtuvo fuera de la universidad o mediante amistades, por lo que se corre el riesgo de no acceder a los contenidos oficiales.

Valoración general del CUP

Otra de las preguntas solicitaba una evaluación del CUP considerando aspectos como las clases virtuales, los contenidos de cada asignatura, el desempeño del profesorado, la organización en las aulas y los cuestionarios de autoevaluación. La tabla muestra los resultados obtenidos.

Tabla 6: Valoración global del CUP 2026. Fuente: elaboración propia.

Entre excelente y bueno se concentra el 76 % de las respuestas, mientras que un 21 % lo evalúa de regular y el 3,0 % como deficiente. Este resultado es coherente con decisiones operativas tomadas durante el proceso (selección de docentes, diseño instruccional, implementación de las aulas virtuales y administración de los exámenes, y con el trabajo sostenido del equipo docente y organizador.

Como cierre, se incluyó una pregunta abierta para recoger sugerencias para un próximo CUP. El 43 % solicitó que las clases sean presenciales; el 24 % propuso mejorar los exámenes; el 16 % pidió una mejor organización de las aulas virtuales; y el 13 % consideró adecuado mantener el esquema actual.

Análisis a profundidad

Se aplicó la prueba Chi cuadrado de independencia para evaluar asociación entre variables categóricas del cuestionario. Se reporta el estadístico mediante su significación (p-valor). Como el p-valor puede resultar pequeño con tamaños muestrales grandes incluso cuando la relación es débil, el análisis se complementó con V de Cramer, que cuantifica la intensidad de la asociación en una escala de 0 a 1. En este informe se interpretó V cercano a 0 como asociación muy débil; 0,10 a 0,30 como baja; 0,30 a 0,50 como moderada; y mayor a 0,50 como alta. Los umbrales se usan como guía orientativa.

Hallazgo 1. Horas de preparación y evaluación del CUP

Cruce: ¿Cuántas horas estás dedicando a prepararte por el último examen? vs Evaluación del CUP. En este caso n = 571, V = 0,186, p = 0,000000028. Asociación baja, consistente. (n es la cantidad de encuestados)

Patrón (porcentaje por fila):

  • Muchas: Excelente 37,2 %, Bueno 42,8 %, Regular 18,3 %, Deficiente 1,7 %.
  • Algunas: Excelente 14,5 %, Bueno 64,0 %, Regular 18,5 %, Deficiente 3,0 %.
  • Muy poco: Regular 53,3 %, Excelente 6,7 %, Bueno 40,0 %, Deficiente 0,0 %.

En el análisis se demostró que una mayor dedicación se asocia con mayor proporción de Excelente; baja dedicación se asocia con más Regular. En otras palabras, aquellos que respondieron regular son los que dedican menos tiempo de preparación.

Hallazgo 2. Asistencia y respuesta de autoevaluaciones

Cruce: Asistencia a clases virtuales vs. respuesta de exámenes de autoevaluación.
n = 571, V = 0,187, p = 0,000483. Asociación baja, consistente.

Patrón (porcentaje por fila, “Sí” en autoevaluaciones):

  • Todos los días: Sí 92,2 %.
  • Casi todos los días: Sí 86,6 %.
  • Muy poco: Sí 66,7 % (No 33,3 %).

Los datos demuestran que la participación sostenida en clases se vincula con mayor cumplimiento de autoevaluaciones.

Hallazgo 3. Asistencia y evaluación global del CUP

Cruce: Asistencia a clases virtuales vs. evaluación del CUP.
n = 571, V = 0,151, p = 0,000107. Asociación baja, estadísticamente sólida.

Patrón (porcentaje por fila):

  • Todos los días: Excelente 26,3 %, Regular 18,1 %, Deficiente 1,7 %.
  • Casi todos los días: Excelente 19,0 %, Regular 19,4 %, Deficiente 2,8 %.
  • Nunca: Regular 60,0 %, Excelente 0,0 %.

En resumen, más asistencia se asocia con mayor Excelente; menor asistencia concentra más Regular. De nuevo queda demostrado que las respuestas de regular obedecen a los que menos asistencia reportaron, así como menos cumplimiento de las autoevaluaciones.

Hallazgo 4. Acceso a aulas virtuales para leer y evaluación del CUP

Cruce: Accediste a las aulas virtuales para leer contenidos vs. evaluación del CUP.
n = 571, V = 0,106, p = 0,0466. Asociación débil, pero significativa.

Patrón (porcentaje por fila):

  • : Deficiente 2,3 %, Regular 20,7 %, Excelente 21,6 %, Bueno 55,4 %.
  • No: Deficiente 10,7 %, Regular 28,6 %, Excelente 25,0 %, Bueno 35,7 %.

El cruce de datos demuestra que el no acceder el aula para la lectura de los contenidos se asocia con una evaluación deficiente del CUP,

Conclusiones

Los cuatro cruces analizados muestran asociaciones de intensidad baja o muy baja. En términos prácticos, quienes reportan menor asistencia, menos tiempo de preparación y menor acceso al aula virtual tienden a evaluar el CUP como “regular” con mayor frecuencia. Los resultados sugieren reforzar estrategias de acompañamiento académico que incrementen tiempo de estudio y participación sostenida, y mantener mecanismos de práctica como las autoevaluaciones, por su posible contribución al uso del aula virtual.

También se recomienda diseñar intervenciones para sostener la asistencia, dado su vínculo con el cumplimiento de autoevaluaciones y con una mejor valoración del CUP (Hallazgos 2 y 3).

 

lunes, 23 de febrero de 2026

Aprender IA sin volver al inicio: la carrera sin meta

 

En colaboración con Mercedes Leticia Sánchez Ambriz

No dejes de escuchar el podcast en este enlace

Recientemente conversaba con un colega de trabajo y me explicaba que con la IA vuela en su actividad docente, pero que siempre siente que se queda atrás con las herramientas de IA que conoce. Es una sensación persistente: con la inteligencia artificial no se llega a un final. Se aprende una herramienta y aparece otra que la desplaza, o la misma plataforma cambia y obliga a reaprender. Esa experiencia suele expresarse como un problema de falta de tiempo, de disciplina o de actualización insuficiente.

Pero este problema humano, tiene una interpretación pedagógica muy diferente: el objeto de aprendizaje se mueve con más rapidez que los ciclos formativos. Si los contenidos se construyen alrededor del funcionamiento de una herramienta, el curso queda atado a un objetivo inestable. El efecto es predecible: frustración, dispersión, dependencia de tutoriales y una idea equivocada de competencia digital, entendida como dominio de la herramienta. En este caso el medio se convierte en el centro del proceso, quitando su lugar al aprendizaje del estudiante.

Una sugerencia

El punto de partida es distinguir dos formas de organizar este proceso. Una forma consiste en dominar procedimientos propios de un producto, menús, opciones, plantillas, atajos y formatos. Esa ruta produce resultados rápidos, pero caduca en cuanto cambia el producto. Otra forma consiste en construir capacidades que se transfieren entre herramientas: formular problemas, dialogar con los algoritmos, verificar, justificar, documentar, tomar decisiones con responsabilidad. En esta segunda ruta, la herramienta es un medio. La competencia se conserva, aunque la plataforma cambie.

Esta distinción reordena la enseñanza universitaria. Si el currículo evalúa la herramienta, cualquier actualización provoca la sensación de reinicio. Si el currículo evalúa el desempeño intelectual mediado por IA, el cambio tecnológico deja de ser un obstáculo y se vuelve un cambio de entorno de trabajo. En términos didácticos, el problema no es la innovación, es haber puesto la meta en un objeto móvil.

Para que esta idea no se quede en lo declarativo, conviene traducirla a principios de formación que permanezcan estables y puedan aplicarse con cualquier herramienta. Un criterio es la formulación del problema académico: qué se quiere lograr, con qué condiciones, qué evidencia será aceptable, qué limitaciones existen. Otro es la construcción de instrucciones y diálogo con la IA: pedir alternativas, delimitar supuestos, solicitar contraejemplos, exigir que la respuesta se ajuste a un formato evaluable. A los anteriores se suma la verificación: contrastar con fuentes, revisar coherencia interna, detectar afirmaciones sin respaldo, corregir errores conceptuales y de citación. La trazabilidad: dejar registro de qué aportó la IA, qué cambió el estudiante, y por qué lo cambió es otro criterio que podemos aplicar en clases. Otro criterio es el uso ético: no delegar el juicio académico, no ocultar la mediación de la herramienta, cuidar datos y evitar atajos que terminen en plagio o en trabajo sin comprensión.

En un trabajo anterior denominado “El Viejo y el mar como simulador de toma de decisiones con inteligencia artificial en educación superior” y que puede leer desde aquí comentamos como a partir del análisis de una obra literaria o científica podemos emplear la IA siguiendo un grupo de reglas que culminan con un registro de evidencias que el estudiante debe presentar. Sí seguimos este camino es el estudiante el responsable de desafiar la IA y no al revés como suele suceder.

Cuando las ideas anteriores se convierten en el centro del curso, aparece una consecuencia directa: el programa deja de quebrarse cuando cambia la herramienta. En lugar de enseñar una aplicación como contenido principal, se enseña una práctica académica con mediación de IA. La herramienta se trabaja como ejemplo y se puede sustituir sin reescribir el diseño didáctico.

Un ejemplo en Ciencias de la Educación lo muestra con claridad. En una asignatura que imparto, los estudiantes deben crear el sistema de evaluación de una asignatura. Hasta aquí parece sencilla la tarea, pero no es así. Ellos tienen que empezar por crear una institución escolar, diseñar su estructura, seleccionar las facultades, carreras y en una de ellas describir todas las asignaturas. Al principio se copian todo de la IA, pero en la medida en que van presentando públicamente sus resultados, deben volver al inicio para rediseñar todo con su propio criterio. Con un enfoque centrado en herramienta, el estudiante aprende a trabajar con la herramienta, pero no aprende a crear el sistema de evaluación exigido.

Por el contrario, al enfocarnos en las competencias, el estudiante debe definir el desempeño, justificar los criterios, construir niveles, proponer evidencias, anticipar errores, y utilizar la IA para revisar consistencia, sugerir redacción, proponer variantes y detectar ambigüedades. La evidencia evaluable no es la habilidad de navegar la interfaz, es la calidad del instrumento y la solidez de las decisiones que lo sustentan. Si mañana cambian las plataformas, la tarea sigue siendo la misma, y el aprendizaje también.

Este modo de diseñar reduce un riesgo frecuente en la formación con IA: la fatiga por actualización permanente y la sobreexposición a novedades. Al poner el énfasis en criterios pedagógicos, el estudiante aprende a decidir cuándo un cambio tecnológico requiere reentrenamiento y cuándo solo exige adaptación menor. Aprende a sostener un criterio de calidad por encima del entusiasmo por lo nuevo. En educación superior, esa estabilidad es pedagógicamente deseable: permite profundidad, continuidad de desempeño y evaluación más justa.

A manera de conclusión.

La sensación de no ver el final con la IA suele aparecer cuando se confunde el objetivo con el dominio de un producto. Si la meta es aprender herramientas, siempre habrá reinicio porque el ecosistema cambia sin pausa. Si la meta es construir capacidades transferibles, el cambio tecnológico deja de invalidar el aprendizaje. La docencia universitaria gana consistencia cuando evalúa desempeño intelectual mediado por IA: formular problemas, dialogar con criterio, verificar, justificar, documentar y actuar con responsabilidad. El final no es dominar una IA. El final es sostener un trabajo académico riguroso, aunque la herramienta cambie.