En colaboración con Mercedes Leticia Sánchez Ambriz
No te pierdas el podcast con un resumen del informe del WEF
En DAVOS se celebró el
Foro Económico Mundial, donde el debate sobre la IA ocupó gran parte de las
sesiones y de los informes. En el artículo anterior: De
la discusión a la aplicación de la IA se hizo referencia a cómo la IA pasó
de ser una novedad, a generar un impacto tangible. El debate sobre inteligencia
artificial en educación suele quedarse en herramientas, tutoriales y promesas
de productividad. El problema es que el empleo real de la IA se está moviendo a
nivel de flujos de trabajo, modelos de negocio y cadenas de valor. Esa escala
cambia la conversación educativa: ya no basta con enseñar a usar
aplicaciones, hay que preparar a los estudiantes para desempeñarse en contextos
laborales que pueden evolucionar en direcciones muy distintas.
Un insumo útil para
pensar esto con rigor es el documento del World Economic Forum Four
Futures for Jobs in the New Economy: AI and Talent in 2030 (enero de 2026).
Plantea cuatro escenarios construidos con dos variables: el ritmo de avance de
la IA (exponencial o incremental) y la preparación del talento (alta o
limitada). El valor del enfoque no está en “adivinar” el futuro, sino en
diseñar decisiones educativas que sean robustas ante más de un futuro posible.
Cuatro futuros para el
trabajo y lo que revelan sobre la educación
El documento parte de un
dato que ya debería incomodar a cualquier universidad: en la opinión de
ejecutivos encuestados por el WEF, 54 % espera que la IA desplace empleos
existentes y un 24 % cree que creará nuevos empleos; además, un 44,6 % anticipa
aumento de márgenes, pero solo un 12 % espera mejoras salariales. Esa combinación
sugiere que la discusión sobre “empleabilidad” no puede ser ingenua: puede
haber productividad sin bienestar distribuido.
El WEF describe cuatro
escenarios.
Supercharged Progress. Avances exponenciales con alta preparación del
talento. Se masifican agentes y flujos de trabajo de alta autonomía. El trabajo
humano migra desde ejecutar tareas hacia diseñar, supervisar y orquestar
ecosistemas habilitados por IA. Aparecen ocupaciones nuevas con rapidez, pero
los marcos éticos y de gobernanza quedan tensionados por la velocidad del
cambio.
The Age of
Displacement. Avances
exponenciales con baja preparación del talento. La automatización se vuelve más
barata que la formación masiva, y el desplazamiento supera la capacidad de
reconversión. La economía acelera tecnológicamente, pero se fractura
socialmente: desempleo, caída de confianza, presión fiscal y expansión de
desinformación y manipulación.
Co Pilot Economy. Avances graduales con alta preparación del
talento. Se consolida la lógica de aumento, con equipos humanos IA, rediseño
incremental de tareas y foco en integración pragmática. La clave aquí es que la
productividad mejora sin un shock de automatización masiva, pero el riesgo es
la dependencia sistémica y la erosión del juicio humano si no se define qué
queda bajo control humano.
Stalled Progress. Avances graduales con baja preparación del
talento. La IA progresa, sin embargo con limitaciones, costos y adopción desigual. Las
organizaciones automatizan para “rellenar” escasez de talento; se ensanchan
brechas de competitividad y se estrechan rutas de entrada laboral, sobre todo
en empleos tempranos y tareas administrativas.
Dos señales del informe
conectan directamente con la universidad. La primera: el uso empresarial de IA
en al menos una función pasó de un 55 % en 2022 a un 88 % en las estimaciones más
recientes citadas por el WEF. La adopción ya no es marginal. La segunda:
LinkedIn estima que la demanda de habilidades de alfabetización en IA creció un 70 % entre 2024 y 2025. Esto coloca presión inmediata sobre planes de estudio,
prácticas docentes y evaluación.
Si se lee el informe
desde la educación superior, aparece una idea central: el “objeto” de formación
cambia. No es solo conocimiento disciplinar ni solo destrezas digitales. Es
competencia para trabajar con sistemas de IA en tareas reales, con criterio,
control de calidad, trazabilidad, ética y capacidad de aprendizaje continuo.
Esto exige un giro metodológico: pasar de enseñar respuestas a enseñar
preguntas, pruebas, contrastación y toma de decisiones.
¿Qué puede hacer la
universidad desde hoy?
El WEF propone
estrategias empresariales “no regret”, útiles porque funcionan en los
cuatro escenarios: experimentar en pequeño y escalar lo que funciona; alinear
tecnología y talento; invertir en colaboración humano IA y flujos agentivos;
fortalecer gobernanza y datos; anticipar necesidades de talento; construir
cultura y confianza; diseñar flujos multigeneracionales; apoyarse en alianzas.
Traducidas a educación superior, estas estrategias se convierten en decisiones
curriculares, didácticas y evaluativas.
Una ruta universitaria
robusta puede organizarse en cinco decisiones concretas.
La primera es
definir alfabetización en IA como competencia verificable, no como charla. El
informe reconoce que no existe una medida global estandarizada de “AI
literacy”, lo cual abre un campo de trabajo para docentes: operacionalizarla en
desempeños observables. En este contexto, puede expresarse como capacidad de
formular prompts con intención cognitiva clara, verificar con fuentes, detectar
alucinaciones, documentar el proceso y justificar decisiones.
La segunda es rediseñar
tareas académicas para que obliguen a pensar, no a copiar. El riesgo
educativo más visible hoy es la aitoxicación: exposición acrítica que produce
dependencia y empobrecimiento del juicio. La respuesta no es prohibición
general, sino diseño didáctico que exija evidencia del proceso. Por
ejemplo, pedir bitácoras de interacción, contrastación con lecturas,
comparación de alternativas, y explicación de por qué se eligió una salida y se
rechazó otra.
La tercera es mover
la evaluación hacia desempeño con criterios de calidad. Si el trabajo se
desplaza desde ejecutar a supervisar ecosistemas con IA, entonces evaluar debe
incluir: calidad de la pregunta, calidad de la verificación, consistencia
argumental, ética de uso, y metacognición. Bloom aquí es útil como andamiaje:
usar la IA para recordar y comprender puede ser el inicio, pero la evidencia
evaluativa debe ubicarse en analizar, evaluar y crear. Esto reduce el incentivo
de “copiar y pegar” y aumenta el valor del pensamiento crítico.
La cuarta es introducir
colaboración humano IA como práctica cultural, no como truco. El informe
insiste en que el futuro no lo define la tecnología sola, sino la estrategia de
capital humano. En aula, esto se traduce en enseñar roles: quién formula, quién
valida, quién audita sesgos, quién redacta, quién edita, quién cita. La IA
entra como copiloto o como agente bajo supervisión, pero siempre con dueño
humano responsable.
La quinta es construir
alianzas y curación de contenidos como infraestructura académica. Si
herramientas y modelos cambian, la universidad necesita curar: repositorios de
prompts validados por asignatura, rúbricas comunes, protocolos de citación y
transparencia, y bancos de casos locales. Esto convierte la innovación en
sistema y no en improvisación.
A modo de conclusión.
Los cuatro escenarios del
WEF no son un ejercicio futurista para entretenerse: son un mapa para evitar
errores caros. El error uno es formar para un solo futuro. El error dos es
confundir uso de herramientas con competencia profesional. La universidad que
quiera sostener pertinencia hacia 2030 necesita decisiones que funcionen tanto
si la IA acelera como si se estanca, tanto si el talento se adapta como si
queda rezagado. Esa robustez se construye en el diseño de tareas, en la
evaluación, en la cultura de verificación, y en la formación del juicio crítico.
No hay comentarios:
Publicar un comentario