viernes, 13 de febrero de 2026

Cuatro futuros del trabajo con IA hacia 2030 y lo que la universidad debe decidir ahora

En colaboración con Mercedes Leticia Sánchez Ambriz

No te pierdas el podcast con un resumen del informe del WEF

En DAVOS se celebró el Foro Económico Mundial, donde el debate sobre la IA ocupó gran parte de las sesiones y de los informes. En el artículo anterior: De la discusión a la aplicación de la IA se hizo referencia a cómo la IA pasó de ser una novedad, a generar un impacto tangible. El debate sobre inteligencia artificial en educación suele quedarse en herramientas, tutoriales y promesas de productividad. El problema es que el empleo real de la IA se está moviendo a nivel de flujos de trabajo, modelos de negocio y cadenas de valor. Esa escala cambia la conversación educativa: ya no basta con enseñar a usar aplicaciones, hay que preparar a los estudiantes para desempeñarse en contextos laborales que pueden evolucionar en direcciones muy distintas.

Un insumo útil para pensar esto con rigor es el documento del World Economic Forum Four Futures for Jobs in the New Economy: AI and Talent in 2030 (enero de 2026). Plantea cuatro escenarios construidos con dos variables: el ritmo de avance de la IA (exponencial o incremental) y la preparación del talento (alta o limitada). El valor del enfoque no está en “adivinar” el futuro, sino en diseñar decisiones educativas que sean robustas ante más de un futuro posible.

Cuatro futuros para el trabajo y lo que revelan sobre la educación

El documento parte de un dato que ya debería incomodar a cualquier universidad: en la opinión de ejecutivos encuestados por el WEF, 54 % espera que la IA desplace empleos existentes y un 24 % cree que creará nuevos empleos; además, un 44,6 % anticipa aumento de márgenes, pero solo un 12 % espera mejoras salariales. Esa combinación sugiere que la discusión sobre “empleabilidad” no puede ser ingenua: puede haber productividad sin bienestar distribuido.

El WEF describe cuatro escenarios.

Supercharged Progress. Avances exponenciales con alta preparación del talento. Se masifican agentes y flujos de trabajo de alta autonomía. El trabajo humano migra desde ejecutar tareas hacia diseñar, supervisar y orquestar ecosistemas habilitados por IA. Aparecen ocupaciones nuevas con rapidez, pero los marcos éticos y de gobernanza quedan tensionados por la velocidad del cambio.

The Age of Displacement. Avances exponenciales con baja preparación del talento. La automatización se vuelve más barata que la formación masiva, y el desplazamiento supera la capacidad de reconversión. La economía acelera tecnológicamente, pero se fractura socialmente: desempleo, caída de confianza, presión fiscal y expansión de desinformación y manipulación.

Co Pilot Economy. Avances graduales con alta preparación del talento. Se consolida la lógica de aumento, con equipos humanos IA, rediseño incremental de tareas y foco en integración pragmática. La clave aquí es que la productividad mejora sin un shock de automatización masiva, pero el riesgo es la dependencia sistémica y la erosión del juicio humano si no se define qué queda bajo control humano.

Stalled Progress. Avances graduales con baja preparación del talento. La IA progresa, sin embargo con limitaciones, costos y adopción desigual. Las organizaciones automatizan para “rellenar” escasez de talento; se ensanchan brechas de competitividad y se estrechan rutas de entrada laboral, sobre todo en empleos tempranos y tareas administrativas.

Dos señales del informe conectan directamente con la universidad. La primera: el uso empresarial de IA en al menos una función pasó de un 55 % en 2022 a un 88 % en las estimaciones más recientes citadas por el WEF. La adopción ya no es marginal. La segunda: LinkedIn estima que la demanda de habilidades de alfabetización en IA creció un 70 % entre 2024 y 2025. Esto coloca presión inmediata sobre planes de estudio, prácticas docentes y evaluación.

Si se lee el informe desde la educación superior, aparece una idea central: el “objeto” de formación cambia. No es solo conocimiento disciplinar ni solo destrezas digitales. Es competencia para trabajar con sistemas de IA en tareas reales, con criterio, control de calidad, trazabilidad, ética y capacidad de aprendizaje continuo. Esto exige un giro metodológico: pasar de enseñar respuestas a enseñar preguntas, pruebas, contrastación y toma de decisiones.

¿Qué puede hacer la universidad desde hoy?

El WEF propone estrategias empresariales “no regret”, útiles porque funcionan en los cuatro escenarios: experimentar en pequeño y escalar lo que funciona; alinear tecnología y talento; invertir en colaboración humano IA y flujos agentivos; fortalecer gobernanza y datos; anticipar necesidades de talento; construir cultura y confianza; diseñar flujos multigeneracionales; apoyarse en alianzas. Traducidas a educación superior, estas estrategias se convierten en decisiones curriculares, didácticas y evaluativas.

Una ruta universitaria robusta puede organizarse en cinco decisiones concretas.

La primera es definir alfabetización en IA como competencia verificable, no como charla. El informe reconoce que no existe una medida global estandarizada de “AI literacy”, lo cual abre un campo de trabajo para docentes: operacionalizarla en desempeños observables. En este contexto, puede expresarse como capacidad de formular prompts con intención cognitiva clara, verificar con fuentes, detectar alucinaciones, documentar el proceso y justificar decisiones.

La segunda es rediseñar tareas académicas para que obliguen a pensar, no a copiar. El riesgo educativo más visible hoy es la aitoxicación: exposición acrítica que produce dependencia y empobrecimiento del juicio. La respuesta no es prohibición general, sino diseño didáctico que exija evidencia del proceso. Por ejemplo, pedir bitácoras de interacción, contrastación con lecturas, comparación de alternativas, y explicación de por qué se eligió una salida y se rechazó otra.

La tercera es mover la evaluación hacia desempeño con criterios de calidad. Si el trabajo se desplaza desde ejecutar a supervisar ecosistemas con IA, entonces evaluar debe incluir: calidad de la pregunta, calidad de la verificación, consistencia argumental, ética de uso, y metacognición. Bloom aquí es útil como andamiaje: usar la IA para recordar y comprender puede ser el inicio, pero la evidencia evaluativa debe ubicarse en analizar, evaluar y crear. Esto reduce el incentivo de “copiar y pegar” y aumenta el valor del pensamiento crítico.

La cuarta es introducir colaboración humano IA como práctica cultural, no como truco. El informe insiste en que el futuro no lo define la tecnología sola, sino la estrategia de capital humano. En aula, esto se traduce en enseñar roles: quién formula, quién valida, quién audita sesgos, quién redacta, quién edita, quién cita. La IA entra como copiloto o como agente bajo supervisión, pero siempre con dueño humano responsable.

La quinta es construir alianzas y curación de contenidos como infraestructura académica. Si herramientas y modelos cambian, la universidad necesita curar: repositorios de prompts validados por asignatura, rúbricas comunes, protocolos de citación y transparencia, y bancos de casos locales. Esto convierte la innovación en sistema y no en improvisación.

A modo de conclusión.

Los cuatro escenarios del WEF no son un ejercicio futurista para entretenerse: son un mapa para evitar errores caros. El error uno es formar para un solo futuro. El error dos es confundir uso de herramientas con competencia profesional. La universidad que quiera sostener pertinencia hacia 2030 necesita decisiones que funcionen tanto si la IA acelera como si se estanca, tanto si el talento se adapta como si queda rezagado. Esa robustez se construye en el diseño de tareas, en la evaluación, en la cultura de verificación, y en la formación del juicio crítico.

 

No hay comentarios:

Publicar un comentario