viernes, 10 de octubre de 2025

De la inseguridad a la evidencia: comprender la inteligencia artificial desde la economía y la educación

 

En colaboración con Mercedes Leticia Sánchez Ambriz

Si tienes prisa, escucha el pódcast del artículo

La inseguridad, la confusión y el temor han acompañado en muchas ocasiones numerosos inventos tecnológicos de la historia. Desde la imprenta hasta la inteligencia artificial (IA), muchas innovaciones que prometieron mejorar la vida humana también despertaron recelo. La tecnofobia, entendida como el temor o aversión hacia las nuevas tecnologías, se mantiene vigente en esta década. En el blog comentamos varias veces sobre este problema, al referirnos al dilema de quedarnos o transformarnos, o también la necesidad de girar 180 grados en nuestra visión sobre la IA. Sin embargo, ese miedo puede ser reemplazado por comprensión cuando se dispone de evidencia científica sobre lo que realmente puede y no puede hacer la IA.

El pasado 5 de octubre se hizo público el estudio GDPval: Evaluating AI Model Performance on Real-World Economically Valuable Tasks (OpenAI, 2025) el que representa un paso decisivo en esta dirección. En el mismo se da a conocer la evaluación del rendimiento de modelos de inteligencia artificial en tareas económicas reales, permitiendo medir su eficacia no desde la especulación, sino desde datos verificables. Este enfoque no solo aporta conocimiento técnico, sino también lecciones pedagógicas sobre cómo aprender, enseñar y pensar con la IA.

El proyecto GDPval examinó 44 ocupaciones de los nueve sectores más relevantes del PIB estadounidense, abarcando manufactura, educación, salud, finanzas y servicios profesionales. Cada tarea fue diseñada y revisada por especialistas con más de una década de experiencia, garantizando que los resultados reflejaran contextos de trabajo auténticos.

Interfaz de usuario gráfica, Texto, Aplicación, Sitio web

El contenido generado por IA puede ser incorrecto.

Captura del documento

Los resultados del estudio demuestran que los modelos más avanzados, como GPT-5 y Claude Opus 4.1, alcanzaron un desempeño comparable o superior al de profesionales humanos en casi la mitad de las tareas evaluadas. Además, completaron las actividades en menos tiempo y con menor costo. Sin embargo, los mejores resultados se produjeron cuando la IA trabajó bajo supervisión humana, lo que sugiere que la combinación entre la inteligencia humana y la artificial ofrece una unidad más productiva que el trabajo aislado de cualquiera de las dos.

Este descubrimiento desmitifica la idea de sustitución laboral: los modelos no reemplazan a las personas, sino que reconfiguran las funciones humanas hacia tareas de análisis, creatividad y toma de decisiones. La clave no es competir con la máquina, sino aprender a dirigirla.

La investigación también mostró que la efectividad de los modelos depende de la claridad y estructura de las tareas. Cuando las instrucciones son ambiguas o el contexto insuficiente, la IA produce errores o interpretaciones superficiales. En cambio, cuando las preguntas son precisas y el proceso está bien diseñado, el modelo logra resultados consistentes y útiles.

El valor de la pregunta

Estas conclusiones trasladadas al campo educativo fortalecen la idea de que enseñar a preguntar es más relevante que enseñar a responder. El docente debe guiar a los estudiantes en la formulación de prompts estructurados, en la evaluación de la calidad de las respuestas y en la comprensión de los límites éticos de la tecnología. La IA no sustituye la reflexión pedagógica, la desafía a renovarse.

Todos nos preguntamos: ¿Cómo enseñar a los estudiantes a trabajar con IA desde una mirada crítica y estructurada? Tres ideas pueden ayudarnos

Idea 1: del razonamiento extendido al pensamiento crítico guiado

Del informe rescatamos los modelos (LLM) funcionan mejor cuando razonan paso a paso. En educación, esto se traduce en promover el pensamiento crítico guiado, invitando al estudiante a pedirle a la IA que explique sus procesos o justifique sus decisiones: ‘Explica cómo llegaste a esa conclusión’ o ‘Compara dos soluciones y argumenta cuál es más adecuada’. Así, la IA se convierte en un socio cognitivo, no en una fuente pasiva de respuestas. Un ejemplo que comentamos en el blog fue el De googlear con la IA al diálogo mediado y la Medición de interacciones en SocarticLab entre otros trabajos.  

Idea 2: del contexto ampliado a la curación de información

La IA mejora cuando recibe más información relevante. De modo análogo, el estudiante debe aprender a contextualizar y curar los contenidos antes de consultar. Ofrecer ejemplos, definir audiencias y precisar objetivos son pasos esenciales. Un buen prompt educativo contextualiza, orienta y delimita. El contexto se diseña; no se improvisa. En este apartado es importante la personalización de la IA. En el caso de ChatGPT en varios artículos hemos demostrado la importancia de su personalización adecuada, así como la de los proyectos.

Idea 3: Del andamiaje técnico al acompañamiento pedagógico

El scaffolding técnico al que se refiere el artículo, no es más que estructurar una tarea en subtareas. Se puede entender como se refleja el principio vygotskiano de la zona de desarrollo próximo. El docente puede trasladar este principio al diseño de interacciones con IA: primero solicitar una definición, luego un ejemplo práctico, y finalmente un caso crítico para analizar. La IA se convierte así en parte del proceso de aprendizaje gradual y reflexivo, donde el profesor sigue siendo mediador y garante del sentido educativo.

El estudio de OpenAI demuestra que el rendimiento de la inteligencia artificial depende de la guía humana tanto como de su arquitectura técnica. En la economía, esta sinergia se traduce en productividad responsable; en la educación, en pensamiento crítico, contextualización y acompañamiento pedagógico.

Superar la tecnofobia requiere pasar del miedo a la comprensión, del uso mecánico a la reflexión, y de la dependencia tecnológica al dominio ético y creativo. Cuando los estudiantes aprenden a razonar, contextualizar y estructurar sus interacciones con la IA, no solo obtienen mejores respuestas: aprenden a pensar con tecnología sin perder la centralidad de lo humano.

Referencia

OpenAI (2025). GDPval: Evaluating AI Model Performance on Real-World Economically Valuable Tasks. Disponible en: https://arxiv.org/html/2510.04374v1

Nota: GDPval es un benchmark desarrollado por OpenAI para evaluar el rendimiento de modelos de IA en tareas económicamente valiosas del mundo real. Un benchmark es un punto de referencia o estándar de medición que se utiliza para evaluar y comparar el rendimiento, las capacidades o la calidad de algo. En el contexto de la inteligencia artificial, un benchmark es un conjunto estandarizado de pruebas o tareas que permite medir qué tan bien funcionan diferentes modelos de IA.

No hay comentarios:

Publicar un comentario