En colaboración con Mercedes Leticia Sánchez Ambriz
Si tienes prisa, escucha el pódcast del artículo
La inseguridad, la confusión y el temor
han acompañado en muchas ocasiones numerosos inventos tecnológicos de la
historia. Desde la imprenta hasta la inteligencia artificial (IA), muchas
innovaciones que prometieron mejorar la vida humana también despertaron recelo.
La tecnofobia, entendida como el temor o aversión hacia las nuevas tecnologías,
se mantiene vigente en esta década. En el blog comentamos varias veces sobre
este problema, al referirnos al dilema
de quedarnos o transformarnos, o también la necesidad de
girar 180 grados en nuestra visión sobre la IA. Sin embargo, ese miedo
puede ser reemplazado por comprensión cuando se dispone de evidencia científica
sobre lo que realmente puede y no puede hacer la IA.
El pasado 5 de octubre se hizo público el estudio GDPval: Evaluating AI
Model Performance on Real-World Economically Valuable Tasks (OpenAI, 2025) el
que representa un paso decisivo en esta dirección. En el mismo se da a conocer
la evaluación del rendimiento de modelos de inteligencia artificial en tareas
económicas reales, permitiendo medir su eficacia no desde la especulación, sino
desde datos verificables. Este enfoque no solo aporta conocimiento técnico,
sino también lecciones pedagógicas sobre cómo aprender, enseñar y pensar con la
IA.
El proyecto GDPval examinó 44
ocupaciones de los nueve sectores más relevantes del PIB estadounidense,
abarcando manufactura, educación, salud, finanzas y servicios profesionales.
Cada tarea fue diseñada y revisada por especialistas con más de una década de
experiencia, garantizando que los resultados reflejaran contextos de trabajo
auténticos.
Captura del documento
Los resultados del estudio demuestran
que los modelos más avanzados, como GPT-5 y Claude Opus 4.1, alcanzaron un
desempeño comparable o superior al de profesionales humanos en casi la mitad de
las tareas evaluadas. Además, completaron las actividades en menos tiempo y con
menor costo. Sin embargo, los mejores resultados se produjeron cuando la IA
trabajó bajo supervisión humana, lo que sugiere que la combinación entre la
inteligencia humana y la artificial ofrece una unidad más productiva que el
trabajo aislado de cualquiera de las dos.
Este descubrimiento desmitifica la idea de sustitución laboral: los modelos no
reemplazan a las personas, sino que reconfiguran las funciones humanas hacia
tareas de análisis, creatividad y toma de decisiones. La clave no es competir
con la máquina, sino aprender a dirigirla.
La investigación también mostró
que la efectividad de los modelos depende de la claridad y estructura de las
tareas. Cuando las instrucciones son ambiguas o el contexto insuficiente,
la IA produce errores o interpretaciones superficiales. En cambio, cuando las
preguntas son precisas y el proceso está bien diseñado, el modelo logra
resultados consistentes y útiles.
El valor de
la pregunta
Estas conclusiones trasladadas al
campo educativo fortalecen la idea de que enseñar a preguntar es más relevante
que enseñar a responder. El docente debe guiar a los estudiantes en la
formulación de prompts estructurados, en la evaluación de la calidad de las
respuestas y en la comprensión de los límites éticos de la tecnología. La IA no
sustituye la reflexión pedagógica, la desafía a renovarse.
Todos nos preguntamos: ¿Cómo
enseñar a los estudiantes a trabajar con IA desde una mirada crítica y estructurada?
Tres ideas pueden ayudarnos
Idea 1: del razonamiento extendido al
pensamiento crítico guiado
Del informe rescatamos los modelos
(LLM) funcionan mejor cuando razonan paso a paso. En educación, esto se
traduce en promover el pensamiento crítico guiado, invitando al estudiante a
pedirle a la IA que explique sus procesos o justifique sus decisiones: ‘Explica
cómo llegaste a esa conclusión’ o ‘Compara dos soluciones y argumenta cuál es
más adecuada’. Así, la IA se convierte en un socio cognitivo, no en una fuente
pasiva de respuestas. Un ejemplo que comentamos en el blog fue el De
googlear con la IA al diálogo mediado y la Medición
de interacciones en SocarticLab entre otros trabajos.
Idea 2: del contexto ampliado a la curación
de información
La IA mejora cuando recibe más
información relevante. De modo análogo, el estudiante debe aprender a
contextualizar y curar los contenidos antes de consultar. Ofrecer ejemplos,
definir audiencias y precisar objetivos son pasos esenciales. Un buen prompt educativo
contextualiza, orienta y delimita. El contexto se diseña; no se improvisa. En
este apartado es importante la personalización de la IA. En el caso de ChatGPT
en varios artículos hemos demostrado la importancia de su personalización
adecuada, así como la de los proyectos.
Idea 3: Del andamiaje técnico al
acompañamiento pedagógico
El scaffolding técnico al que se
refiere el artículo, no es más que estructurar una tarea en subtareas. Se puede
entender como se refleja el principio vygotskiano de la zona de desarrollo
próximo. El docente puede trasladar este principio al diseño de interacciones
con IA: primero solicitar una definición, luego un ejemplo práctico, y
finalmente un caso crítico para analizar. La IA se convierte así en parte del
proceso de aprendizaje gradual y reflexivo, donde el profesor sigue siendo
mediador y garante del sentido educativo.
El estudio de OpenAI demuestra que
el rendimiento de la inteligencia artificial depende de la guía humana tanto
como de su arquitectura técnica. En la economía, esta sinergia se traduce en
productividad responsable; en la educación, en pensamiento crítico,
contextualización y acompañamiento pedagógico.
Superar la tecnofobia requiere pasar del miedo a la comprensión, del uso
mecánico a la reflexión, y de la dependencia tecnológica al dominio ético y
creativo. Cuando los estudiantes aprenden a razonar, contextualizar y
estructurar sus interacciones con la IA, no solo obtienen mejores respuestas:
aprenden a pensar con tecnología sin perder la centralidad de lo humano.
Referencia
OpenAI (2025). GDPval: Evaluating
AI Model Performance on Real-World Economically Valuable Tasks. Disponible en:
https://arxiv.org/html/2510.04374v1
Nota: GDPval es un benchmark desarrollado por OpenAI para evaluar el rendimiento de modelos de IA en tareas económicamente valiosas del mundo real. Un benchmark es un punto de referencia o estándar de medición que se utiliza para evaluar y comparar el rendimiento, las capacidades o la calidad de algo. En el contexto de la inteligencia artificial, un benchmark es un conjunto estandarizado de pruebas o tareas que permite medir qué tan bien funcionan diferentes modelos de IA.
No hay comentarios:
Publicar un comentario