miércoles, 29 de abril de 2026

Textos inteligentes con pensamiento ausente: el nuevo reto educativo

Una reflexión desde las habilidades cognitivo-lingüísticas

En colaboración con Mercedes Leticia Sánchez Ambriz

La expansión de la inteligencia artificial en la educación ha cambiado rápidamente la forma en que los estudiantes escriben, estudian y resuelven tareas. Hoy es común discutir qué herramientas usar, cómo integrarlas en clase o cómo evaluar productos generados con su ayuda. Sin embargo, en medio de ese debate práctico, hay una pregunta más profunda que suele quedar en segundo plano:

¿Cómo saber si un estudiante realmente está pensando cuando dialoga con la inteligencia artificial?

El problema no es menor. Actualmente es posible generar textos claros, bien estructurados e incluso convincentes en cuestión de segundos. Pero que un texto “suene bien” no significa necesariamente que quien lo presenta haya comprendido lo que dice, aun cuando “dialogó con la IA”. Durante mucho tiempo, escribir fue una forma de evidenciar el pensamiento: organizar ideas, argumentar o explicar, implicaba necesariamente entender. Hoy, esa relación ya no es tan evidente.

Esto nos obliga a cambiar el enfoque. El reto educativo no es detectar si un texto fue creado con inteligencia artificial, sino identificar qué tipo de pensamiento humano hay detrás de él. En otras palabras, pasar de evaluar el producto a analizar el proceso.

Para abordar esta cuestión, resulta pertinente recuperar la propuesta de Jorba, Gómez y Prat, quienes plantean una gradación de habilidades; describir, explicar, justificar y argumentar, que permite analizar el discurso no solo como producto, sino como evidencia del pensamiento (Jorba et al., 2000).

Este marco permite no solo clasificar los textos según su nivel de complejidad, sino también identificar posibles desajustes entre la forma del discurso y el pensamiento que lo sustenta. Es precisamente en este punto donde emerge un fenómeno particularmente relevante en contextos mediados por inteligencia artificial.

Ilusión cognitiva

En este contexto aparece un fenómeno interesante: textos que parecen complejos, pero no necesariamente lo son en términos cognitivos. A esto podemos llamarlo ilusión cognitiva. Se trata de escritos que utilizan conectores adecuados, vocabulario académico y estructuras bien organizadas, explicaciones e incluso argumentos, pero que no muestran una demostración real del tema. Es decir, el texto simula pensamiento humano sin que necesariamente haya ocurrido.

Cada día vemos estudiantes que muestran párrafos donde explican causas y consecuencias, pero cuando se le pide profundizar, comparar o justificar, no logra sostener lo que escribió. El texto funciona, pero su pensamiento no está del todo ahí.

Esto no significa que la inteligencia artificial sea el problema. Más bien revela algo importante: ahora es posible producir formas de pensamiento sin recorrer completamente el proceso que las origina.

Estudios recientes advierten que el uso acrítico de sistemas generativos puede favorecer respuestas superficiales si no se acompaña de procesos reflexivos y metacognitivos (Luckin et al., 2022; Holmes et al., 2023).

Una propuesta analítica

La gradación propuesta por Jorba, Gómez y Prat permite establecer un criterio fino para analizar el nivel cognitivo del discurso.

Describir implica enumerar características sin establecer relaciones causales explícitas. Explicar introduce relaciones de causa y efecto, organizando el conocimiento. Justificar supone validar una afirmación mediante razones sustentadas en un marco teórico. Argumentar, finalmente, implica persuadir a un destinatario, anticipar objeciones y posicionarse críticamente.

Esta gradación no solo clasifica textos; permite identificar niveles diferenciados de construcción del conocimiento, lo cual resulta especialmente relevante en entornos mediados por IA.

Uno de los efectos más relevantes del uso de inteligencia artificial en la producción textual es la aparición de lo que puede denominarse hiperformalización del discurso, que puede revisar en este post.

Se trata de textos que presentan coherencia estructural, uso adecuado de conectores y organización lógica, pero carecen de profundidad conceptual o validación epistémica. En estos casos, la IA facilita la producción de formas discursivas complejas sin exigir el desarrollo equivalente de las habilidades cognitivas que las sustentan.

Este fenómeno se vincula con lo que Neil Selwyn denomina “automatización del conocimiento aparente”, donde la tecnología produce resultados que simulan comprensión sin garantizarla (Selwyn, 2019).

La sintaxis algorítmica como mediación del pensamiento

La interacción con inteligencia artificial está mediada por lenguaje. Aquí emerge la noción de sintaxis algorítmica: la capacidad de estructurar instrucciones que orienten el tipo de operación cognitiva activada.

No es lo mismo solicitar “describe un fenómeno” que “argumenta con base en evidencia considerando un contexto específico”. La calidad de la respuesta depende, en gran medida, del nivel cognitivo que se demanda en la indicación.

En este sentido, la IA no sustituye el pensamiento, sino que lo refleja en función de la calidad del lenguaje que la activa, lo cual coincide con enfoques que destacan el papel del andamiaje lingüístico en la construcción del conocimiento (Vygotsky, 1978).

Si la calidad del discurso depende tanto del nivel cognitivo solicitado como de la interacción con la herramienta, entonces la evaluación tradicional centrada en el producto resulta insuficiente.

Implicaciones para la evaluación en el aula (versión ampliada)

La incorporación de inteligencia artificial en los procesos de enseñanza obliga a replantear profundamente los criterios de evaluación. Si un texto puede ser generado con alta calidad formal mediante IA, entonces la evaluación basada exclusivamente en el producto pierde validez como indicador del aprendizaje.

En este contexto, resulta necesario transitar hacia una evaluación centrada en el proceso cognitivo, lo cual implica al menos cuatro dimensiones analíticas:

1. Nivel cognitivo del discurso

El primer criterio consiste en identificar si el estudiante describe, explica, justifica o argumenta. Esta distinción permite evitar la sobrevaloración de textos que, aunque bien estructurados, no alcanzan niveles superiores de pensamiento.

2. Coherencia entre consigna y producción

No basta con que el texto sea correcto; es necesario analizar si responde al nivel cognitivo solicitado. Por ejemplo, una tarea que exige argumentar no puede ser satisfecha con una explicación ampliada.

3. Interacción con la IA

El proceso de interacción se vuelve objeto de evaluación. Esto incluye:

  • tipo de prompts utilizados,
  • iteraciones realizadas,
  • capacidad de reformulación.

Este enfoque se alinea con propuestas recientes de evaluación auténtica y analítica del aprendizaje en entornos digitales (Redecker & Punie, 2017).

Pensar también es saber pedir

El uso de inteligencia artificial no es automático ni neutral. Depende de cómo se use. Aquí entra en juego algo que podríamos llamar sintaxis algorítmica: la manera en que formulamos instrucciones para obtener respuestas.

No es lo mismo pedir:

  • “explica este tema” que
  • “argumenta esta idea considerando un contexto específico y posibles objeciones”.

La calidad de la respuesta depende, en gran medida, de la calidad de la pregunta. Y formular buenas preguntas también es una forma de pensar.

Por eso, el uso educativo de la inteligencia artificial no debería centrarse solo en lo que produce, sino en cómo se interactúa con ella.

En este sentido, evaluar implica observar si el estudiante logra trascender la respuesta generada y construir una voz propia.

Entonces, ¿cómo saber si hay pensamiento?

No hay una respuesta única, pero sí algunas pistas:

  • Cuando el estudiante puede explicar con sus propias palabras, no solo reproducir.
  • Cuando puede relacionar ideas y no solo enumerarlas.
  • Cuando logra justificar lo que afirma, apoyándose en conceptos o teorías.
  • Cuando es capaz de tomar una posición y sostenerla.

En cambio, cuando el texto es correcto pero no se puede profundizar en él, es probable que estemos frente a una ilusión cognitiva.

Una pregunta más importante que la tecnología

La inteligencia artificial no elimina la necesidad de pensar. Pero sí cambia las condiciones en las que el pensamiento se expresa.

Por eso, quizá la pregunta más relevante ya no es:
¿El estudiante usó inteligencia artificial?

Sino más bien:
¿Qué tipo de pensamiento hay en lo que presenta?

Y, sobre todo:
¿sigue pensando mientras la usa?

Conclusiones

La integración de inteligencia artificial en educación no redefine únicamente las herramientas disponibles, sino que cuestiona los criterios con los que históricamente se ha identificado el aprendizaje.

En un contexto donde es posible producir textos complejos sin garantizar procesos cognitivos equivalentes, el desafío ya no es enseñar a escribir, sino enseñar a pensar a través del lenguaje en interacción con sistemas generativos.

La propuesta de Jorba, Gómez y Prat adquiere en este escenario una relevancia renovada, al ofrecer un marco que permite distinguir niveles de pensamiento más allá de la apariencia discursiva.

El riesgo central no radica en el uso de inteligencia artificial, sino en la consolidación de prácticas educativas que validen la simulación del pensamiento como si fuera pensamiento real.

Por ello, la evaluación debe desplazarse del producto al proceso, de la forma al nivel cognitivo, y de la respuesta a la construcción del sentido.

En última instancia, la pregunta que orienta este debate no es tecnológica, sino epistemológica: ¿cómo sabemos que ha comprendido, cuando puede producir respuestas sin haber pensado?

Responder a esta pregunta constituye uno de los principales desafíos de la educación contemporánea.

Referencias

Holmes, W., Bialik, M., & Fadel, C. (2023). Artificial intelligence in education: Promises and implications for teaching and learning. Center for Curriculum Redesign.

Jorba, J., Gómez, I., & Prat, A. (2000). Hablar y escribir para aprender: Uso de la lengua en situación de enseñanza-aprendizaje. Síntesis.

Luckin, R., Holmes, W., Griffiths, M., & Forcier, L. B. (2022). Intelligence unleashed: An argument for AI in education. Pearson.

Redecker, C., & Punie, Y. (2017). European framework for the digital competence of educators (DigCompEdu). European Commission.

Selwyn, N. (2019). Should robots replace teachers? AI and the future of education. Polity Press.

Vygotsky, L. S. (1978). Mind in society: The development of higher psychological processes. Harvard University Press.

 

 

viernes, 24 de abril de 2026

La hiperformalización en la era de la IA

En colaboración con Mercedes Leticia Sánchez Ambriz

Durante mucho tiempo, en nuestras aulas, el esfuerzo estuvo puesto en enseñar a escribir mejor. Corregíamos ortografía, afinábamos la redacción, insistíamos en la claridad de las ideas. Hoy, sin embargo, algo ha cambiado de manera silenciosa. Nuestros estudiantes ya no solo escriben para un lector humano; ahora también escriben para una inteligencia artificial.

Y en ese tránsito, casi imperceptible, ha comenzado a instalarse un fenómeno que merece nuestra atención: textos cada vez más correctos en apariencia, más técnicos en su forma… pero más distantes del pensamiento que deberían contener. Textos que suenan bien, pero que no siempre dicen algo con sentido. A esto lo podemos llamar hiperformalización del discurso.

La escena es familiar. Un estudiante recibe la indicación de usar inteligencia artificial para desarrollar una actividad. Se sienta frente a la pantalla y escribe una instrucción larga, cargada de términos como “análisis multidimensional”, “enfoque epistemológico” o “perspectiva holística”. La respuesta que obtiene también suena sofisticada, incluso convincente. Pero cuando se le pide que explique lo que escribió, aparecen las dudas, los silencios, las respuestas fragmentadas.

En ese momento se revela el problema de fondo. No estamos frente a un error de redacción, sino frente a una desconexión entre lenguaje y pensamiento.

La hiperformalización ocurre precisamente ahí: cuando el lenguaje deja de ser una herramienta para comprender y se convierte en una forma de aparentar comprensión. No es que el estudiante quiera engañar; muchas veces cree que está haciendo lo correcto. Ha aprendido, implícitamente que escribir “más complicado” es escribir “mejor”. Y la inteligencia artificial, lejos de corregir esta idea, en ocasiones la refuerza.

Sin embargo, la evidencia empieza a mostrar otra cosa. Los modelos de lenguaje no requieren complejidad innecesaria para responder mejor. De hecho, como señala Mollick (2024), las instrucciones claras, directas y bien delimitadas suelen generar resultados más útiles que aquellas excesivamente cargadas de términos técnicos. La claridad, lejos de ser una debilidad, es una forma de precisión.

Lo preocupante no es solo cómo se escribe, sino cómo se empieza a pensar. Cuando el estudiante prioriza la forma sobre el sentido, el lenguaje deja de ser un medio para construir conocimiento y se convierte en una superficie que lo simula. Ya lo advertía Bourdieu (1991): el lenguaje puede funcionar como un capital simbólico que aparenta dominio incluso cuando este no existe.

En nuestras aulas latinoamericanas, donde muchas veces enfrentamos brechas de formación, de acceso y de contexto, este fenómeno adquiere una dimensión aún más delicada. Porque no se trata únicamente de un problema lingüístico, sino de un problema formativo. Si el estudiante aprende a “sonar académico” sin comprender, estamos formando discursos, no pensamiento.

Y aquí es donde nuestro papel como docentes se vuelve crucial.

No se trata de prohibir la inteligencia artificial ni de limitar su uso. Sería un error pensar que el problema es la herramienta. El desafío es mucho más profundo: enseñar a nuestros estudiantes a usar el lenguaje con intención, con conciencia y con sentido, incluso, y especialmente cuando interactúan con una máquina.

Esto implica, en primer lugar, recuperar el valor de la claridad. Un estudiante que puede explicar una idea de manera sencilla no es un estudiante que sabe menos, sino uno que ha comprendido mejor. Implica también acompañar el proceso, no solo el resultado. Preguntar cómo construyeron su respuesta, qué decisiones tomaron, qué entendieron realmente.

Significa, además, diseñar experiencias de aprendizaje donde la respuesta no pueda obtenerse únicamente desde lo general. Donde el contexto, la escuela, la comunidad, la experiencia, obligue a pensar, a adaptar, a interpretar. Porque la inteligencia artificial puede responder con solvencia a lo abstracto, pero el aprendizaje ocurre en lo situado.

Y, sobre todo, implica recuperar una pregunta fundamental que quizá habíamos dejado de hacer: ¿entiendes lo que estás diciendo?

Porque en medio de esta nueva forma de escribir, existe un riesgo silencioso. Como advertía Neil Postman (1992), cuando una tecnología transforma el lenguaje, también transforma la manera en que pensamos. Y si permitimos que el lenguaje se vacíe de sentido, el pensamiento corre la misma suerte.

La hiperformalización no es, entonces, un problema de estilo. Es una señal de alerta. Nos está mostrando que algo se está desplazando en la forma en que nuestros estudiantes, y nosotros mismos nos relacionamos con el conocimiento.

Tal vez, en este momento histórico, el reto no sea enseñar a escribir más difícil, ni a formular instrucciones más sofisticadas. Tal vez el verdadero desafío sea otro: volver a enseñar a pensar antes de escribir.

Porque la inteligencia artificial puede generar textos impecables. Pero no puede reemplazar la comprensión y al final, en medio de todas las herramientas, plataformas y posibilidades, la pregunta sigue siendo la misma, tan simple como incómoda: ¿nuestros estudiantes realmente entienden lo que están diciendo?

Si logramos que la respuesta sea sí, entonces no importará cuán avanzada sea la tecnología. El pensamiento seguirá estando en el centro. Y eso, en educación, sigue siendo lo esencial.

Desplazando el pensamiento hacia la apariencia

Lo que está en juego no es menor. La hiperformalización no es simplemente una forma de escribir más complicada; es una forma de desplazar el pensamiento hacia la apariencia. Es el momento en que el lenguaje deja de ser una herramienta para comprender el mundo y se convierte en un recurso para simular que lo comprendemos.

En el contexto de la inteligencia artificial, este riesgo se intensifica. La tecnología responde, produce, organiza, incluso “suena bien”. Pero no garantiza comprensión. Y ahí es donde la responsabilidad vuelve a nosotros, como docentes.

Porque si algo deja claro este fenómeno es que la calidad del aprendizaje no depende de qué tan sofisticadas sean las herramientas, sino de qué tan consciente sea el uso del lenguaje que hacemos con ellas. La inteligencia artificial no sustituye el pensamiento; en todo caso, lo pone en evidencia.

Quizá por eso, más que enseñar a usar IA, hoy necesitamos enseñar a formular preguntas con sentido, a escribir con intención y a leer con criterio. Necesitamos volver a valorar la claridad como una forma de rigor, y no como una simplificación.

Como advierte Neil Postman (1992), toda tecnología transforma no solo lo que hacemos, sino la manera en que pensamos. La pregunta, entonces, no es si vamos a usar inteligencia artificial —eso ya está ocurriendo—, sino cómo evitamos que en ese proceso el lenguaje pierda su función más profunda: ayudarnos a pensar.

Porque al final, más allá de prompts, plataformas y respuestas automáticas, lo verdaderamente importante sigue siendo lo mismo que siempre ha sido en educación: no que nuestros estudiantes escriban mejor, sino que piensen mejor a través de lo que escriben.

Y si logramos sostener eso, entonces la tecnología no será un sustituto, sino una aliada. Pero si lo perdemos, ninguna herramienta —por avanzada que sea— podrá devolvernos lo esencial.

Referencias

Bourdieu, P. (1991). Language and symbolic power. Harvard University Press.

Jakobson, R. (1960). Linguistics and poetics. En T. A. Sebeok (Ed.), Style in language (pp. 350–377). MIT Press.

Mollick, E. (2024). Co-intelligence: Living and working with AI. Portfolio.

OpenAI. (2023). GPT best practices for prompting. https://platform.openai.com/docs/guides/prompting

Postman, N. (1992). Technopoly: The surrender of culture to technology. Vintage Books.