Una reflexión desde las habilidades cognitivo-lingüísticas
En colaboración con Mercedes Leticia Sánchez Ambriz
La expansión de la inteligencia artificial en la
educación ha cambiado rápidamente la forma en que los estudiantes escriben, estudian
y resuelven tareas. Hoy es común discutir qué herramientas usar, cómo
integrarlas en clase o cómo evaluar productos generados con su ayuda. Sin
embargo, en medio de ese debate práctico, hay una pregunta más profunda que
suele quedar en segundo plano:
¿Cómo saber si un estudiante realmente está
pensando cuando dialoga con la inteligencia artificial?
El problema no es menor. Actualmente es posible
generar textos claros, bien estructurados e incluso convincentes en cuestión de
segundos. Pero que un texto “suene bien” no significa necesariamente que
quien lo presenta haya comprendido lo que dice, aun cuando “dialogó con la IA”.
Durante mucho tiempo, escribir fue una forma de evidenciar el pensamiento:
organizar ideas, argumentar o explicar, implicaba necesariamente entender. Hoy,
esa relación ya no es tan evidente.
Esto nos obliga a cambiar el enfoque. El reto
educativo no es detectar si un texto fue creado con inteligencia artificial,
sino identificar qué tipo de pensamiento humano hay detrás de él. En
otras palabras, pasar de evaluar el producto a analizar el proceso.
Para abordar esta cuestión, resulta pertinente
recuperar la propuesta de Jorba, Gómez y Prat, quienes plantean una gradación
de habilidades; describir, explicar,
justificar y argumentar, que permite analizar el discurso no solo como
producto, sino como evidencia del pensamiento (Jorba et al., 2000).
Este marco permite no solo clasificar los
textos según su nivel de complejidad, sino también identificar posibles
desajustes entre la forma del discurso y el pensamiento que lo sustenta. Es
precisamente en este punto donde emerge un fenómeno particularmente relevante
en contextos mediados por inteligencia artificial.
Ilusión cognitiva
En este contexto aparece un
fenómeno interesante: textos que parecen complejos, pero no necesariamente lo
son en términos cognitivos. A esto podemos llamarlo ilusión cognitiva. Se
trata de escritos que utilizan conectores adecuados, vocabulario académico y
estructuras bien organizadas, explicaciones e incluso argumentos, pero que no
muestran una demostración real del tema. Es decir, el texto simula
pensamiento humano sin que necesariamente haya ocurrido.
Cada día vemos estudiantes que
muestran párrafos donde explican causas y consecuencias, pero cuando se le pide
profundizar, comparar o justificar, no logra sostener lo que escribió. El
texto funciona, pero su pensamiento no está del todo ahí.
Esto no significa que la
inteligencia artificial sea el problema. Más bien revela algo importante: ahora
es posible producir formas de pensamiento sin recorrer completamente el proceso
que las origina.
Estudios recientes advierten que el uso acrítico de
sistemas generativos puede favorecer respuestas superficiales si no se acompaña
de procesos reflexivos y metacognitivos (Luckin et al., 2022; Holmes et al.,
2023).
Una propuesta analítica
La gradación propuesta por Jorba, Gómez y Prat
permite establecer un criterio fino para analizar el nivel cognitivo del
discurso.
Describir implica
enumerar características sin establecer relaciones causales explícitas. Explicar
introduce relaciones de causa y efecto, organizando el conocimiento. Justificar
supone validar una afirmación mediante razones sustentadas en un marco teórico.
Argumentar, finalmente, implica persuadir a un destinatario, anticipar
objeciones y posicionarse críticamente.
Esta gradación no solo clasifica textos; permite
identificar niveles diferenciados de construcción del conocimiento, lo
cual resulta especialmente relevante en entornos mediados por IA.
Uno de los efectos más relevantes del uso de
inteligencia artificial en la producción textual es la aparición de lo que
puede denominarse hiperformalización del discurso, que puede revisar en
este post.
Se trata de textos que presentan coherencia
estructural, uso adecuado de conectores y organización lógica, pero carecen de
profundidad conceptual o validación epistémica. En estos casos, la IA facilita
la producción de formas discursivas complejas sin exigir el desarrollo
equivalente de las habilidades cognitivas que las sustentan.
Este fenómeno se vincula con lo que Neil Selwyn
denomina “automatización del conocimiento aparente”, donde la tecnología
produce resultados que simulan comprensión sin garantizarla (Selwyn, 2019).
La sintaxis algorítmica como
mediación del pensamiento
La interacción con inteligencia artificial está
mediada por lenguaje. Aquí emerge la noción de sintaxis algorítmica: la
capacidad de estructurar instrucciones que orienten el tipo de operación
cognitiva activada.
No es lo mismo solicitar “describe un fenómeno” que
“argumenta con base en evidencia considerando un contexto específico”. La
calidad de la respuesta depende, en gran medida, del nivel cognitivo que se
demanda en la indicación.
En este sentido, la IA no sustituye el pensamiento,
sino que lo refleja en función de la calidad del lenguaje que la activa, lo
cual coincide con enfoques que destacan el papel del andamiaje lingüístico en
la construcción del conocimiento (Vygotsky, 1978).
Si la calidad del discurso
depende tanto del nivel cognitivo solicitado como de la interacción con la
herramienta, entonces la evaluación tradicional centrada en el producto resulta
insuficiente.
Implicaciones para la evaluación
en el aula (versión ampliada)
La incorporación de inteligencia artificial en los
procesos de enseñanza obliga a replantear profundamente los criterios de
evaluación. Si un texto puede ser generado con alta calidad formal mediante IA,
entonces la evaluación basada exclusivamente en el producto pierde validez
como indicador del aprendizaje.
En este contexto, resulta necesario transitar hacia
una evaluación centrada en el proceso cognitivo, lo cual implica al
menos cuatro dimensiones analíticas:
1. Nivel cognitivo del discurso
El primer criterio consiste en identificar si el
estudiante describe, explica, justifica o argumenta. Esta distinción permite
evitar la sobrevaloración de textos que, aunque bien estructurados, no alcanzan
niveles superiores de pensamiento.
2. Coherencia entre consigna y
producción
No basta con que el texto sea correcto; es
necesario analizar si responde al nivel cognitivo solicitado. Por ejemplo, una tarea
que exige argumentar no puede ser satisfecha con una explicación ampliada.
3. Interacción con la IA
El proceso de interacción se vuelve objeto de
evaluación. Esto incluye:
- tipo
de prompts utilizados,
- iteraciones
realizadas,
- capacidad
de reformulación.
Este enfoque se alinea con propuestas recientes de
evaluación auténtica y analítica del aprendizaje en entornos digitales
(Redecker & Punie, 2017).
Pensar también es saber pedir
El uso de inteligencia artificial no es automático
ni neutral. Depende de cómo se use. Aquí entra en juego algo que podríamos
llamar sintaxis algorítmica: la manera en que formulamos instrucciones
para obtener respuestas.
No es lo mismo pedir:
- “explica
este tema” que
- “argumenta
esta idea considerando un contexto específico y posibles objeciones”.
La calidad de la respuesta depende, en gran medida,
de la calidad de la pregunta. Y formular buenas preguntas también es una forma
de pensar.
Por eso, el uso educativo de la inteligencia
artificial no debería centrarse solo en lo que produce, sino en cómo se
interactúa con ella.
En este sentido, evaluar implica observar si el
estudiante logra trascender la
respuesta generada y construir una voz propia.
Entonces, ¿cómo saber si hay
pensamiento?
No hay una respuesta única, pero sí algunas pistas:
- Cuando
el estudiante puede explicar con sus propias palabras, no solo
reproducir.
- Cuando
puede relacionar ideas y no solo enumerarlas.
- Cuando
logra justificar lo que afirma, apoyándose en conceptos o teorías.
- Cuando
es capaz de tomar una posición y sostenerla.
En cambio, cuando el texto es correcto pero no se
puede profundizar en él, es probable que estemos frente a una ilusión
cognitiva.
Una pregunta más importante que
la tecnología
La
inteligencia artificial no elimina la necesidad de pensar. Pero sí cambia las
condiciones en las que el pensamiento se expresa.
Por eso,
quizá la pregunta más relevante ya no es:
¿El estudiante usó inteligencia artificial?
Sino más
bien:
¿Qué tipo de pensamiento hay en lo que presenta?
Y, sobre
todo:
¿sigue pensando mientras la usa?
Conclusiones
La integración de inteligencia artificial en
educación no redefine únicamente las herramientas disponibles, sino que
cuestiona los criterios con los que históricamente se ha identificado el
aprendizaje.
En un contexto donde es posible producir textos
complejos sin garantizar procesos cognitivos equivalentes, el desafío ya no es
enseñar a escribir, sino enseñar a pensar a través del lenguaje en
interacción con sistemas generativos.
La propuesta de Jorba, Gómez y Prat adquiere en
este escenario una relevancia renovada, al ofrecer un marco que permite
distinguir niveles de pensamiento más allá de la apariencia discursiva.
El riesgo central no radica en el uso de
inteligencia artificial, sino en la consolidación de prácticas educativas que
validen la simulación del pensamiento como si fuera pensamiento real.
Por ello, la evaluación debe desplazarse del
producto al proceso, de la forma al nivel cognitivo, y de la respuesta a la
construcción del sentido.
En última instancia, la pregunta que orienta este
debate no es tecnológica, sino epistemológica: ¿cómo sabemos que ha
comprendido, cuando puede producir respuestas sin haber pensado?
Responder a esta pregunta constituye uno de los
principales desafíos de la educación contemporánea.
Referencias
Holmes, W., Bialik, M., & Fadel, C. (2023). Artificial
intelligence in education: Promises and implications for teaching and learning.
Center for Curriculum Redesign.
Jorba, J., Gómez, I., & Prat, A. (2000). Hablar
y escribir para aprender: Uso de la lengua en situación de
enseñanza-aprendizaje. Síntesis.
Luckin, R., Holmes, W., Griffiths, M., &
Forcier, L. B. (2022). Intelligence unleashed: An argument for AI in
education. Pearson.
Redecker, C., & Punie, Y. (2017). European
framework for the digital competence of educators (DigCompEdu). European
Commission.
Selwyn, N. (2019). Should robots replace
teachers? AI and the future of education. Polity Press.
Vygotsky, L. S. (1978). Mind in society: The
development of higher psychological processes. Harvard University Press.
No hay comentarios:
Publicar un comentario