En colaboración con Mercedes Leticia Sánchez Ambriz
Durante mucho tiempo, en nuestras aulas, el esfuerzo estuvo puesto en enseñar a escribir mejor. Corregíamos ortografía, afinábamos la redacción, insistíamos en la claridad de las ideas. Hoy, sin embargo, algo ha cambiado de manera silenciosa. Nuestros estudiantes ya no solo escriben para un lector humano; ahora también escriben para una inteligencia artificial.
Y en ese tránsito, casi imperceptible,
ha comenzado a instalarse un fenómeno que merece nuestra atención: textos
cada vez más correctos en apariencia, más técnicos en su forma… pero más
distantes del pensamiento que deberían contener. Textos que suenan bien, pero
que no siempre dicen algo con sentido. A esto lo podemos llamar hiperformalización
del discurso.
La escena es familiar. Un estudiante
recibe la indicación de usar inteligencia artificial para desarrollar una
actividad. Se sienta frente a la pantalla y escribe una instrucción larga,
cargada de términos como “análisis multidimensional”, “enfoque epistemológico”
o “perspectiva holística”. La respuesta que obtiene también suena sofisticada,
incluso convincente. Pero cuando se le pide que explique lo que escribió,
aparecen las dudas, los silencios, las respuestas fragmentadas.
En ese momento se revela el problema de
fondo. No estamos frente a un error de redacción, sino frente a una
desconexión entre lenguaje y pensamiento.
La hiperformalización ocurre
precisamente ahí: cuando el lenguaje deja de ser una herramienta para
comprender y se convierte en una forma de aparentar comprensión. No es que el
estudiante quiera engañar; muchas veces cree que está haciendo lo correcto. Ha
aprendido, implícitamente que escribir “más complicado” es escribir “mejor”. Y
la inteligencia artificial, lejos de corregir esta idea, en ocasiones la
refuerza.
Sin embargo, la evidencia empieza a
mostrar otra cosa. Los modelos de lenguaje no requieren complejidad innecesaria
para responder mejor. De hecho, como señala Mollick (2024), las instrucciones
claras, directas y bien delimitadas suelen generar resultados más útiles que
aquellas excesivamente cargadas de términos técnicos. La claridad, lejos de ser
una debilidad, es una forma de precisión.
Lo preocupante no es solo cómo se
escribe, sino cómo se empieza a pensar. Cuando el estudiante prioriza la forma
sobre el sentido, el lenguaje deja de ser un medio para construir conocimiento
y se convierte en una superficie que lo simula. Ya lo advertía Bourdieu (1991):
el lenguaje puede funcionar como un capital simbólico que aparenta dominio
incluso cuando este no existe.
En nuestras aulas latinoamericanas,
donde muchas veces enfrentamos brechas de formación, de acceso y de contexto,
este fenómeno adquiere una dimensión aún más delicada. Porque no se trata
únicamente de un problema lingüístico, sino de un problema formativo. Si el
estudiante aprende a “sonar académico” sin comprender, estamos formando
discursos, no pensamiento.
Y aquí es donde nuestro papel como
docentes se vuelve crucial.
No se trata de prohibir la inteligencia
artificial ni de limitar su uso. Sería un error pensar que el problema es la
herramienta. El desafío es mucho más profundo: enseñar a nuestros estudiantes a
usar el lenguaje con intención, con conciencia y con sentido, incluso, y
especialmente cuando interactúan con una máquina.
Esto implica, en primer lugar, recuperar
el valor de la claridad. Un estudiante que puede explicar una idea de manera
sencilla no es un estudiante que sabe menos, sino uno que ha comprendido mejor.
Implica también acompañar el proceso, no solo el resultado. Preguntar cómo
construyeron su respuesta, qué decisiones tomaron, qué entendieron realmente.
Significa, además, diseñar experiencias
de aprendizaje donde la respuesta no pueda obtenerse únicamente desde lo
general. Donde el contexto, la escuela, la comunidad, la experiencia, obligue a
pensar, a adaptar, a interpretar. Porque la inteligencia artificial puede
responder con solvencia a lo abstracto, pero el aprendizaje ocurre en lo
situado.
Y, sobre todo, implica recuperar una
pregunta fundamental que quizá habíamos dejado de hacer: ¿entiendes lo que
estás diciendo?
Porque en medio de esta nueva forma de
escribir, existe un riesgo silencioso. Como advertía Neil Postman (1992), cuando una tecnología
transforma el lenguaje, también transforma la manera en que pensamos. Y si
permitimos que el lenguaje se vacíe de sentido, el pensamiento corre la misma
suerte.
La hiperformalización no es, entonces,
un problema de estilo. Es una señal de alerta. Nos está mostrando que algo se
está desplazando en la forma en que nuestros estudiantes, y nosotros mismos nos
relacionamos con el conocimiento.
Tal vez, en este momento histórico, el
reto no sea enseñar a escribir más difícil, ni a formular instrucciones más
sofisticadas. Tal vez el verdadero desafío sea otro: volver a enseñar a
pensar antes de escribir.
Porque la inteligencia artificial puede
generar textos impecables. Pero no puede reemplazar la comprensión y al final,
en medio de todas las herramientas, plataformas y posibilidades, la pregunta
sigue siendo la misma, tan simple como incómoda: ¿nuestros estudiantes
realmente entienden lo que están diciendo?
Si logramos que la respuesta sea sí,
entonces no importará cuán avanzada sea la tecnología. El pensamiento seguirá
estando en el centro. Y eso, en educación, sigue siendo lo esencial.
Desplazando
el pensamiento hacia la apariencia
Lo que está en juego no es menor. La
hiperformalización no es simplemente una forma de escribir más complicada; es
una forma de desplazar el pensamiento hacia la apariencia. Es el momento
en que el lenguaje deja de ser una herramienta para comprender el mundo y se
convierte en un recurso para simular que lo comprendemos.
En el contexto de la inteligencia
artificial, este riesgo se intensifica. La tecnología responde, produce,
organiza, incluso “suena bien”. Pero no garantiza comprensión. Y ahí es donde
la responsabilidad vuelve a nosotros, como docentes.
Porque si algo deja claro este fenómeno
es que la calidad del aprendizaje no depende de qué tan sofisticadas sean las
herramientas, sino de qué tan consciente sea el uso del lenguaje que hacemos
con ellas. La inteligencia artificial no sustituye el pensamiento; en todo
caso, lo pone en evidencia.
Quizá por eso, más que enseñar a usar
IA, hoy necesitamos enseñar a formular preguntas con sentido, a escribir con
intención y a leer con criterio. Necesitamos volver a valorar la claridad como
una forma de rigor, y no como una simplificación.
Como advierte Neil Postman (1992), toda tecnología transforma
no solo lo que hacemos, sino la manera en que pensamos. La pregunta, entonces,
no es si vamos a usar inteligencia artificial —eso ya está ocurriendo—, sino cómo evitamos que en ese proceso el
lenguaje pierda su función más profunda: ayudarnos a pensar.
Porque al final, más allá de prompts,
plataformas y respuestas automáticas, lo verdaderamente importante sigue siendo
lo mismo que siempre ha sido en educación: no que nuestros estudiantes escriban
mejor, sino que piensen
mejor a través de lo que escriben.
Y si logramos sostener eso, entonces la
tecnología no será un sustituto, sino una aliada. Pero si lo perdemos, ninguna
herramienta —por avanzada que sea— podrá devolvernos lo esencial.
Referencias
Bourdieu,
P. (1991). Language and
symbolic power. Harvard University Press.
Jakobson,
R. (1960). Linguistics and poetics. En T. A. Sebeok (Ed.), Style in language (pp.
350–377). MIT Press.
Mollick,
E. (2024). Co-intelligence:
Living and working with AI. Portfolio.
OpenAI.
(2023). GPT best practices for
prompting. https://platform.openai.com/docs/guides/prompting
Postman,
N. (1992). Technopoly: The
surrender of culture to technology. Vintage Books.