viernes, 24 de abril de 2026

La hiperformalización en la era de la IA

En colaboración con Mercedes Leticia Sánchez Ambriz

Durante mucho tiempo, en nuestras aulas, el esfuerzo estuvo puesto en enseñar a escribir mejor. Corregíamos ortografía, afinábamos la redacción, insistíamos en la claridad de las ideas. Hoy, sin embargo, algo ha cambiado de manera silenciosa. Nuestros estudiantes ya no solo escriben para un lector humano; ahora también escriben para una inteligencia artificial.

Y en ese tránsito, casi imperceptible, ha comenzado a instalarse un fenómeno que merece nuestra atención: textos cada vez más correctos en apariencia, más técnicos en su forma… pero más distantes del pensamiento que deberían contener. Textos que suenan bien, pero que no siempre dicen algo con sentido. A esto lo podemos llamar hiperformalización del discurso.

La escena es familiar. Un estudiante recibe la indicación de usar inteligencia artificial para desarrollar una actividad. Se sienta frente a la pantalla y escribe una instrucción larga, cargada de términos como “análisis multidimensional”, “enfoque epistemológico” o “perspectiva holística”. La respuesta que obtiene también suena sofisticada, incluso convincente. Pero cuando se le pide que explique lo que escribió, aparecen las dudas, los silencios, las respuestas fragmentadas.

En ese momento se revela el problema de fondo. No estamos frente a un error de redacción, sino frente a una desconexión entre lenguaje y pensamiento.

La hiperformalización ocurre precisamente ahí: cuando el lenguaje deja de ser una herramienta para comprender y se convierte en una forma de aparentar comprensión. No es que el estudiante quiera engañar; muchas veces cree que está haciendo lo correcto. Ha aprendido, implícitamente que escribir “más complicado” es escribir “mejor”. Y la inteligencia artificial, lejos de corregir esta idea, en ocasiones la refuerza.

Sin embargo, la evidencia empieza a mostrar otra cosa. Los modelos de lenguaje no requieren complejidad innecesaria para responder mejor. De hecho, como señala Mollick (2024), las instrucciones claras, directas y bien delimitadas suelen generar resultados más útiles que aquellas excesivamente cargadas de términos técnicos. La claridad, lejos de ser una debilidad, es una forma de precisión.

Lo preocupante no es solo cómo se escribe, sino cómo se empieza a pensar. Cuando el estudiante prioriza la forma sobre el sentido, el lenguaje deja de ser un medio para construir conocimiento y se convierte en una superficie que lo simula. Ya lo advertía Bourdieu (1991): el lenguaje puede funcionar como un capital simbólico que aparenta dominio incluso cuando este no existe.

En nuestras aulas latinoamericanas, donde muchas veces enfrentamos brechas de formación, de acceso y de contexto, este fenómeno adquiere una dimensión aún más delicada. Porque no se trata únicamente de un problema lingüístico, sino de un problema formativo. Si el estudiante aprende a “sonar académico” sin comprender, estamos formando discursos, no pensamiento.

Y aquí es donde nuestro papel como docentes se vuelve crucial.

No se trata de prohibir la inteligencia artificial ni de limitar su uso. Sería un error pensar que el problema es la herramienta. El desafío es mucho más profundo: enseñar a nuestros estudiantes a usar el lenguaje con intención, con conciencia y con sentido, incluso, y especialmente cuando interactúan con una máquina.

Esto implica, en primer lugar, recuperar el valor de la claridad. Un estudiante que puede explicar una idea de manera sencilla no es un estudiante que sabe menos, sino uno que ha comprendido mejor. Implica también acompañar el proceso, no solo el resultado. Preguntar cómo construyeron su respuesta, qué decisiones tomaron, qué entendieron realmente.

Significa, además, diseñar experiencias de aprendizaje donde la respuesta no pueda obtenerse únicamente desde lo general. Donde el contexto, la escuela, la comunidad, la experiencia, obligue a pensar, a adaptar, a interpretar. Porque la inteligencia artificial puede responder con solvencia a lo abstracto, pero el aprendizaje ocurre en lo situado.

Y, sobre todo, implica recuperar una pregunta fundamental que quizá habíamos dejado de hacer: ¿entiendes lo que estás diciendo?

Porque en medio de esta nueva forma de escribir, existe un riesgo silencioso. Como advertía Neil Postman (1992), cuando una tecnología transforma el lenguaje, también transforma la manera en que pensamos. Y si permitimos que el lenguaje se vacíe de sentido, el pensamiento corre la misma suerte.

La hiperformalización no es, entonces, un problema de estilo. Es una señal de alerta. Nos está mostrando que algo se está desplazando en la forma en que nuestros estudiantes, y nosotros mismos nos relacionamos con el conocimiento.

Tal vez, en este momento histórico, el reto no sea enseñar a escribir más difícil, ni a formular instrucciones más sofisticadas. Tal vez el verdadero desafío sea otro: volver a enseñar a pensar antes de escribir.

Porque la inteligencia artificial puede generar textos impecables. Pero no puede reemplazar la comprensión y al final, en medio de todas las herramientas, plataformas y posibilidades, la pregunta sigue siendo la misma, tan simple como incómoda: ¿nuestros estudiantes realmente entienden lo que están diciendo?

Si logramos que la respuesta sea sí, entonces no importará cuán avanzada sea la tecnología. El pensamiento seguirá estando en el centro. Y eso, en educación, sigue siendo lo esencial.

Desplazando el pensamiento hacia la apariencia

Lo que está en juego no es menor. La hiperformalización no es simplemente una forma de escribir más complicada; es una forma de desplazar el pensamiento hacia la apariencia. Es el momento en que el lenguaje deja de ser una herramienta para comprender el mundo y se convierte en un recurso para simular que lo comprendemos.

En el contexto de la inteligencia artificial, este riesgo se intensifica. La tecnología responde, produce, organiza, incluso “suena bien”. Pero no garantiza comprensión. Y ahí es donde la responsabilidad vuelve a nosotros, como docentes.

Porque si algo deja claro este fenómeno es que la calidad del aprendizaje no depende de qué tan sofisticadas sean las herramientas, sino de qué tan consciente sea el uso del lenguaje que hacemos con ellas. La inteligencia artificial no sustituye el pensamiento; en todo caso, lo pone en evidencia.

Quizá por eso, más que enseñar a usar IA, hoy necesitamos enseñar a formular preguntas con sentido, a escribir con intención y a leer con criterio. Necesitamos volver a valorar la claridad como una forma de rigor, y no como una simplificación.

Como advierte Neil Postman (1992), toda tecnología transforma no solo lo que hacemos, sino la manera en que pensamos. La pregunta, entonces, no es si vamos a usar inteligencia artificial —eso ya está ocurriendo—, sino cómo evitamos que en ese proceso el lenguaje pierda su función más profunda: ayudarnos a pensar.

Porque al final, más allá de prompts, plataformas y respuestas automáticas, lo verdaderamente importante sigue siendo lo mismo que siempre ha sido en educación: no que nuestros estudiantes escriban mejor, sino que piensen mejor a través de lo que escriben.

Y si logramos sostener eso, entonces la tecnología no será un sustituto, sino una aliada. Pero si lo perdemos, ninguna herramienta —por avanzada que sea— podrá devolvernos lo esencial.

Referencias

Bourdieu, P. (1991). Language and symbolic power. Harvard University Press.

Jakobson, R. (1960). Linguistics and poetics. En T. A. Sebeok (Ed.), Style in language (pp. 350–377). MIT Press.

Mollick, E. (2024). Co-intelligence: Living and working with AI. Portfolio.

OpenAI. (2023). GPT best practices for prompting. https://platform.openai.com/docs/guides/prompting

Postman, N. (1992). Technopoly: The surrender of culture to technology. Vintage Books.

No hay comentarios:

Publicar un comentario