martes, 1 de abril de 2025

La IA-alfabetización como vía para disminuir la aitoxicación (parte dos)

 En colaboración con la Dra. Mercedes Leticia Sánchez

Imagen generada con Bing

Anteriormente, comentamos sobre la necesaria y apremiante IA-alfabetización, que consiste en una nueva alfabetización digital necesaria para comprender
el funcionamiento, los alcances, los límites y las implicaciones éticas de los sistemas inteligentes.

El crecimiento exponencial de sistemas inteligentes ha dado lugar a la necesidad de una alfabetización en inteligencia artificial, también conocida como IA-alfabetización. Esta no se reduce a saber usar herramientas basadas en IA, sino que abarca una comprensión crítica, ética y funcional de los procesos que sustentan estas tecnologías.

En términos generales, la IA-alfabetización implica el desarrollo de un conjunto de competencias fundamentales:

Comprender conceptos clave como algoritmos, datos y aprendizaje automático, lo que incluye reconocer cómo se entrenan los modelos, cómo se toman decisiones automatizadas y cuáles son las limitaciones técnicas de estos sistemas. Esta no es una competencia solo para programadores e informáticos, sino para todos los que empleamos la IA y que permite que podamos evaluar la utilidad de cada IA.

Diferenciar lo que puede y no puede hacer una IA, es decir, conocer sus capacidades actuales, sus límites y los posibles errores o “alucinaciones” que puede presentar, especialmente en entornos educativos. Se extiende también a la creación de imágenes, audios y videos.

Desarrollar pensamiento crítico frente a los resultados que ofrece la IA, evitando asumir sus respuestas como verdades absolutas y fomentando la interpretación reflexiva de sus recomendaciones. Es el individuo el que debe dar el veredicto sobre lo que aceptamos o no.

Cuestionar quién diseña los sistemas, con qué datos son entrenados y con qué fines son utilizados, ya que estas tecnologías están lejos de ser neutrales: reflejan los intereses, sesgos y contextos sociales de sus creadores y de las bases de datos que las alimentan.

Esta alfabetización no puede darse en un vacío técnico. Requiere un enfoque educativo integral y transformador, que implique cambios en las metodologías, en la formación docente y en el currículo. Entre los principios clave de este enfoque destacan:

La integración de experiencias de aprendizaje con herramientas de IA, no como un fin en sí mismo, sino como medio para explorar, analizar y construir conocimiento. Por ejemplo, utilizar asistentes conversacionales para debatir ideas, explorar alternativas o diseñar estrategias de solución a problemas reales.

La promoción de la reflexión ética, política y social sobre el uso de la IA, para que los estudiantes comprendan no solo cómo funciona, sino también cómo afecta a las personas, a los derechos y a las relaciones sociales. Esto incluye el análisis de casos sobre sesgos, discriminación algorítmica, privacidad de datos y automatización del trabajo.

La participación de todos los actores del sistema educativo —docentes, estudiantes, directivos, familias e instituciones— en la construcción de una cultura digital crítica. La IA-alfabetización no puede ser responsabilidad exclusiva del profesor de informática; debe atravesar todas las disciplinas y niveles educativos.

En resumen, la IA-alfabetización se presenta hoy como una competencia indispensable para ejercer una ciudadanía crítica, informada y participativa en una sociedad cada vez más mediada por tecnologías inteligentes. Su inclusión en los sistemas educativos no es una opción futura, sino una necesidad urgente del presente.

Una urgencia educativa, social y ética

La IA-alfabetización no es un lujo, sino una urgencia en al menos tres dimensiones:

a. Urgencia educativa

Los estudiantes ya interactúan con IA, pero sin comprenderla. Usan traductores automáticos, generadores de texto, asistentes de voz... sin conocer cómo operan, ni qué sesgos arrastran. La escuela debe dejar de enseñar como si la IA no existiera y empezar a formar ciudadanos capaces de dialogar con ella.

b. Urgencia social

La IA puede amplificar desigualdades si no se garantiza acceso equitativo ni comprensión crítica. Una sociedad que no sabe cómo funciona la tecnología que la gobierna, pierde capacidad de participación y decisión.

c. Urgencia ética

Muchos sistemas de IA toman decisiones sin transparencia. Desde sugerencias académicas hasta filtros en procesos de selección laboral, sus criterios son opacos. La falta de cuestionamiento alimenta una sociedad que delega sin conciencia y normaliza sesgos automatizados. Los resultados obtenidos deben ser siempre cuestionados, verificados y pasados por el principal filtro: nuestro conocimiento.

La IA no debe ser una autoridad incuestionable

Uno de los riesgos más preocupantes del auge de la inteligencia artificial es que pase de ser una herramienta útil y complementaria a convertirse en una autoridad que no se cuestiona. En muchos contextos, ya estamos comenzando a naturalizar sus respuestas y recomendaciones como si fueran objetivas, neutrales e infalibles. Esta actitud puede llevar a una delegación excesiva del juicio humano, basada en la premisa implícita de que “si lo dice la máquina, debe ser cierto”. Muy parecido a lo que sucedió primero con la prensa, tanto impresa, radial y televisiva y ahora a las redes sociales. No porque se divulgue en estos medios tiene que ser necesariamente cierto.

Sin embargo, este enfoque es profundamente problemático. La inteligencia artificial no es una conciencia moral, ni un sujeto racional, ni mucho menos una fuente de verdad absoluta. Está entrenada con datos generados por seres humanos y, por tanto, hereda tanto nuestras capacidades como nuestras limitaciones, prejuicios, sesgos históricos y desigualdades estructurales. Si no somos conscientes de este origen, corremos el riesgo de automatizar la discriminación y reforzar desigualdades, dándoles además un revestimiento de legitimidad algorítmica.

Aceptar los resultados de la IA sin cuestionarlos implica una forma de rendición cognitiva, aceptar que la inteligencia artificial está por encima de la humana, donde la automatización sustituye al pensamiento, la interpretación y el discernimiento. Esta situación puede derivar en una cultura de la obediencia tecnológica, donde las decisiones se ejecutan sin participación crítica y sin posibilidad de réplica, reduciendo la autonomía individual y colectiva.

Por ello, educar en IA-alfabetización no es únicamente un proceso técnico, centrado en el uso instrumental de herramientas digitales. Es, sobre todo, una tarea cultural, ética y política, que debe cultivar en los ciudadanos la capacidad de analizar, evaluar y decidir con conciencia frente a las tecnologías que los rodean. En este contexto, es indispensable enseñar a:

  • Leer los resultados de la IA con mirada crítica, interrogando las fuentes, los métodos y las posibles intenciones detrás de cada respuesta generada por un sistema inteligente.
  • Detectar sesgos, vacíos y limitaciones en las respuestas automatizadas, entendiendo que ningún modelo es completamente neutro ni universalmente válido.
  • Exigir transparencia, explicabilidad y rendición de cuentas a quienes diseñan, implementan o promueven sistemas de IA, tanto en el ámbito público como privado.

Solo así podremos evitar que la inteligencia artificial se transforme en una nueva forma de poder opaco, no sometido a control democrático. Y solo así, también, podremos garantizar que su incorporación a la vida educativa, social y personal responda a valores de justicia, equidad y pensamiento crítico.

Riesgo de reemplazo: delegar sin pensar

Cuando dejamos que la IA piense por nosotros:

  • Perdemos autonomía.
  • Perdemos el criterio.
  • Y lo más grave: perdemos la capacidad de disentir.

La educación debe garantizar el derecho a cuestionar, no solo a obedecer. Y eso implica devolver al pensamiento humano su lugar protagónico: la IA debe ser una herramienta, no un sustituto.

En esta línea, es urgente crear estándares sobre la IA-alfabetización, que nos permitan usar esta tecnología con fines pedagógicos, sociales y creativos; evitar correr el riesgo de que las decisiones más importantes sean tomadas por sistemas que no comprendemos, y frente a los cuales no tenemos voz.

El reto educativo es claro: formar personas que piensen con inteligencia artificial, pero no subordinadas a ella. La IA puede ser una gran aliada, siempre que no sustituya a la menta humana y su libertad de pensar, crear e innovar. En tiempos de algoritmos, alfabetizar en pensamiento crítico es más urgente que nunca.

No hay comentarios:

Publicar un comentario