En colaboración con la Dra. Mercedes Leticia Sánchez
![]() |
Imagen generada con Bing |
Anteriormente, comentamos sobre la necesaria y apremiante IA-alfabetización, que consiste en una nueva alfabetización digital necesaria para comprender el funcionamiento, los alcances, los límites y las implicaciones éticas de los sistemas inteligentes.
El crecimiento exponencial de sistemas inteligentes
ha dado lugar a la necesidad de una alfabetización
en inteligencia artificial, también conocida como IA-alfabetización.
Esta no se reduce a saber usar herramientas basadas en IA, sino que abarca una comprensión crítica, ética y funcional
de los procesos que sustentan estas tecnologías.
En términos generales, la IA-alfabetización implica el desarrollo de un conjunto de competencias fundamentales:
Comprender conceptos clave como algoritmos, datos y aprendizaje
automático, lo que incluye reconocer cómo se entrenan los modelos, cómo se toman
decisiones automatizadas y cuáles son las limitaciones técnicas de estos
sistemas. Esta no es una competencia solo para programadores e informáticos,
sino para todos los que empleamos la IA y que permite que podamos evaluar la
utilidad de cada IA.
Diferenciar lo que puede y no puede hacer una IA, es decir,
conocer sus capacidades actuales, sus límites y los posibles errores o
“alucinaciones” que puede presentar, especialmente en entornos educativos. Se
extiende también a la creación de imágenes, audios y videos.
Desarrollar pensamiento crítico frente a los resultados que ofrece la IA, evitando
asumir sus respuestas como verdades absolutas y fomentando la interpretación
reflexiva de sus recomendaciones. Es el individuo el que debe dar el veredicto
sobre lo que aceptamos o no.
Cuestionar quién diseña los sistemas, con qué datos son entrenados y con
qué fines son utilizados, ya que estas tecnologías están lejos de ser
neutrales: reflejan los intereses, sesgos y contextos sociales de sus creadores
y de las bases de datos que las alimentan.
Esta alfabetización no puede darse en un vacío técnico. Requiere un enfoque educativo integral y
transformador, que implique cambios en las metodologías, en la formación
docente y en el currículo. Entre los principios clave de este enfoque destacan:
La integración de experiencias de aprendizaje con
herramientas de IA, no como un fin en sí mismo, sino como medio para
explorar, analizar y construir conocimiento. Por ejemplo, utilizar asistentes
conversacionales para debatir ideas, explorar alternativas o diseñar
estrategias de solución a problemas reales.
La promoción de la reflexión ética, política y
social sobre el uso de la IA, para que los estudiantes comprendan no solo cómo
funciona, sino también cómo afecta a las personas, a los derechos y a las
relaciones sociales. Esto incluye el análisis de casos sobre sesgos,
discriminación algorítmica, privacidad de datos y automatización del trabajo.
La participación de todos los actores del sistema
educativo —docentes, estudiantes, directivos, familias e instituciones— en la
construcción de una cultura digital crítica. La IA-alfabetización no puede ser
responsabilidad exclusiva del profesor de informática; debe atravesar todas las
disciplinas y niveles educativos.
En resumen, la
IA-alfabetización se presenta hoy como una competencia indispensable
para ejercer una ciudadanía crítica, informada y participativa en una
sociedad cada vez más mediada por tecnologías inteligentes. Su inclusión en los
sistemas educativos no es una opción futura, sino una necesidad urgente del
presente.
Una urgencia
educativa, social y ética
La IA-alfabetización no es un lujo,
sino una urgencia
en al menos tres dimensiones:
a. Urgencia educativa
Los estudiantes ya interactúan con IA, pero
sin comprenderla. Usan traductores automáticos, generadores de texto,
asistentes de voz... sin conocer cómo operan, ni qué sesgos arrastran. La
escuela debe dejar de enseñar como si la IA no existiera y empezar a formar ciudadanos capaces de dialogar con ella.
b. Urgencia social
La IA puede amplificar desigualdades si no se
garantiza acceso equitativo ni comprensión crítica. Una sociedad que no sabe
cómo funciona la tecnología que la gobierna, pierde capacidad de participación y decisión.
c. Urgencia ética
Muchos sistemas de IA toman decisiones sin transparencia. Desde
sugerencias académicas hasta filtros en procesos de selección laboral, sus
criterios son opacos. La falta de cuestionamiento alimenta una sociedad que
delega sin conciencia y normaliza sesgos
automatizados. Los resultados obtenidos deben ser siempre
cuestionados, verificados y pasados por el principal filtro: nuestro
conocimiento.
La IA no debe ser
una autoridad incuestionable
Uno de los riesgos más preocupantes del auge de la
inteligencia artificial es que pase de ser una herramienta útil y
complementaria a convertirse en una autoridad
que no se cuestiona. En muchos contextos, ya estamos comenzando a
naturalizar sus respuestas y recomendaciones como si fueran objetivas,
neutrales e infalibles. Esta actitud puede llevar a una delegación excesiva del juicio humano, basada en la premisa
implícita de que “si lo dice la máquina, debe ser cierto”. Muy parecido
a lo que sucedió primero con la prensa, tanto impresa, radial y televisiva y
ahora a las redes sociales. No porque se divulgue en estos medios tiene que ser
necesariamente cierto.
Sin embargo, este enfoque es profundamente
problemático. La inteligencia artificial no es una conciencia moral, ni un
sujeto racional, ni mucho menos una fuente de verdad absoluta. Está entrenada con datos generados por seres
humanos y, por tanto, hereda
tanto nuestras capacidades como nuestras limitaciones, prejuicios, sesgos
históricos y desigualdades estructurales. Si no somos conscientes de
este origen, corremos el riesgo de automatizar
la discriminación y reforzar
desigualdades, dándoles además un revestimiento de legitimidad
algorítmica.
Aceptar los resultados de la IA sin cuestionarlos
implica una forma de rendición
cognitiva, aceptar que la inteligencia artificial está por encima de la
humana, donde la automatización sustituye al pensamiento, la interpretación y
el discernimiento. Esta situación puede derivar en una cultura de la obediencia
tecnológica, donde las decisiones se ejecutan sin participación crítica y sin
posibilidad de réplica, reduciendo la autonomía individual y colectiva.
Por ello, educar en IA-alfabetización no es únicamente un proceso técnico, centrado en el uso
instrumental de herramientas digitales. Es, sobre todo, una tarea cultural, ética y política, que debe
cultivar en los ciudadanos la capacidad de analizar, evaluar y decidir con
conciencia frente a las tecnologías que los rodean. En este contexto, es
indispensable enseñar a:
- Leer los resultados de la IA con mirada crítica,
interrogando las fuentes, los métodos y las posibles intenciones detrás de
cada respuesta generada por un sistema inteligente.
- Detectar sesgos, vacíos y limitaciones en
las respuestas automatizadas, entendiendo que ningún modelo es
completamente neutro ni universalmente válido.
- Exigir transparencia, explicabilidad y
rendición de cuentas a quienes diseñan, implementan o promueven
sistemas de IA, tanto en el ámbito público como privado.
Solo así podremos evitar que la inteligencia
artificial se transforme en una nueva forma de poder opaco, no sometido a
control democrático. Y solo así, también, podremos garantizar que su
incorporación a la vida educativa, social y personal responda a valores de justicia, equidad y pensamiento crítico.
Riesgo de
reemplazo: delegar sin pensar
Cuando
dejamos que la IA piense por nosotros:
- Perdemos
autonomía.
- Perdemos el criterio.
- Y
lo más grave: perdemos la capacidad de disentir.
La
educación debe garantizar el derecho a cuestionar, no solo a obedecer. Y eso
implica devolver al pensamiento humano su lugar protagónico: la IA debe ser una herramienta, no un
sustituto.
En esta línea, es urgente crear estándares
sobre la IA-alfabetización, que nos permitan usar esta tecnología con fines
pedagógicos, sociales y creativos; evitar correr el riesgo de que las decisiones más
importantes sean tomadas por sistemas que no comprendemos, y
frente a los cuales no tenemos voz.
El reto educativo es claro: formar personas que piensen con inteligencia
artificial, pero no subordinadas a ella.
La IA puede ser una gran aliada, siempre que no sustituya a la menta humana y
su libertad de pensar, crear e innovar. En tiempos de algoritmos, alfabetizar en pensamiento crítico es más urgente que nunca.
No hay comentarios:
Publicar un comentario