![]() |
Imagen generada con Copilot |
En colaboración con la Dra. Mercedes Leticia Sánchez Ambriz
Días atrás, en una charla sobre IA con profesores, uno me dijo: “Eso es para hacer trampa, los estudiantes la están utilizando para copiar y pegar”. Meses atrás una profesora me comentó su total rechazo a ChatGPT por los sesgos que había detectado. En ambos casos no hubo tiempo para el asombro, la curiosidad o la pregunta. Solo una sentencia. Esta reacción, más común de lo que quisiéramos, revela un patrón que se repite en muchos escenarios: frente a la IA, lo primero que emerge es el juicio negativo. Pero, ¿qué hay detrás de esta respuesta casi instintiva? Y más aún, ¿cómo podríamos girar 180 grados y ver en la IA una posibilidad, no una amenaza?
Comprender el origen del rechazo
El miedo a lo desconocido ha acompañado cada etapa de
desarrollo tecnológico. Desde la imprenta hasta internet, siempre ha habido
voces que advierten sobre los peligros antes de explorar las oportunidades. La
inteligencia artificial no escapa a esta lógica. Lo que cambia es la velocidad
con la que estas herramientas se expanden, lo que multiplica la desinformación
y la ansiedad.
Esta reacción puede entenderse también como una resistencia
tecnológica emocional, una respuesta basada más en el temor, la inseguridad
o la ansiedad que en una comprensión real de la herramienta. Es una barrera
emocional inicial que bloquea la posibilidad de explorar la IA con apertura y
sentido crítico.
El miedo para este tipo de situaciones tiene diferentes
denominaciones como; tecnofobia, tecno paranoia, ciberfobia, apocalipticismo
tecnológico, entre otros muchos. Fundados o no, estos miedos existen, se
transmiten con facilidad y se convierten en murallas que no dejan ver más allá
de la realidad y el cambio constante. Estos miedos se incrementan cuando leemos
investigaciones que demuestran que desde el punto de vista técnico, ChatGPT 4 supera
la creatividad humana en diferentes tareas.
A lo anterior se suma la narrativa dominante en los medios:
titulares que enfatizan el reemplazo de empleos, la deshumanización de los
procesos y la amenaza al pensamiento crítico. En un entorno así, no es extraño
que el primer contacto con la IA active un filtro negativo automático,
un sesgo que la mente adopta para protegerse de lo que no comprende. De acuerdo
con
En distintas ocasiones se aprecia
una reacción de sospecha, lo nuevo debo revisarlo, no lo entiendo y le aplico
un filtro negativo apoyado en sesgos e informaciones, generalmente sin rigor. Es una negatividad de arranque, una actitud donde prima la parálisis
a aceptar lo nuevo, debido a ideas preconcebidas, difíciles de modificar. En el
fondo es un miedo sin método, sin fundamento crítico; es la reacción a lo
desconocido.
Este rechazo también es reflejo de un déficit de IA-alfabetización.
No se trata de saber emplear las herramientas, sino de comprender qué hace cada una, sus
posibilidades y límites. También, como enfatiza
Debemos tener razones para confiar
en que los sistemas y herramientas de IA deben brindar beneficios individuales
y colectivos, a la par que se adopte todo tipo de medida para su regulación y
empleo beneficioso.
La necesidad de una IA-alfabetización crítica
IA-alfabetizar no es adoctrinar sobre las bondades de la
inteligencia artificial, sino formar ciudadanos capaces de preguntar, evaluar,
experimentar y decidir. Es incorporar la IA al conjunto de
herramientas que nos ayudan a pensar mejor, a resolver problemas, a crear y a
aprender
Una alfabetización crítica permite romper el ciclo del temor
y convertir el juicio en curiosidad. No se trata de usar la IA por moda, sino
con sentido. Por eso, necesitamos que el acompañamiento docente, las
instituciones y los medios contribuyan a democratizar el conocimiento sobre IA.
Girar 180 grados: del juicio al uso consciente
El cambio de mirada implica una transformación profunda:
pasar de preguntarnos “¿qué me va a quitar la IA?”, a “¿qué puedo
hacer mejor con ella?”. Este giro no implica ingenuidad, sino conciencia.
Supone explorar, fallar, aprender y evaluar.
Veo diariamente a docentes que emplean IA para
retroalimentar más rápido. Me encuentro con estudiantes que crean contenido
digital con apoyo de modelos generativos. Colaboro con investigadores que
optimizan su tiempo de análisis. Todos ellos han girado 180 grados. Han
superado la negatividad de arranque y ahora ven la IA como una aliada, un
asesor, no como una amenaza.
Si seguimos dejando que el temor gobierne la primera
impresión, estaremos cediendo a una forma de parálisis por percepción. Es
momento de invertir la pregunta: en vez de preguntarnos qué daños puede hacer
la IA, deberíamos cuestionarnos qué posibilidades estamos perdiendo por no
conocerla. Lo que no se conoce, se teme. La IA no es el problema. El
problema es cómo decidimos mirarla.
El
Zailah-Bernal, D., & González-Durán, E. J. (2024). Miradas plurales de la
tecnofobia. Revista Politécnica, 20(39), 148–156.
https://doi.org/10.33571/rpolitec.v20n39a10
Hutson, J.,
& Plate, D. (2024). The Algorithm of Fear: Unpacking Prejudice Against AI
and the Mistrust of Technology. Journal of Innovation and Technology, 2024(1).
https://doi.org/10.61453/joit.v2024no38
UNESCO. (2022). Recomendación
sobre la ética de la inteligencia artificial Adoptada el 23 de noviembre de
2021. www.unesco.org/open-access/terms-use-ccbyncsa-sp
No hay comentarios:
Publicar un comentario