sábado, 12 de abril de 2025

Girar 180 grados: de la sospecha a la oportunidad con la IA

Imagen generada con Copilot

En colaboración con la Dra. Mercedes Leticia Sánchez Ambriz

Días atrás, en una charla sobre IA con profesores, uno me dijo: “Eso es para hacer trampa, los estudiantes la están utilizando para copiar y pegar”. Meses atrás una profesora me comentó su total rechazo a ChatGPT por los sesgos que había detectado. En ambos casos no hubo tiempo para el asombro, la curiosidad o la pregunta. Solo una sentencia. Esta reacción, más común de lo que quisiéramos, revela un patrón que se repite en muchos escenarios: frente a la IA, lo primero que emerge es el juicio negativo. Pero, ¿qué hay detrás de esta respuesta casi instintiva? Y más aún, ¿cómo podríamos girar 180 grados y ver en la IA una posibilidad, no una amenaza?

Comprender el origen del rechazo

El miedo a lo desconocido ha acompañado cada etapa de desarrollo tecnológico. Desde la imprenta hasta internet, siempre ha habido voces que advierten sobre los peligros antes de explorar las oportunidades. La inteligencia artificial no escapa a esta lógica. Lo que cambia es la velocidad con la que estas herramientas se expanden, lo que multiplica la desinformación y la ansiedad.

Esta reacción puede entenderse también como una resistencia tecnológica emocional, una respuesta basada más en el temor, la inseguridad o la ansiedad que en una comprensión real de la herramienta. Es una barrera emocional inicial que bloquea la posibilidad de explorar la IA con apertura y sentido crítico.

El miedo para este tipo de situaciones tiene diferentes denominaciones como; tecnofobia, tecno paranoia, ciberfobia, apocalipticismo tecnológico, entre otros muchos. Fundados o no, estos miedos existen, se transmiten con facilidad y se convierten en murallas que no dejan ver más allá de la realidad y el cambio constante. Estos miedos se incrementan cuando leemos investigaciones que demuestran que desde el punto de vista técnico, ChatGPT 4 supera la creatividad humana en diferentes tareas. (Hutson & Plate, 2024)

A lo anterior se suma la narrativa dominante en los medios: titulares que enfatizan el reemplazo de empleos, la deshumanización de los procesos y la amenaza al pensamiento crítico. En un entorno así, no es extraño que el primer contacto con la IA active un filtro negativo automático, un sesgo que la mente adopta para protegerse de lo que no comprende. De acuerdo con (El Zailah-Bernal & González-Durán, 2024) podemos llamar a la tecnología como social, forma parte de la sociedad, es un aliado permanente del que no queremos desprendernos.

En distintas ocasiones se aprecia una reacción de sospecha, lo nuevo debo revisarlo, no lo entiendo y le aplico un filtro negativo apoyado en sesgos e informaciones, generalmente sin rigor. Es una negatividad de arranque, una actitud donde prima la parálisis a aceptar lo nuevo, debido a ideas preconcebidas, difíciles de modificar. En el fondo es un miedo sin método, sin fundamento crítico; es la reacción a lo desconocido.

Este rechazo también es reflejo de un déficit de IA-alfabetización. No se trata de saber emplear las herramientas, sino de comprender qué hace cada una, sus posibilidades y límites. También, como enfatiza (UNESCO, 2022) considerar el empleo ético y efectivo en la sociedad actual y en las generaciones futuras.

Debemos tener razones para confiar en que los sistemas y herramientas de IA deben brindar beneficios individuales y colectivos, a la par que se adopte todo tipo de medida para su regulación y empleo beneficioso. (UNESCO, 2022)

La necesidad de una IA-alfabetización crítica

IA-alfabetizar no es adoctrinar sobre las bondades de la inteligencia artificial, sino formar ciudadanos capaces de preguntar, evaluar, experimentar y decidir. Es incorporar la IA al conjunto de herramientas que nos ayudan a pensar mejor, a resolver problemas, a crear y a aprender

Una alfabetización crítica permite romper el ciclo del temor y convertir el juicio en curiosidad. No se trata de usar la IA por moda, sino con sentido. Por eso, necesitamos que el acompañamiento docente, las instituciones y los medios contribuyan a democratizar el conocimiento sobre IA.

Girar 180 grados: del juicio al uso consciente

El cambio de mirada implica una transformación profunda: pasar de preguntarnos “¿qué me va a quitar la IA?”, a “¿qué puedo hacer mejor con ella?”. Este giro no implica ingenuidad, sino conciencia. Supone explorar, fallar, aprender y evaluar.

Veo diariamente a docentes que emplean IA para retroalimentar más rápido. Me encuentro con estudiantes que crean contenido digital con apoyo de modelos generativos. Colaboro con investigadores que optimizan su tiempo de análisis. Todos ellos han girado 180 grados. Han superado la negatividad de arranque y ahora ven la IA como una aliada, un asesor, no como una amenaza.

Si seguimos dejando que el temor gobierne la primera impresión, estaremos cediendo a una forma de parálisis por percepción. Es momento de invertir la pregunta: en vez de preguntarnos qué daños puede hacer la IA, deberíamos cuestionarnos qué posibilidades estamos perdiendo por no conocerla. Lo que no se conoce, se teme. La IA no es el problema. El problema es cómo decidimos mirarla.


El Zailah-Bernal, D., & González-Durán, E. J. (2024). Miradas plurales de la tecnofobia. Revista Politécnica, 20(39), 148–156. https://doi.org/10.33571/rpolitec.v20n39a10

Hutson, J., & Plate, D. (2024). The Algorithm of Fear: Unpacking Prejudice Against AI and the Mistrust of Technology. Journal of Innovation and Technology, 2024(1). https://doi.org/10.61453/joit.v2024no38

UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial Adoptada el 23 de noviembre de 2021. www.unesco.org/open-access/terms-use-ccbyncsa-sp

 

No hay comentarios:

Publicar un comentario