domingo, 9 de marzo de 2025

La “Aitoxicación”: intoxicación informativa en la era de la IA

Los tres estados de apreciación sobre la IA

En el 2002 el volumen de datos digitales almacenados según (Lyman & Varian, 2000) superaba a todos los registros en formato analógico, existentes hasta esa fecha. Solo se necesitaron cinco años más para que el 94% de toda la información sea en formato digital (Hilbert & López, n.d.). El conocido sociólogo Alvin Toffler en su obra Future Schok de 1970 hace referencia al crecimiento acelerado de la información y es a principios de los 90 que empieza a popularizarse el término de infoxicación.

El incremento en la cantidad de información a la que estamos expuestos nos obliga a un sobreesfuerzo mental que implica la asimilación de más datos de los que permite nuestra capacidad mental, conduciéndonos a la infoxicación (Goldhaber, 2006)reconocido en otros ámbitos como síndrome de la fatiga informativa o intoxicación por información.

En los últimos años, la inteligencia artificial (IA) ha pasado de ser un tema especializado a inundar nuestra vida cotidiana con noticias, avances y debates constantes. Este bombardeo informativo ha dado lugar a lo que voy a denominar como Aitoxicación: una intoxicación informativa y mental provocada por la sobreexposición al flujo acelerado de información y aplicaciones sobre IA.

El término parte de infoxicación y empleo un neologismo que combina AI (siglas en inglés de inteligencia artificial) con intoxicación. La Aitoxicación surge en paralelo a la evolución vertiginosa de la IA: a medida que esta tecnología avanza y se populariza, la cantidad de datos, opiniones y contenidos crece exponencialmente.

Causas de la “Aitoxicación”

Innovación acelerada y flujo constante de novedades

Una de las causas principales de la Aitoxicación es la rápida innovación tecnológica en el campo de la IA. En poco tiempo hemos visto un salto enorme en las capacidades de los sistemas de IA, especialmente los modelos de lenguaje de gran tamaño (LLM) y las IA generativas. Es frecuente encontrar como se incorporan nuevos modelos dentro de la misma herramienta generativa. Una interesante línea del tiempo muestra la evolución acelerada de las innovaciones en este campo.

De la versión de ChatGPT 3-5 que se hizo pública en noviembre del 2022 se pasó en marzo a la versión 4 mucho más potente que la anterior. Hoy como usuario de esta herramienta me siento confundido ante tantas versiones, cada una especializada o con mejor rendimiento en un área en específico. Este fenómeno, que cuando te estás acostumbrando a una versión, aparece una nueva, trae como consecuencia la sensación de “no poder” seguir ni siquiera mínimamente el ritmo de la industria y esto contribuye a la Aitoxicación.

Competencia empresarial y “carrera armamentista” de la IA

Ligada a lo anterior está la competencia entre grandes empresas tecnológicas y startups por liderar la revolución de la IA. El éxito viral de modelos como ChatGPT sacudió la industria e ignitó una carrera entre compañías para apresurar la salida de productos de IA al mercado. Google, por ejemplo, declaró un “código rojo” interno tras el lanzamiento de ChatGPT, acelerando el desarrollo de su propio chatbot Bard, después llamado Gemini y lanzado un año después de ChatGPT.

Microsoft integró rápidamente modelos de OpenAI en sus productos, como su buscador Bing potenciado con IA, mientras que otras firmas como Meta, Amazon, IBM, startups como Anthropic, y otras anunciaron sus respectivas innovaciones. Esta carrera por no quedarse atrás genera un flujo continuo de comunicados, eventos y versiones mejoradas que saturan el panorama informativo. Cada empresa promueve su avance como revolucionario, alimentando una narrativa de novedad constante.

La guerra más reciente fue la generada por la salida del bot de origen chino  Deepseek, que logró derrumbar las acciones de Nvidea, después siguieron mejoras en Claude y Le Chat este último se autoproclamó como el  mejor compañero de IA para la vida y el trabajo. Pero esta guerra no es solo entre oriente y occidente, sino entre los propios sistemas chinos. Qwen acaba de sacar un nuevo modelo que deja atrás en la capacidad de razonamiento a su coterráneo Deepseek y también lo ha puesto en modo abierto.

Narrativa mediática sensacionalista (entre el hype y el miedo)

Otra fuente clave de Aitoxicación es la cobertura mediática y el debate público en torno a la IA, a menudo marcado por el sensacionalismo. Muchos medios de comunicación han enfrentado el reto de cubrir la IA sin caer en exageraciones, pero no siempre lo han logrado. Con frecuencia, la prensa actúa como aliada de los anuncios de las grandes empresas, bigtech  “uniéndose a la emoción y expectativa exagerada —lo que algunos llaman el ‘hype’—, haciendo afirmaciones sin mayores cuestionamientos” Es decir, se publican titulares grandilocuentes sobre cada avance: que si una IA “ya puede razonar como un humano”, que si marcará “un antes y un después” en tal industria, entre otros titulares, aun cuando la realidad técnica es más modesta. Este show mediático alimenta una idealización desmesurada de la IA en parte del público, que podría creer que ya disponemos de inteligencias casi humanas en nuestros ordenadores y celulares.

Por otro lado, no falta la narrativa del miedo en la cobertura de IA. Del mismo modo que algunos medios inflan las promesas, otros se convierten en profetas del miedo, enfatizando los peores escenarios. Es común ver noticias alarmistas sobre IA fuera de control, la “rebelión de las máquinas” o predicciones apocalípticas atribuidas a figuras tecnológicas. Un ejemplo citado ocurrió en abril de 2023, cuando un importante diario reprodujo sin matices las declaraciones de Elon Musk “revelando” cuándo la IA superaría a la humana, como si se tratase de una profecía ineludible. Este tipo de enfoque sensacionalista (ya sea optimista o catastrofista) contribuye a la desinformación y la confusión. La mezcla de noticias exageradamente optimistas con otras excesivamente negativas crea un ruido informativo en el que al público le cuesta discernir la realidad: ¿estamos ante una tecnología milagrosa, o ante una amenaza existencial? El resultado, si no se maneja con criterio, es una intoxicación por mensajes contradictorios.

En este campo también están los que señalan que la IA no es de ellos, que no sucederá nada, que es mejor seguir como estaban, olvidando que todo cambio tecnológico supone siempre modificaciones a nuestras formas de desarrollarnos. En especial conozco profesores que expresan criterios conformistas o que descalifican sin argumentos a los que ponen el énfasis en las utilidades didácticas de la IA.

Sobrecarga en redes sociales y opinión pública

Un factor ineludible es el ecosistema de las redes sociales y foros en Internet, donde la discusión sobre IA se multiplica. Cada nuevo avance genera tendencias en Twitter (X), hilos en Reddit, videos en YouTube y TikTok, boletines y publicaciones en LinkedIn, sin mencionar otras redes. Expertos, entusiastas y críticos comparten al instante sus opiniones –muchas veces polarizadas– sobre el último modelo de turno. La accesibilidad de estas plataformas hace que todos podamos opinar o republicar información sobre IA, aumentando el caudal informativo, pero no siempre su calidad. Rumores, demos impresionantes sacados de contexto, o afirmaciones no comprobadas se esparcen rápidamente, contribuyendo al ruido. Además, las discusiones sobre los riesgos éticos, como los sesgos algorítmicos, impacto en el empleo, posibles regulaciones, están a la orden del día, con posturas enfrentadas que pueden saturar a quien intenta formarse una opinión equilibrada. En resumen, la combinación de innovación frenética, competencia comercial y cobertura mediática hiperbolizada, amplificada por las redes sociales, crea el caldo de cultivo perfecto para la Aitoxicación.

Efectos en la percepción de la IA

La Aitoxicación tiene consecuencias directas en cómo la sociedad percibe y entiende la inteligencia artificial. Tres efectos destacados son la desinformación generalizada, el surgimiento de temores exagerados y, en el extremo opuesto, la idealización irreal de la tecnología.

Desinformación y confusión: Cuando estamos expuestos a una gran cantidad de información, a menudo contradictoria, se dificulta evaluar la veracidad de los datos y las fuentes. Esto puede llevarnos a creer información falsa, sesgada o manipulada sobre la IA En otras palabras, el exceso de contenido nos aturde al punto que perdemos claridad sobre qué es cierto y qué no. Por ejemplo, en medio del ruido uno puede leer que “una IA descubrió la cura del cáncer” y también que “la IA miente todo el tiempo”, sin contexto ni matices. Si no se analiza con cuidado, la sobrecarga informativa mina nuestro juicio crítico, podemos creer ciegamente en las historias pseudocientíficas atribuidas a IA, y llegar a ignorar información relevante por puro agotamiento. Además, la Aitoxicación entorpece la capacidad de profundizar: se consumen muchos titulares, pero se entiende poco. Los expertos advierten que esta saturación “puede tener consecuencias negativas para nuestra salud mental, [nuestro] juicio crítico y [la] capacidad para discernir información relevante y precisa. Llegamos a un efecto claro: la fatiga informativa, donde las personas terminan desconfiando de todo lo referido a la IA, por considerarlo exagerado, mientras que otras creen ideas erróneas o simplistas, faltándoles referencias fiables, entre tanto dato.

Temor exagerado y tecnofobia: Otro efecto es que, alimentados por narrativas catastrofistas, sectores de la opinión pública desarrollan miedos desproporcionados frente a la IA. Ciertamente, la IA conlleva riesgos reales que merecen atención. Sin embargo, la Aitoxicación puede inflar esos temores más allá de la evidencia disponible. Por ejemplo, tras consumir un aluvión de noticias sobre “IA que podrían acabar con la humanidad” o escuchar a voces alarmistas comparar la IA con amenazas existenciales, no es raro que el público imagine escenarios de ciencia ficción inminentes. Estudios sobre cobertura mediática indican que las personas que tienden a creer que las representaciones de la IA en los medios son realistas, son las mismas que tienden a percibir la IA como posibles “terminators” (máquinas rebeldes asesinas) o incluso como compañeros románticos .Es decir, una imagen distorsionada de la IA. Actualmente, la IA disponible es estrecha o específica, enfocada a tareas puntuales, por ejemplo, ChatGPT escribe textos, pero no “piensa” autónomamente; un sistema de visión detecta objetos, pero no siente. No obstante, la saturación informativa puede hacer creer a algunos que ya existe una superinteligencia general, provocando ansiedad excesiva ante un supuesto apocalipsis robótico. Este temor exagerado puede frenar la adopción racional de tecnologías útiles, por desconfianza extrema y generar pánico moral. Como señalan analistas, el sensacionalismo no debería primar sobre la evidencia científica disponible hoy. Es importante distinguir la preocupación legítima, como es el caso de exigir regulaciones, del alarmismo infundado que deriva de una imagen intoxicada de la IA.

Idealización desmesurada y expectativas infladas. En el polo opuesto, la Aitoxicación también produce una sobrevaloración ingenua de la IA. El constante hype puede llevar a que parte del público, y no pocos directivos o políticos, a idealizar la tecnología, viéndola como solución mágica a todos los problemas o atribuyéndole capacidades cuasi-humanas que en realidad no posee. Por ejemplo, cuando un medio tituló que la IA ya es capaz de razonar muchos lectores pudieron asumir que sistemas como ChatGPT entienden y piensan igual que un cerebro humano, cuando en realidad se trata de modelos estadísticos que aún cometen errores y carecen de sentido común genuino. Esta idealización conlleva expectativas poco realistas: creer que en cuestión de meses la IA resolverá el cambio climático, o que un chatbot podrá gestionar una empresa sin ayuda humana, o dirigir una escuela. Esto último se hizo realidad en un colegio inglés donde el director cuenta con la ayuda de Abigail Bailey una IA entrenada. El peligro de estas expectativas infladas es la desilusión posterior, cuando la realidad no cumple la promesa y la mala toma de decisiones por desconocer las limitaciones.

Cabe mencionar que estos efectos no son mutuamente excluyentes; de hecho, pueden coexistir. Una misma persona puede sentirse paralizada ante tanta información, confusión, temerosa por algunas cosas que ha leído y al mismo tiempo deslumbrada por otras. El resultado general de la Aitoxicación es una percepción social volátil y polarizada de la IA: cuesta encontrar puntos medios entre el entusiasmo y el recelo.

Posibles soluciones ante la saturación informativa de IA

Superar la Aitoxicación requiere “antídotos” que van desde hábitos personales de consumo de información hasta medidas educativas y sociales. A partir del trabajo con profesores y estudiantes en estos dos últimos años, podemos sugerir algunas estrategias para filtrar la información, fortalecer el pensamiento crítico y adoptar un enfoque equilibrado frente a la IA.

Filtrar y seleccionar fuentes confiables: Dado que no podemos absorber todo lo que se publica sobre IA, es crucial ser selectivos con la información que consumimos. Esto implica elegir fuentes fiables y de calidad, evitar aquellos que inician sus titulares con frases apocalípticas, titulares sensacionalistas o rumores de redes sociales. Una práctica útil es centralizar las noticias en unas pocas fuentes curadas (por ejemplo, usando lectores RSS o boletines de instituciones confiables. De este modo omitiremos el ruido y recibiremos sólo aquello que realmente aporta valor o interesa, reduciendo la ansiedad por querer enterarnos de absolutamente todo. Del lado contrario, conviene “darse de baja” de fuentes que continuamente desinforman o saturan, como el caso de canales de videos, cuentas en redes, páginas de diarios alarmistas, entre otros.

Verificar datos y no propagar desinformación. Ante cualquier noticia o afirmación sorprendente sobre IA, es recomendable adoptar una actitud de escepticismo sano hasta confirmarla. Muchas veces un titular impactante resulta ser inexacto al leer la letra pequeña. Por ello, hay que comprobar la veracidad antes de compartir algo dudoso. Lo mismo sucede con imágenes y videos que parecen ser muy reales, pero no lo son. En las últimas semanas, se han visto videos de personas que limpian de costras marinas a ballenas y estas están tan agradecidas que lo único que les falta es que hagan un video para TikTok agradeciendo a los humanos. Se ponen de moda los consejos de médicos expertos que gracias a la IA descubren la cura de los males de la humanidad. Como señala el experto Antonio Delgado: con la IA cero confianza

Alfabetización en IA con sentido crítico. Más allá de las medidas de curación de contenido, la mejor defensa contra la Aitoxicación es un público bien informado y con criterio propio. Esto implica fomentar la alfabetización digital y en especial en inteligencia artificial, comprender los conceptos básicos de cómo funciona la IA, sus alcances y limitaciones actuales, para poder contextualizar las noticias. Tener presente esta idea ayuda a no sobredimensionar cada avance ni temer antes de tiempo a un escenario de ciencia ficción. El pensamiento crítico conlleva hacerse preguntas clave ante cada información: ¿quién lo dice y con qué fin? ¿Qué evidencia hay? ¿Esto es técnicamente posible o suena demasiado bueno/terrible para ser verdad? También supone equilibrar las perspectivas: leer tanto opiniones a favor como críticas, y formarse un juicio ponderado. Un consejo útil es seguir a expertos de distintas posturas en el tema en lugar de repetir una sola opinión.  

Mantener un enfoque equilibrado. Dado que la narrativa sobre la IA oscila entre extremos, es importante situarnos en un punto medio informado. Un enfoque equilibrado reconoce que la IA ofrece enormes oportunidades, pero que también conlleva riesgos y desafíos que hay que gestionar. Podemos apreciar, e incluso maravillarnos, con los logros de la IA, sin por ello ignorar sus fallos o peligros. Como sugiere la presidenta de la Comisión Europea, “la IA es una oportunidad muy significativa si se usa de forma responsable”. La clave está en el uso responsable y eso requiere conciencia crítica. La tecnología no es buena, ni mala; es el ser humano el responsable de su empleo. Desde la primera tecnología creada por el ser humano (la rueda) hasta las herramientas de IA, el empleo fue y seguirá siendo variado.

Gestionar la exposición informativa y la salud mental. Por último, es válido recordar que debemos cuidar de nuestra salud mental informativa. Si la sobrecarga de noticias de IA nos genera ansiedad o estrés, es aconsejable dosificar la exposición. Nadie está obligado a seguir cada microavance en tiempo real. Prácticas como tomar descansos digitales, bloquear por tiempo las aplicaciones de redes sociales, emplear las opciones de bienestar digital de nuestros móviles, son recomendaciones para desconectar en un mundo excesivamente conectado y conectar más tiempo con la familia y amigos cercanos.

En conclusión, la Aitoxicación es un reto de nuestra era, pero podemos afrontarlo con herramientas personales y colectivas. Informarnos de manera selectiva, mantener un sano escepticismo ante lo que vemos, formarnos en los fundamentos de la IA y equilibrar nuestras emociones al respecto nos permitirá navegar el torrente informativo sin naufragar. Del lado de la industria y los gobiernos, también es importante fomentar la transparencia, que las empresas comuniquen claramente qué hace y qué no hace su IA y la educación en estas materias. Idealmente, con el tiempo, la conversación social sobre IA madurará, menos ruido y más conocimiento, y podremos aprovechar lo mejor de esta tecnología minimizando los efectos tóxicos de la desinformación.

Redactado con la colaboración de ChatGPT en modo Deep Research.

Goldhaber, M. (2006). The value of openness in an attention economy. First Monday. https://doi.org/10.5210/fm.v11i6.1334

Hilbert, M., & López, P. (n.d.). The World’s Technological Capacity to Store, Communicate, and Compute Information. www.sciencemag.org

Lyman, P., & Varian, H. R. (2000). Reprint: How Much Information? The Journal of Electronic Publishing, 6(2). https://doi.org/10.3998/3336451.0006.204

 

No hay comentarios:

Publicar un comentario