![]() |
Los tres estados de apreciación sobre la IA |
En el 2002 el volumen de datos digitales almacenados
según
El incremento en la
cantidad de información a la que estamos expuestos nos obliga a un sobreesfuerzo
mental que implica la asimilación de más datos de los que permite nuestra
capacidad mental, conduciéndonos a la infoxicación
En los últimos años, la inteligencia
artificial (IA) ha pasado de ser un tema especializado a inundar nuestra vida
cotidiana con noticias, avances y debates constantes. Este bombardeo
informativo ha dado lugar a lo que voy a denominar como “Aitoxicación”:
una intoxicación informativa y mental provocada por la sobreexposición al flujo
acelerado de información y aplicaciones sobre IA.
El término parte de infoxicación y empleo un
neologismo que combina AI (siglas en inglés de inteligencia artificial)
con intoxicación. La Aitoxicación surge en paralelo a la
evolución vertiginosa de la IA: a medida que esta tecnología avanza y se
populariza, la cantidad de datos, opiniones y contenidos crece
exponencialmente.
Causas de la “Aitoxicación”
Innovación acelerada y flujo constante de
novedades
Una de las causas principales de la Aitoxicación
es la rápida innovación tecnológica en el campo de la IA. En poco tiempo
hemos visto un salto enorme en las capacidades de los sistemas de IA,
especialmente los modelos de lenguaje de gran tamaño (LLM) y las IA
generativas. Es frecuente encontrar como se incorporan nuevos modelos dentro de
la misma herramienta generativa. Una interesante línea
del tiempo muestra la evolución acelerada de las innovaciones en este
campo.
De la versión de ChatGPT 3-5 que se hizo
pública en noviembre del 2022 se pasó en marzo a la versión 4 mucho más potente
que la anterior. Hoy como usuario de esta herramienta me siento confundido ante
tantas versiones, cada una especializada o con mejor rendimiento en un área en
específico. Este fenómeno, que cuando te estás acostumbrando a
una versión, aparece una nueva, trae como consecuencia la sensación de “no
poder” seguir ni siquiera mínimamente el ritmo de la industria y esto
contribuye a la Aitoxicación.
Competencia empresarial y “carrera
armamentista” de la IA
Ligada a lo anterior está la competencia
entre grandes empresas tecnológicas y startups por liderar la revolución de
la IA. El éxito viral de modelos como ChatGPT sacudió la industria e “ignitó
una carrera” entre compañías para apresurar la salida de productos de
IA al mercado. Google, por ejemplo, declaró un “código rojo” interno tras
el lanzamiento de ChatGPT, acelerando el desarrollo de su propio chatbot Bard,
después llamado Gemini y lanzado un año después de ChatGPT.
Microsoft integró rápidamente modelos de
OpenAI en sus productos, como su buscador Bing potenciado con IA, mientras que
otras firmas como Meta, Amazon, IBM, startups como Anthropic, y otras anunciaron sus
respectivas innovaciones. Esta carrera por no quedarse atrás genera un
flujo continuo de comunicados, eventos y versiones mejoradas que saturan el
panorama informativo. Cada empresa promueve su avance como revolucionario,
alimentando una narrativa de novedad constante.
La guerra más
reciente fue la generada por la salida del bot de origen chino Deepseek, que logró derrumbar
las acciones de Nvidea, después siguieron mejoras en Claude y Le Chat este
último se autoproclamó como el mejor
compañero de IA para la vida y el trabajo. Pero esta guerra no es solo
entre oriente y occidente, sino entre los propios sistemas chinos. Qwen
acaba de sacar un nuevo modelo que deja atrás en la capacidad de razonamiento a
su coterráneo Deepseek y también lo ha puesto en modo abierto.
Narrativa mediática sensacionalista (entre
el hype y el miedo)
Otra fuente clave de Aitoxicación es la
cobertura mediática y el debate público en torno a la IA, a menudo
marcado por el sensacionalismo. Muchos medios de comunicación han enfrentado el
reto de cubrir la IA sin caer en exageraciones, pero no siempre lo han logrado.
Con frecuencia, la prensa actúa como aliada de los anuncios de las grandes
empresas, bigtech “uniéndose
a la emoción y expectativa exagerada —lo que algunos llaman el ‘hype’—,
haciendo afirmaciones sin mayores cuestionamientos” Es decir, se publican
titulares grandilocuentes sobre cada avance: que si una IA “ya puede razonar
como un humano”, que si marcará “un antes y un después” en tal industria, entre otros titulares, aun cuando la realidad técnica es más modesta. Este show mediático
alimenta una idealización desmesurada de la IA en parte del público, que
podría creer que ya disponemos de inteligencias casi humanas en nuestros
ordenadores y celulares.
Por otro lado, no falta la narrativa del
miedo en la cobertura de IA. Del mismo modo que algunos medios inflan las
promesas, otros se convierten en “profetas
del miedo”, enfatizando los peores escenarios. Es común ver noticias
alarmistas sobre IA fuera de control, la “rebelión de las máquinas” o
predicciones apocalípticas atribuidas a figuras tecnológicas. Un ejemplo citado
ocurrió en abril de 2023, cuando un importante diario reprodujo sin matices las
declaraciones de Elon Musk “revelando”
cuándo la IA superaría a la humana, como si se tratase de una profecía
ineludible. Este tipo de enfoque sensacionalista (ya sea optimista o
catastrofista) contribuye a la desinformación y la confusión. La mezcla
de noticias exageradamente optimistas con otras excesivamente negativas crea un
ruido informativo en el que al público le cuesta discernir la realidad:
¿estamos ante una tecnología milagrosa, o ante una amenaza existencial? El
resultado, si no se maneja con criterio, es una intoxicación por
mensajes contradictorios.
En este campo también están los que señalan que la IA no es de ellos, que no sucederá nada, que es mejor seguir como estaban, olvidando que todo cambio tecnológico supone siempre modificaciones a nuestras formas de desarrollarnos. En especial conozco profesores que expresan criterios conformistas o que descalifican sin argumentos a los que ponen el énfasis en las utilidades didácticas de la IA.
Sobrecarga en redes sociales y opinión pública
Un factor ineludible es el ecosistema de las redes sociales y foros en Internet, donde la discusión sobre IA se multiplica. Cada nuevo avance genera tendencias en Twitter (X), hilos en Reddit, videos en YouTube y TikTok, boletines y publicaciones en LinkedIn, sin mencionar otras redes. Expertos, entusiastas y críticos comparten al instante sus opiniones –muchas veces polarizadas– sobre el último modelo de turno. La accesibilidad de estas plataformas hace que todos podamos opinar o republicar información sobre IA, aumentando el caudal informativo, pero no siempre su calidad. Rumores, demos impresionantes sacados de contexto, o afirmaciones no comprobadas se esparcen rápidamente, contribuyendo al ruido. Además, las discusiones sobre los riesgos éticos, como los sesgos algorítmicos, impacto en el empleo, posibles regulaciones, están a la orden del día, con posturas enfrentadas que pueden saturar a quien intenta formarse una opinión equilibrada. En resumen, la combinación de innovación frenética, competencia comercial y cobertura mediática hiperbolizada, amplificada por las redes sociales, crea el caldo de cultivo perfecto para la Aitoxicación.
Efectos en la percepción de la IA
La Aitoxicación tiene consecuencias
directas en cómo la sociedad percibe y entiende la inteligencia artificial.
Tres efectos destacados son la desinformación generalizada, el surgimiento de
temores exagerados y, en el extremo opuesto, la idealización irreal de la
tecnología.
Desinformación y confusión: Cuando estamos expuestos a una gran cantidad de información, a
menudo contradictoria, se dificulta evaluar la veracidad de los datos y las
fuentes. Esto puede llevarnos a creer información falsa, sesgada o
manipulada sobre la IA En otras palabras, el exceso de contenido nos aturde
al punto que perdemos claridad
sobre qué es cierto y qué no. Por ejemplo, en medio del ruido uno puede
leer que “una IA descubrió la cura del cáncer” y también que “la IA
miente todo el tiempo”, sin contexto ni matices. Si no se analiza con
cuidado, la sobrecarga informativa mina nuestro juicio crítico, podemos creer
ciegamente en las historias pseudocientíficas atribuidas a IA, y llegar a ignorar
información relevante por puro agotamiento. Además, la Aitoxicación entorpece
la capacidad de profundizar: se consumen muchos titulares, pero se entiende
poco. Los expertos advierten que esta saturación “puede tener consecuencias
negativas para nuestra salud mental, [nuestro] juicio crítico y [la] capacidad
para discernir información relevante y precisa”. Llegamos a un efecto
claro: la fatiga informativa, donde las personas terminan
desconfiando de todo lo referido a la IA, por considerarlo exagerado, mientras
que otras creen ideas erróneas o simplistas, faltándoles referencias fiables,
entre tanto dato.
Temor exagerado y tecnofobia: Otro efecto es que, alimentados por narrativas catastrofistas,
sectores de la opinión pública desarrollan miedos desproporcionados
frente a la IA. Ciertamente, la IA conlleva riesgos reales que merecen atención.
Sin embargo, la Aitoxicación puede inflar esos temores más allá de la
evidencia disponible. Por ejemplo, tras consumir un aluvión de noticias sobre “IA
que podrían acabar con la humanidad” o escuchar a voces alarmistas comparar
la IA con amenazas existenciales, no es raro que el público imagine
escenarios de ciencia ficción inminentes. Estudios sobre cobertura
mediática indican que las personas que tienden a creer que las
representaciones de la IA en los medios son realistas, son las mismas que
tienden a percibir la IA como posibles “terminators” (máquinas rebeldes
asesinas) o incluso como compañeros
románticos .Es decir, una
imagen distorsionada de la IA. Actualmente, la IA disponible es estrecha o
específica, enfocada a tareas puntuales, por ejemplo, ChatGPT escribe textos,
pero no “piensa” autónomamente; un sistema de visión detecta objetos,
pero no siente. No obstante, la saturación informativa puede hacer creer
a algunos que ya existe una superinteligencia general, provocando ansiedad
excesiva ante un supuesto apocalipsis robótico. Este temor exagerado puede
frenar la adopción racional de tecnologías útiles, por desconfianza extrema y generar pánico moral. Como señalan
analistas, el sensacionalismo no debería primar sobre la evidencia
científica disponible hoy. Es importante distinguir la preocupación
legítima, como es el caso de exigir regulaciones, del alarmismo
infundado que deriva de una imagen intoxicada de la IA.
Idealización desmesurada y expectativas
infladas. En el polo opuesto, la Aitoxicación
también produce una sobrevaloración ingenua de la IA. El constante hype
puede llevar a que parte del público, y no pocos directivos o políticos, a idealizar la tecnología, viéndola como solución mágica a todos los problemas o
atribuyéndole capacidades cuasi-humanas que en realidad no posee. Por ejemplo,
cuando un medio tituló que “la
IA ya es capaz de razonar” muchos lectores pudieron asumir que sistemas
como ChatGPT entienden y piensan igual que un cerebro humano, cuando en
realidad se trata de modelos estadísticos que aún cometen errores y carecen de
sentido común genuino. Esta idealización conlleva expectativas poco
realistas: creer que en cuestión de meses la IA resolverá el cambio
climático, o que un chatbot podrá gestionar una empresa sin ayuda humana, o dirigir
una escuela. Esto último se hizo realidad en un colegio inglés donde el
director cuenta con la ayuda de Abigail
Bailey una IA entrenada. El peligro de estas expectativas infladas es la desilusión
posterior, cuando la realidad no cumple la promesa y la mala toma de
decisiones por desconocer las limitaciones.
Cabe mencionar que estos efectos no son
mutuamente excluyentes; de hecho, pueden coexistir. Una misma persona puede
sentirse paralizada ante tanta información, confusión, temerosa por
algunas cosas que ha leído y al mismo tiempo deslumbrada por otras. El
resultado general de la Aitoxicación es una percepción social volátil
y polarizada de la IA: cuesta encontrar puntos medios entre el entusiasmo y
el recelo.
Posibles soluciones ante la saturación
informativa de IA
Superar la Aitoxicación requiere “antídotos”
que van desde hábitos personales de consumo de información hasta medidas
educativas y sociales. A partir del trabajo con profesores y estudiantes en
estos dos últimos años, podemos sugerir algunas estrategias para filtrar la
información, fortalecer el pensamiento crítico y adoptar un enfoque equilibrado
frente a la IA.
Filtrar y seleccionar fuentes confiables: Dado que no podemos absorber todo lo que se publica sobre IA, es
crucial ser selectivos con la información que consumimos. Esto implica elegir
fuentes fiables y de calidad, evitar aquellos que inician sus titulares con
frases apocalípticas, titulares sensacionalistas o rumores de redes sociales.
Una práctica útil es centralizar las noticias en unas pocas fuentes curadas
(por ejemplo, usando lectores
RSS o boletines de instituciones confiables. De este modo omitiremos el
ruido y recibiremos sólo aquello que realmente aporta valor o interesa,
reduciendo la ansiedad por querer enterarnos de absolutamente todo. Del lado
contrario, conviene “darse de baja” de fuentes que continuamente
desinforman o saturan, como el caso de canales de videos, cuentas en redes,
páginas de diarios alarmistas, entre otros.
Verificar datos y no propagar
desinformación. Ante cualquier noticia o afirmación
sorprendente sobre IA, es recomendable adoptar una actitud de escepticismo
sano hasta confirmarla. Muchas veces un titular impactante resulta ser
inexacto al leer la letra pequeña. Por ello, hay que comprobar la veracidad
antes de compartir algo dudoso. Lo mismo sucede con imágenes y videos que parecen
ser muy reales, pero no lo son. En las últimas semanas, se han
visto videos de personas que limpian de costras marinas a ballenas y estas están
tan agradecidas que lo único que les falta es que hagan un video para TikTok
agradeciendo a los humanos. Se ponen de moda los consejos de médicos expertos que
gracias a la IA descubren la cura de los males de la humanidad. Como señala el
experto Antonio Delgado: con la IA cero
confianza
Alfabetización en IA con sentido crítico. Más allá de las medidas de curación de contenido, la mejor defensa
contra la Aitoxicación es un público bien informado y con criterio
propio. Esto implica fomentar la alfabetización digital y en especial en inteligencia artificial, comprender los conceptos básicos de cómo funciona
la IA, sus alcances y limitaciones actuales, para poder contextualizar las
noticias. Tener presente esta idea ayuda a no sobredimensionar cada
avance ni temer antes de tiempo a un escenario de ciencia ficción. El
pensamiento crítico conlleva hacerse preguntas clave ante cada información:
¿quién lo dice y con qué fin? ¿Qué evidencia hay? ¿Esto es técnicamente posible
o suena demasiado bueno/terrible para ser verdad? También supone equilibrar
las perspectivas: leer tanto opiniones a favor como críticas, y formarse un
juicio ponderado. Un consejo útil es seguir a expertos de distintas posturas
en el tema en lugar de repetir una sola opinión.
Mantener un enfoque equilibrado. Dado que la narrativa sobre la IA oscila entre extremos, es importante
situarnos en un punto medio informado. Un enfoque equilibrado reconoce
que la IA ofrece enormes oportunidades, pero que también conlleva riesgos
y desafíos que hay que gestionar. Podemos apreciar, e incluso maravillarnos, con los logros de la IA, sin por ello ignorar sus fallos o peligros. Como
sugiere la presidenta de la Comisión
Europea, “la IA es una oportunidad muy significativa si se usa de forma
responsable”. La clave está en el uso responsable y eso requiere conciencia
crítica. La tecnología no es buena, ni mala; es el ser humano el
responsable de su empleo. Desde la primera tecnología creada por el ser humano
(la rueda) hasta las herramientas de IA, el empleo fue y seguirá siendo variado.
Gestionar la exposición informativa y la
salud mental. Por último, es válido recordar que debemos
cuidar de nuestra salud mental informativa. Si la sobrecarga de noticias
de IA nos genera ansiedad o estrés, es aconsejable dosificar la
exposición. Nadie está obligado a seguir cada microavance en tiempo real.
Prácticas como tomar descansos digitales, bloquear por tiempo las aplicaciones
de redes sociales, emplear las opciones de bienestar digital de nuestros
móviles, son recomendaciones para desconectar en un mundo excesivamente
conectado y conectar más tiempo con la familia y amigos cercanos.
En conclusión, la Aitoxicación es un
reto de nuestra era, pero podemos afrontarlo con herramientas personales y
colectivas. Informarnos de manera selectiva, mantener un sano escepticismo
ante lo que vemos, formarnos en los fundamentos de la IA y equilibrar nuestras
emociones al respecto nos permitirá navegar el torrente informativo sin
naufragar. Del lado de la industria y los gobiernos, también es importante
fomentar la transparencia, que las empresas comuniquen claramente qué
hace y qué no hace su IA y la educación en estas materias.
Idealmente, con el tiempo, la conversación social sobre IA madurará, menos ruido y más conocimiento, y podremos aprovechar lo mejor de esta tecnología
minimizando los efectos tóxicos de la desinformación.
Redactado con la colaboración de ChatGPT en modo
Deep Research.
Goldhaber,
M. (2006). The value of openness in an attention economy. First Monday.
https://doi.org/10.5210/fm.v11i6.1334
Hilbert,
M., & López, P. (n.d.). The World’s Technological Capacity to Store,
Communicate, and Compute Information. www.sciencemag.org
Lyman,
P., & Varian, H. R. (2000). Reprint: How Much Information? The Journal
of Electronic Publishing, 6(2).
https://doi.org/10.3998/3336451.0006.204
No hay comentarios:
Publicar un comentario