Con la colaboración de Mercedes Leticia Sánchez Ambriz
![]() |
Creado con ChatGPT |
El 25 de
marzo de 2025 las redes sociales se inundaron de imágenes con la estética de
Studio Ghibli, lo que marcó un punto de inflexión en la cultura digital.
Caracterizadas por sus personajes de ojos grandes y expresivos, portadores de
narrativas visuales implícitas en cada mirada y sonrisa, estas creaciones
evocaban el legado de maestros como Hayao Miyazaki e Isao Takahata, cuya
habilidad para dar vida a personajes complejos y emocionalmente resonantes
había cautivado al mundo.
Con el
lanzamiento de las primeras versiones de modelos como DALL-E, Midjourney y
Stable Diffusion, hasta la integración de capacidades de generación de imágenes
en plataformas de uso masivo como ChatGPT, millones de personas en todo el
mundo sucumbieron a la fascinante capacidad de materializar sus ideas en forma
visual con tan solo escribir las indicaciones en el texto, en lugar de usar una
herramienta de edición de video.
La adopción
masiva de este estilo visual fue gracias a la creación de imágenes de inteligencia artificial generativa, con
herramientas como DALL-E, Midjourney y ChatGPT permitiendo a millones de
usuarios transformar sus ideas textuales en representaciones visuales sin necesidad
de conocimientos técnicos avanzados en edición de imágenes.
Según
Silverio, M. (2025) en su blog PrimeWeb, cien millones de usuarios se
sumergieron en la generación de imágenes en ChatGPT en tan solo sesenta días,
una demanda tan alta que llevó a Sam Altman a implementar restricciones para
evitar el colapso de los servidores. A este impulso inicial se sumó una ola
sostenida de experimentación.
Aunque las cifras exactas continúan fluctuando con el rápido avance
de la tecnología, se estima que, en las semanas posteriores al 25 de marzo,
millones de usuarios adicionales se apresuraron a explorar esta nueva frontera
de la creatividad digital. Plataformas emergentes como Ideogram AI, por
ejemplo, reportaron rápidamente millones de usuarios activos y decenas de
millones de imágenes generadas en un breve lapso tras su lanzamiento. Este
fenómeno trasciende una mera curiosidad tecnológica; refleja una transformación
profunda en la manera en que interactuamos con el contenido visual y en nuestra
propia concepción de la creatividad, desdibujando las líneas entre el
espectador y el creador.
Pero a los
primeros estilos le siguieron otros como los de la figura de acción
coleccionable, las que simulan los conocidos legos o los personajes de series
cómica. También es tendencia, añadir a ChatGPT una foto suya y de su pareja e
indicarle que cree los rostros de cómo serán sus futuros hijos.
Sin embargo, tras
el brillo de esta revolución visual impulsada por la IA, se proyecta una sombra
de consecuencias que merecen una atención crítica:
Aitoxicación
generada por la proliferación de imágenes indistinguibles de la realidad
La capacidad de
generar imágenes falsas pero creíbles, facilitada por la misma tecnología que
permitió la explosión del arte con estética Ghibli, representa una herramienta
poderosa para la desinformación. En el contexto de la facilidad con la que se
crearon millones de imágenes en cuestión de semanas, la potencial avalancha de
contenido visual manipulado se vuelve una preocupación apremiante. Pueden
crearse "pruebas" visuales de eventos que nunca ocurrieron,
declaraciones apócrifas atribuidas a figuras públicas o situaciones
completamente fabricadas con el objetivo de manipular la opinión pública.
Estas imágenes,
indistinguibles de la realidad para el ojo inexperto, tienen la capacidad de
propagarse con una velocidad vertiginosa a través de las redes sociales, donde
a menudo son consumidas sin el necesario análisis crítico, exacerbando la
polarización social y erosionando la confianza en el debate público basado en
hechos verificables.
En este sentido, la
proliferación de imágenes que difuminan la frontera entre lo real y lo
artificial representa un desafío significativo para la sociedad contemporánea.
La respuesta a esta amenaza no puede ser unidimensional. Requiere un enfoque
multidisciplinario que involucre el desarrollo y la implementación de
herramientas sofisticadas para la detección de imágenes falsas, la promoción
activa y generalizada de la alfabetización mediática y digital para empoderar a
los usuarios con las habilidades necesarias para evaluar críticamente el
contenido visual, y una profunda reflexión ética y legal sobre los límites del
uso y la necesidad de una regulación adecuada de la inteligencia artificial
generativa. En un entorno digital cada vez más saturado de ilusiones visuales
convincentes, la capacidad de discernir la verdad se ha convertido en una
habilidad esencial para navegar con discernimiento en el presente y el futuro.
A todo lo anterior
le debemos agregar la necesaria y urgente IA-alfabetización que comentamos en
otras entradas del blog. No es solo la urgencia de capacitarnos en el manejo de
las herramientas, sino en cómo ser cautelosos cuando de imagen, video y sonidos
se trate. Evitar difundirlos sin la previa revisión.
El impacto ambiental silencioso pero significativo
del consumo energético masivo de la IA generativa
La proliferación de
la inteligencia artificial generativa de imágenes, que tan vívidamente se
manifestó el 25 de marzo de 2025 con la invasión del estilo Studio Ghibli en
las redes sociales, impacto en el costo ambiental de manera significativa,
aunque a menudo inadvertido: el masivo consumo energético de estas tecnologías.
El entrenamiento de modelos de IA complejos y su operación continua demandan
una infraestructura computacional extensa, ubicada en centros de datos con un
funcionamiento ininterrumpido, generando una huella de carbono considerable.
Un estudio pionero
de la Universidad de Massachusetts Amherst (Strubell et al., 2019) ya alertaba
sobre el impacto energético del aprendizaje profundo en el procesamiento del
lenguaje natural, revelando que el entrenamiento de un único modelo de IA generativa
podía liberar a la atmósfera una cantidad de dióxido de carbono equivalente a
las emisiones de cinco automóviles a lo largo de su vida útil. Modelos más
recientes y sofisticados, como la familia GPT-3, han demostrado una demanda
energética aún mayor para su entrenamiento, requiriendo órdenes de magnitud
superiores (Amaro, 2023). Esta disparidad subraya la creciente intensidad
energética de los modelos de IA de última generación.
Una vez que estos
modelos han sido entrenados, su funcionamiento diario también implica un
consumo energético sustancial. Cada solicitud de generación de una imagen en
plataformas populares como ChatGPT, DALL-E o Midjourney activa complejos
procesos de inferencia en los servidores. Si bien estos procesos individuales
son menos intensivos que el entrenamiento inicial, la escala global de su uso,
con millones de interacciones diarias, resulta en un consumo energético
acumulativo significativo.
Investigadores de
Carnegie Mellon y Hugging Face (Lacoste et al., 2019) estimaron que la
generación de 1000 inferencias en modelos de IA puede consumir entre 0.06 y 2.9
kWh, con un promedio de 1.35 kWh. Aunque este estudio se centró en el
aprendizaje automático en general, la tendencia de alto consumo es directamente
aplicable a tareas complejas como la generación de imágenes. Para ilustrar este
consumo a una escala más cotidiana, un artículo de Xataka (Amaro, 2023) señaló
que generar tan solo nueve imágenes con algunos modelos de IA puede requerir la
misma cantidad de energía necesaria para cargar por completo la batería de un
teléfono móvil. Esta analogía ayuda a dimensionar el impacto energético de una
actividad que para el usuario final parece instantánea y sin consecuencias
tangibles.
La Huella de
carbono invisible:
La mayor
parte de la electricidad utilizada para alimentar los centros de datos que
sustentan la IA generativa todavía proviene de la quema de combustibles
fósiles. Esto significa que cada imagen creada con IA contribuye, aunque sea de
forma indirecta, a las emisiones de gases de efecto invernadero, el principal
impulsor del cambio climático.
Un análisis
de la huella de carbono de diferentes tareas de IA reveló que la generación de
imágenes es una de las actividades que más dióxido de carbono produce por cada
1000 operaciones, significativamente más que tareas de procesamiento de texto
([Referencia: Ver los resultados de búsqueda web sobre la huella de carbono de
la generación de imágenes por IA]).
El consumo de
agua: Otra cara del impacto:
Además del consumo
eléctrico, los centros de datos requieren grandes cantidades de agua para
refrigerar los equipos y evitar el sobrecalentamiento. Un informe de la
Universidad de Nuevo México estima que un centro de datos promedio puede
consumir entre 1.7 y 2.2 millones de litros de agua por día ([Referencia: Ver
resultados de búsqueda web sobre el consumo de agua de los centros de datos de
IA]). Si bien no todo este consumo se debe directamente a la inteligencia
artificial generativa de imágenes, la creciente demanda de potencia
computacional para estas y otras aplicaciones de IA exacerba el problema,
especialmente en regiones con escasez hídrica. Estudios recientes sugieren que
la generación de imágenes con IA también tiene una huella hídrica considerable.
De acuerdo con
Meza, E., en un artículo publicado en Infonabe, en menos de una semana
se utilizan 216 millones de litros de agua, para sostener la infraestructura
necesaria para generar este tipo de contenidos. Este volumen equivale al
consumo mensual de una ciudad pequeña.
Según datos del
mismo artículo, el Departamento de Energía de los Estados Unidos estima que
hasta el 40 % de la energía consumida en estos centros se destina a sistemas de
enfriamiento, lo que equivale al consumo eléctrico total del estado de
California. Pero además de electricidad, se requiere una enorme cantidad de
agua: los servidores alcanzan temperaturas elevadas y necesitan sistemas de
refrigeración que trasladan el calor hacia torres de enfriamiento, donde se
disipa en forma de vapor. Este proceso implica un uso constante y elevado de
agua dulce.
La revolución
visual impulsada por la inteligencia artificial generativa ha transformado la
manera en que interactuamos con el contenido visual, permitiendo a millones de
personas crear imágenes con facilidad y sin conocimientos técnicos avanzados.
Sin embargo, esta transformación también trae consigo desafíos significativos,
como la proliferación de imágenes falsas que pueden desinformar y el
considerable impacto ambiental debido al consumo energético masivo de estas
tecnologías. Además, la cuestión de los derechos de autor en la era de la IA
plantea interrogantes sobre la propiedad intelectual y la protección de los
creadores humanos. Para abordar estos desafíos, es esencial un enfoque
multidisciplinario que incluya el desarrollo de herramientas para detectar
imágenes falsas, la promoción de la alfabetización mediática y digital, y una
reflexión ética y legal sobre el uso de la inteligencia artificial generativa.
¿Quién es el autor de las imágenes? En la próxima entrada
No hay comentarios:
Publicar un comentario