viernes, 4 de abril de 2025

El efecto bumerán en la curación de contenido

En colaboración con la Dra. Mercedes Leticia Sánchez Ambriz

En el contexto actual de aceleración digital y proliferación de herramientas de inteligencia artificial (IA), es común que docentes, estudiantes e investigadores opten por versiones gratuitas de plataformas de IA generativa para apoyar sus procesos de búsqueda y redacción científica. La elección está justificada por varios factores. En primer lugar, la necesidad de experimentar las posibilidades de las plataformas y verificar si pueden ser útiles. En segundo lugar, la aitoxicación que estamos empezando a vivir impide poder descubrir las potencialidades más importantes de las herramientas, por lo que vamos pasando de una a otra, probando sus acciones gratuitas y dedicando más tiempo del que disponemos, sin poder decidirnos por una en particular.

La tercera y última razón es la del ahorro económico, para qué gastar en herramientas que no conocemos a fondo, que no estamos seguros de cuál elegir. En esta razón necesitamos de la capacitación y de la orientación oportuna que no siempre está presente.

Las tres razones anteriores nos pueden llevar a un efecto negativo que hemos denominado efecto bumerán en la curación de contenido.

El término "efecto boomerang" se usó en el contexto de la psicología social y el diccionario de psicología lo define como una forma de comunicación persuasiva enviada a un receptor, pero devuelta con la reacción contraria (Acosta Ferráez, R. A. 2022, marzo 7)..

En esta línea, la inteligencia artificial (IA), se manifiesta en cómo las tecnologías de IA producen resultados contrarios a los esperados, como el colapso de modelos cuando se entrenan con datos generados por la misma IA.

Este efecto hace alusión a un resultado que, como un bumerán, retorna al usuario con consecuencias negativas: pérdida de tiempo, frustración, baja calidad de la información recuperada y, en algunos casos, abandono de procesos académicos como investigaciones o estudios de posgrado. Tal situación ocurre cuando las herramientas utilizadas no permiten acceder a fuentes académicas de calidad, presentan limitaciones funcionales o generan textos superficiales que no cumplen con los estándares científicos.

En consecuencia, la pretendida economía de recursos se revierte en una inversión mayor de tiempo y esfuerzo, e incluso en perjuicio económico cuando el estudiante abandona sus estudios o debe rehacer procesos de escritura académica. En otras palabras, las herramientas gratuitas, contrariamente a lo que se proclama, son incompletas, hacen perder tiempo y generan frustración, desconfianza e inseguridad personal.

Diversos estudios han demostrado el empleo que profesores y estudiantes están realizando de la IA. Caballero en una encuesta aplicada a profesores de una escuela demuestra que el 100 % de los docentes tienen una buena percepción sobre la IA, el 90 % afirma tener conocimiento sobre el uso de la IA en actividades educativas, pero el 70 % afirma no haber sido capacitado en este campo (Caballero & Salvador, 2024). De manera similar, García y otros, en un análisis de las respuestas aplicadas a profesores de varias universidades ecuatorianas, muestran que 6 de cada diez profesores están de acuerdo en que la IA mejora la personalización del aprendizaje universitario. 7 de 10 docentes perciben que la IA está ayudando a mejorar la calidad universitaria, a la par de que la mitad de los docentes opina que no cuenta con la capacitación necesaria. (García Peña et al., 2024)

La literatura consultada no dio como resultado encontrar experiencias entre los que emplean herramientas gratuitas con respecto a los que pagan algún servicio. Es de esperarse que esto se debe a que los resultados obtenidos con herramientas de pago generalmente son superiores a las versiones gratuitas de estas. En un chat de Telegram, donde participamos, y que está compuesto por más de 15 000 entusiastas de la IA, se realizó una encuesta para determinar el empleo de herramientas de pago o no. De los votantes, la mitad afirma no pagar ninguna de las herramientas, mientras que el 42 % utiliza ChatGPT plus, la versión de pago.

Pagar a no pagar.

Desde una perspectiva pedagógica, el efecto bumerán nos alerta sobre la necesidad de formar al profesor y a los estudiantes en estrategias de curación de contenidos que incluyan no solo criterios de selección de fuentes, sino también la evaluación crítica de las herramientas empleadas. Apostar por herramientas de pago, como versiones profesionales, puede representar una inversión estratégica, ya que ofrecen mayor precisión, capacidad de razonamiento y mejor integración con fuentes científicas y gestores bibliográficos. No hacerlo puede limitar severamente el desarrollo de competencias investigativas y generar una dependencia improductiva de tecnologías que no están diseñadas para procesos académicos rigurosos.

En síntesis, el efecto bumerán en la curación de contenido visibiliza un fenómeno contradictorio y subestimado en el ámbito académico: el uso exclusivo de herramientas gratuitas de IA, lejos de empoderar al estudiante o investigador, puede terminar saboteando sus propios objetivos de aprendizaje, productividad y calidad científica.

Algunas comparaciones

La siguiente tabla elaborada en combinación entre ChatGPT plus y Gemini gratuito ilustra un fenómeno que muchos desconocemos.

Criterio

Herramientas gratuitas

Herramientas de pago

Acceso a fuentes académicas

Limitado o inexistente

Integración con bases de datos y plugins especializados

Capacidad de procesamiento

Respuestas genéricas y poco contextualizadas

Argumentación profunda y adaptada al estilo académico

Actualización de datos

Desactualizadas

Actualizadas con navegación y acceso a internet

Calidad del lenguaje

Errores de coherencia y estilo académico limitados

Escritura precisa, estructurada y fluida

Tiempo invertido por el usuario

Alto: requiere revisión, edición y validación

Bajo: entrega resultados más útiles y organizados

Nivel de frustración reportado

Elevado: por falta de resultados precisos

Bajo: mayor grado de satisfacción y efectividad

Aporte en la curación de contenidos

Limitado a ideas generales

Profundo: permite evaluar, sintetizar y clasificar fuentes

Soporte para investigación científica

Escaso: no integra referencias ni gestiona citas

Completo: permite estructurar artículos y generar referencias

Costo económico

Nulo en lo monetario, alto en esfuerzo y tiempo

Moderado, pero con alto retorno académico

Elaboración propia (2025)

Recomendaciones para considerar si pagar o no

Evaluar la herramienta según el propósito de empleo. Antes de elegir cualquier herramienta, podemos preguntarnos: ¿Necesito generar ideas generales o contenido con respaldo académico? ¿Voy a usarla para estructurar un artículo, buscar fuentes, redactar o corregir? Las herramientas gratuitas son útiles para un estudio exploratorio, para generar una lluvia de ideas, crear un mapa mental, generar una imagen o un audio. Por ejemplo, el empleo de ResearchRabbit, o las versiones gratuitas de Elicit o Scispace son altamente recomendadas para un estudio exploratorio de un tema en particular, pero no para profundizar. Las versiones de Elicit y Scispace tienen la posibilidad de “chatear” con el documento, ahorrando tiempo en una lectura extensa inicial. Pero en sus versiones gratuitas la información obtenida es limitada e imprecisa, lo que puede crear una falsa expectativa del documento y, al final, cuando lo leemos por completo, podemos frustrarnos ante la información incompleta y desconfiar de la herramienta.

Combinar las herramientas de IA con juicio crítico considerando la IA-alfabetización

Es necesario verificar cualquier información obtenida con las fuentes originales, más en las gratuitas y también en las de pago. La verificación se extiende también a los posibles sesgos, los errores y afirmaciones no fundamentadas, que llevan a errores conceptuales. No es posible delegar todo el trabajo a las herramientas de IA. Aun en las versiones gratuitas de Gemini, DeepSeek, Grok entre otros bots generativos que promueven las investigaciones profundas, deben ser estudiados a fondo. No se puede confiar en los resultados y, por ende exigen más tiempo de dedicación.

Invertir estratégicamente en herramientas de IA cuando el contexto lo exige

Cuando se requiere la elaboración de trabajos de alta exigencia académica, como una tesis, artículos, proyectos de investigación y otros, es recomendable considerar el uso de versiones de pago. Connectpapers, Answerthis y el propio ChatGPT Plus, ofrecen mejores posibilidades en sus versiones de pago. Incluso no es necesario que se paguen durante largos períodos de tiempo, sino solo en el que lo vamos a emplear.

Creada en Copilot

Este tipo de inversión trae seguridad y precisión en el resultado final, ahorro de tiempo y satisfacción personal por la realización del trabajo. La IA es sin duda una aliada insustituible en la curación de contenido, pero solo si es utilizada con criterios claros, propósito definido y formación adecuada. No se trata de evaluar si soy capaz de emplear las herramientas de IA, sino de cómo utilizarlas con sentido crítico y ética profesional.

Para evitar el efecto bumerán es necesario transformarnos en curadores activos, críticos y estratégicos del conocimiento. Este desafío se vuelve aún más relevante cuando consideramos que los chats de inteligencia artificial solo tienen acceso a contenidos libres y no a fuentes de acceso cerrado, como muchas publicaciones científicas. Por ello, no basta con aceptar pasivamente la información generada: se requiere una actitud crítica que reconozca los límites de las fuentes disponibles. Convertirnos en curadores activos implica verificar, complementar y contextualizar la información, asumiendo un rol estratégico en la selección y validación del conocimiento, especialmente en entornos donde el acceso abierto no garantiza la profundidad ni la rigurosidad científica necesarias.

Para trabajos de alta exigencia, resulta estratégico invertir en versiones de pago que ofrecen mayor precisión y profundidad. Más que cuestionar el uso de la IA, el verdadero reto consiste en cómo emplearla con sentido ético, propósito definido y formación adecuada, asumiendo el rol de curadores activos y responsables del conocimiento.

Acosta Ferráez, R. A. (2022, marzo 7). El efecto boomerang. LinkedIn. https://es.linkedin.com/pulse/el-efecto-boomerang-raymundo-alejandro-acosta-ferr%C3%A1ez

Caballero, N., & Salvador, E. (2024). Percepción sobre el uso de Inteligencia Artificial en las actividades escolares de los profesores de la Escuela de Nutrición URSE. Ciencia Latina Revista Científica Multidisciplinar, 8(3), 10500–10524. https://doi.org/10.37811/cl_rcm.v8i3.12208

García Peña, V. R., Pineda Maigua, J. S., Mendoza Villamar, R. A., Maldonado Echeverría, G. E., & Caisaguano Revelo, M. D. R. (2024). Uso de aplicaciones de Inteligencia Artificial en la educación superior, su normalización y regularización. Código Científico Revista de Investigación, 5(2), 1358–1378. https://doi.org/10.55813/gaea/ccri/v5/n2/617

 

 

martes, 1 de abril de 2025

La IA-alfabetización como vía para disminuir la aitoxicación (parte dos)

 En colaboración con la Dra. Mercedes Leticia Sánchez

Imagen generada con Bing

Anteriormente, comentamos sobre la necesaria y apremiante IA-alfabetización, que consiste en una nueva alfabetización digital necesaria para comprender
el funcionamiento, los alcances, los límites y las implicaciones éticas de los sistemas inteligentes.

El crecimiento exponencial de sistemas inteligentes ha dado lugar a la necesidad de una alfabetización en inteligencia artificial, también conocida como IA-alfabetización. Esta no se reduce a saber usar herramientas basadas en IA, sino que abarca una comprensión crítica, ética y funcional de los procesos que sustentan estas tecnologías.

En términos generales, la IA-alfabetización implica el desarrollo de un conjunto de competencias fundamentales:

Comprender conceptos clave como algoritmos, datos y aprendizaje automático, lo que incluye reconocer cómo se entrenan los modelos, cómo se toman decisiones automatizadas y cuáles son las limitaciones técnicas de estos sistemas. Esta no es una competencia solo para programadores e informáticos, sino para todos los que empleamos la IA y que permite que podamos evaluar la utilidad de cada IA.

Diferenciar lo que puede y no puede hacer una IA, es decir, conocer sus capacidades actuales, sus límites y los posibles errores o “alucinaciones” que puede presentar, especialmente en entornos educativos. Se extiende también a la creación de imágenes, audios y videos.

Desarrollar pensamiento crítico frente a los resultados que ofrece la IA, evitando asumir sus respuestas como verdades absolutas y fomentando la interpretación reflexiva de sus recomendaciones. Es el individuo el que debe dar el veredicto sobre lo que aceptamos o no.

Cuestionar quién diseña los sistemas, con qué datos son entrenados y con qué fines son utilizados, ya que estas tecnologías están lejos de ser neutrales: reflejan los intereses, sesgos y contextos sociales de sus creadores y de las bases de datos que las alimentan.

Esta alfabetización no puede darse en un vacío técnico. Requiere un enfoque educativo integral y transformador, que implique cambios en las metodologías, en la formación docente y en el currículo. Entre los principios clave de este enfoque destacan:

La integración de experiencias de aprendizaje con herramientas de IA, no como un fin en sí mismo, sino como medio para explorar, analizar y construir conocimiento. Por ejemplo, utilizar asistentes conversacionales para debatir ideas, explorar alternativas o diseñar estrategias de solución a problemas reales.

La promoción de la reflexión ética, política y social sobre el uso de la IA, para que los estudiantes comprendan no solo cómo funciona, sino también cómo afecta a las personas, a los derechos y a las relaciones sociales. Esto incluye el análisis de casos sobre sesgos, discriminación algorítmica, privacidad de datos y automatización del trabajo.

La participación de todos los actores del sistema educativo —docentes, estudiantes, directivos, familias e instituciones— en la construcción de una cultura digital crítica. La IA-alfabetización no puede ser responsabilidad exclusiva del profesor de informática; debe atravesar todas las disciplinas y niveles educativos.

En resumen, la IA-alfabetización se presenta hoy como una competencia indispensable para ejercer una ciudadanía crítica, informada y participativa en una sociedad cada vez más mediada por tecnologías inteligentes. Su inclusión en los sistemas educativos no es una opción futura, sino una necesidad urgente del presente.

Una urgencia educativa, social y ética

La IA-alfabetización no es un lujo, sino una urgencia en al menos tres dimensiones:

a. Urgencia educativa

Los estudiantes ya interactúan con IA, pero sin comprenderla. Usan traductores automáticos, generadores de texto, asistentes de voz... sin conocer cómo operan, ni qué sesgos arrastran. La escuela debe dejar de enseñar como si la IA no existiera y empezar a formar ciudadanos capaces de dialogar con ella.

b. Urgencia social

La IA puede amplificar desigualdades si no se garantiza acceso equitativo ni comprensión crítica. Una sociedad que no sabe cómo funciona la tecnología que la gobierna, pierde capacidad de participación y decisión.

c. Urgencia ética

Muchos sistemas de IA toman decisiones sin transparencia. Desde sugerencias académicas hasta filtros en procesos de selección laboral, sus criterios son opacos. La falta de cuestionamiento alimenta una sociedad que delega sin conciencia y normaliza sesgos automatizados. Los resultados obtenidos deben ser siempre cuestionados, verificados y pasados por el principal filtro: nuestro conocimiento.

La IA no debe ser una autoridad incuestionable

Uno de los riesgos más preocupantes del auge de la inteligencia artificial es que pase de ser una herramienta útil y complementaria a convertirse en una autoridad que no se cuestiona. En muchos contextos, ya estamos comenzando a naturalizar sus respuestas y recomendaciones como si fueran objetivas, neutrales e infalibles. Esta actitud puede llevar a una delegación excesiva del juicio humano, basada en la premisa implícita de que “si lo dice la máquina, debe ser cierto”. Muy parecido a lo que sucedió primero con la prensa, tanto impresa, radial y televisiva y ahora a las redes sociales. No porque se divulgue en estos medios tiene que ser necesariamente cierto.

Sin embargo, este enfoque es profundamente problemático. La inteligencia artificial no es una conciencia moral, ni un sujeto racional, ni mucho menos una fuente de verdad absoluta. Está entrenada con datos generados por seres humanos y, por tanto, hereda tanto nuestras capacidades como nuestras limitaciones, prejuicios, sesgos históricos y desigualdades estructurales. Si no somos conscientes de este origen, corremos el riesgo de automatizar la discriminación y reforzar desigualdades, dándoles además un revestimiento de legitimidad algorítmica.

Aceptar los resultados de la IA sin cuestionarlos implica una forma de rendición cognitiva, aceptar que la inteligencia artificial está por encima de la humana, donde la automatización sustituye al pensamiento, la interpretación y el discernimiento. Esta situación puede derivar en una cultura de la obediencia tecnológica, donde las decisiones se ejecutan sin participación crítica y sin posibilidad de réplica, reduciendo la autonomía individual y colectiva.

Por ello, educar en IA-alfabetización no es únicamente un proceso técnico, centrado en el uso instrumental de herramientas digitales. Es, sobre todo, una tarea cultural, ética y política, que debe cultivar en los ciudadanos la capacidad de analizar, evaluar y decidir con conciencia frente a las tecnologías que los rodean. En este contexto, es indispensable enseñar a:

  • Leer los resultados de la IA con mirada crítica, interrogando las fuentes, los métodos y las posibles intenciones detrás de cada respuesta generada por un sistema inteligente.
  • Detectar sesgos, vacíos y limitaciones en las respuestas automatizadas, entendiendo que ningún modelo es completamente neutro ni universalmente válido.
  • Exigir transparencia, explicabilidad y rendición de cuentas a quienes diseñan, implementan o promueven sistemas de IA, tanto en el ámbito público como privado.

Solo así podremos evitar que la inteligencia artificial se transforme en una nueva forma de poder opaco, no sometido a control democrático. Y solo así, también, podremos garantizar que su incorporación a la vida educativa, social y personal responda a valores de justicia, equidad y pensamiento crítico.

Riesgo de reemplazo: delegar sin pensar

Cuando dejamos que la IA piense por nosotros:

  • Perdemos autonomía.
  • Perdemos el criterio.
  • Y lo más grave: perdemos la capacidad de disentir.

La educación debe garantizar el derecho a cuestionar, no solo a obedecer. Y eso implica devolver al pensamiento humano su lugar protagónico: la IA debe ser una herramienta, no un sustituto.

En esta línea, es urgente crear estándares sobre la IA-alfabetización, que nos permitan usar esta tecnología con fines pedagógicos, sociales y creativos; evitar correr el riesgo de que las decisiones más importantes sean tomadas por sistemas que no comprendemos, y frente a los cuales no tenemos voz.

El reto educativo es claro: formar personas que piensen con inteligencia artificial, pero no subordinadas a ella. La IA puede ser una gran aliada, siempre que no sustituya a la menta humana y su libertad de pensar, crear e innovar. En tiempos de algoritmos, alfabetizar en pensamiento crítico es más urgente que nunca.