jueves, 24 de julio de 2025

Delegar la metodología de una investigación a la IA: ¿viable o no?

Imagen generada con ChatGPT

En colaboración con Mercedes Leticia Sánchez Ambriz

Escucha el pódcast

El empleo de la IA en todas las actividades de investigación es una realidad que no se puede ocultar. Tan real como los problemas que se advierten en las tesis de los estudiantes universitarios. Los estudiantes suelen enfrentarse a deficiencias en el conocimiento del tema a investigar, la formación en investigación y las habilidades esenciales de redacción y ortografía (Rodríguez et al., 2023) Otros problemas comunes se relacionan con la gestión del tiempo, dificultades en la selección de temas y comentarios inconsistentes de los asesores.(Sharma, 2024)

Es común encontrarnos errores en la determinación de las categorías centrales como el problema, el objetivo, las variables, entre otras. Por lo general debemos revisar una y varias veces la relación entre problema y objetivo. Incluso días antes de las defensas se vuelven a realizar ajustes a estas categorías. Entonces cómo es posible que el resto del trabajo se evalúe correctamente, mientras que se siguen modificando las categorías antes mencionadas.

Es común en las carreras universitarias que las asignaturas relacionadas con la metodología de la investigación se coloquen en los dos o tres primeros semestres, lo que en nuestra opinión es un error. A esto se une que en los siguientes las mayoría de las materias se sienten poco comprometidas a emplear dicha metodología en su trabajo. Los estudiantes cuando deben hacer uso “real” de lo aprendido, recuerdan muy poco Los que nos encargamos de las asignaturas finales de grado, lo sufrimos en cada semestre.

Un rol para la IA

Proponemos un análisis de los pro y contra de dejar en manos de la IA la estructura metodológica del trabajo de investigación, lo que en la práctica está sucediendo a diario, aunque no queramos enterarnos de que es así. Es la realidad y cada vez será la constante en los trabajos finales de grado, sin excluir maestrías y doctorados. No se resuelve con detectores de plagio, tampoco con charlas sobre ética y responsabilidad moral. Menos con prohibir el empleo de la IA. Se requiere cambiar la manera de enseñar la metodología de la investigación. Revisemos algunos argumentos que justifican este rol.

Eficiencia y rapidez: Se puede procesar y analizar información a gran velocidad, agilizando labores tradicionalmente lentas en la investigación. Por ejemplo, ChatGPT, Gemini y otros modelos pueden revisar texto, encontrar patrones o resumir literatura en una fracción del tiempo que tomaría manualmente, lo que reduce costos y ahorra tiempo en proyectos de investigación

Análisis de grandes volúmenes de datos y hallazgo de patrones: Los algoritmos de IA pueden explorar enormes conjuntos de datos y detectar tendencias o relaciones ocultas que podrían pasar desapercibidas al investigador humano.

Democratización de la investigación: Al automatizar tareas complejas, la IA puede nivelar el campo para estudiantes e investigadores con menos recursos técnicos o institucionales. Además, se pueden realizar análisis avanzados sin necesidad de formación en programación o ciencia de datos, facilitando que los profesores de instituciones con pocos recursos pequeñas produzcan investigación de calidad con menos presupuesto

Enfoque en tareas de mayor nivel conceptual: Al delegar en la IA tareas metodológicas rutinarias o altamente técnicas, como organizar un diseño de investigación, el investigador puede dedicar más tiempo a tareas creativas y críticas y enfocarse en el pensamiento crítico, la teoría y la innovación.

Calidad mejorada mediante asistencia experta: Algunas aplicaciones de IA puede mejorar la calidad metodológica actuando como asistente o “segundo par de ojos”. En el campo de las encuestas, por ejemplo, se ha mostrado que modelos de lenguaje pueden sugerir formulaciones de preguntas más claras y neutrales basándose en datos de encuestas previas, ayudando a diseñar cuestionarios con mejores prácticas

En síntesis, una IA bien utilizada funciona como herramienta aumentativa: acelera el proceso, amplia el panorama de información y libera al científico para las partes más reflexivas de la investigación.

Lo que no debemos dejar de tomar en cuenta.

No olvidemos que la IA comete errores y responde en dependencia de cómo preguntemos. Es obligado pensar detenidamente en los siguientes argumentos:

Sesgos y falta de fiabilidad: Las IAs aprenden de datos existentes y pueden arrastrar sesgos y errores presentes en esas fuentes. Si se delega ciegamente la definición de variables o la formulación de preguntas a un modelo, podría enfatizar supuestos erróneos o prejuicios inherentes a sus datos de entrenamiento.  

Falta de comprensión contextual y teórica: El diseño metodológico en ciencias sociales no es mecánico; requiere entender el contexto social, las teorías relevantes y las sutilezas culturales del fenómeno estudiado. Esto se traduce en metodologías superficiales, desconectada de los fundamentos conceptuales, que debe manejar el estudiante.

Problemas de originalidad y dependencia excesiva: Un efecto señalado por analistas es el “efecto doppelgänger”, donde la IA podría replicar trabajos existentes con demasiada fidelidad, difuminando la originalidad y autoría de la investigación (Sebastian et al., 2025). Si un modelo genera objetivos o marcos metodológicos basados en patrones de muchos estudios previos, el riesgo es terminar con un diseño poco novedoso o incluso plagiar sin darse cuenta ideas publicadas. Esto plantea tanto un problema ético (dar crédito indebido a la IA por ideas que en realidad provienen de otros autores) como epistemológico, al potencialmente frenar la innovación (la IA tiende a repetir lo conocido). Además, apoyarse demasiado en la IA podría causar una pérdida de habilidades en los estudiantes y con ello se alejen del sentido crítico

Limitaciones en problemas novedosos o creativos: Las herramientas actuales funcionan bien en dominios similares a sus datos de entrenamiento, pero no manejan adecuadamente situaciones totalmente nuevas o preguntas de investigación disruptivas. Un algoritmo podría no saber proponer un diseño metodológico para un fenómeno social emergente o poco conocido y sin precedentes en los datos históricos. En esos casos, la imaginación y el pensamiento lateral siguen siendo insustituibles.

Cuestiones éticas y de responsabilidad científica: Delegar partes sustantivas de la investigación a sistemas de IA plantea interrogantes éticas. Por ejemplo, ¿quién asume la responsabilidad si el diseño metodológico automatizado conduce a conclusiones erróneas o dañinas? También existe el dilema de la transparencia: si un algoritmo decide la forma de un estudio, podría dificultar la rendición de cuentas sobre por qué se tomaron ciertas decisiones. Las directrices emergentes en publicaciones científicas sugieren cautela: revistas influyentes han aclarado que la IA puede usarse como herramienta de apoyo, pero no debe figurar como autor de trabajos científicos.

En resumen, delegar la metodología a la IA implica que estas herramientas, aunque potentes, carecen de juicio contextual, originalidad genuina y responsabilidad moral. Su uso indiscriminado puede comprometer la calidad y la ética de la investigación social, por lo que deben ser empleadas con mucha precaución y supervisión humana en todo momento.

Delegar o no delegar a la IA el fundamento metodológico.

Hasta esta parte del trabajo hemos visto elementos que transforman a las herramientas de IA en aliados poderosos del investigador. También revisamos aquellos aspectos que pueden dañar todo el proceso de investigación. Por ello nos preguntamos: se emplea la IA o se prohíbe, tomando en cuenta que nuestros estudiantes hoy la emplean, en su mayoría sin consideraciones éticas.

En definitiva, consideramos que delegar la parte metodológica a la IA es posible y puede ser beneficioso, siempre que se haga con precaución y criterio. Las ciencias sociales, con su acervo de pensamiento crítico sobre la tecnología y la sociedad, nos instan a no caer ni en el temor paralizante ni en la adopción ingenua. La IA debe ser vista como un aliado poderoso pero imperfecto: capaz de ayudarnos en la investigación, pero que requiere de nuestra guía para no perder el rumbo. Si logramos ese equilibrio, el resultado puede ser una práctica investigativa más eficaz, con nuevos tipos de preguntas y análisis que hoy apenas imaginamos. En cambio, si delegamos más de la cuenta, corremos el riesgo de comprometer la calidad y confianza en la investigación misma.

Esto significa que las asignaturas relacionadas con el proceso de investigación deben hacer una revisión de sus programas de estudio, dando gran peso al empleo de estas herramientas con un sentido crítico.

Por ello el desafío y la responsabilidad, recaen en toda la comunidad académica: aprovechar críticamente la IA para enriquecer –y no empobrecer– la ciencia social.

 

Rodríguez, R. V., Bendezú, C. A. G., & Elguera, V. C. (2023). Review of the literature on the difficulties that students experience when preparing their university thesis. 2023 IEEE 3rd International Conference on Advanced Learning Technologies on Education & Research (ICALTER), 1–3. https://doi.org/10.1109/ICALTER61411.2023.10372908

Sebastian, R., Kottekkadan, N. N., Thomas, T. K., & Niyas KK, M. (2025). Generative AI tools (ChatGPT*) in social science research. Journal of Information, Communication and Ethics in Society, 23(2), 284–290. https://doi.org/10.1108/JICES-10-2024-0145

Sharma, M. (2024). Challenges and Strategies in Graduate Thesis Writing: Insights from a Literature Review. Lumbini Journal of Language and Literature, 4(1), 63–70. https://doi.org/10.3126/ljll.v4i1.73858

 

4 comentarios:

  1. Muchas gracias por esta información, me parece correcta, oportuna y de gran ayuda. Me quedo con esta idea: IA aliado poderoso pero imperfecto

    ResponderEliminar
  2. La IA debe ser tomada solo como un asistente colaborativo con clara falencias en su creatividad, la cual solo proviene del lado humano, por tanto el trabajo investigativo no debe delegarse a la IA, sino deve realizarse atravez de la creatividad humana.

    ResponderEliminar
  3. No la IA es una herramienta valiosa en la investigación para tareas específicas, que el investigador en su experticie dirija

    ResponderEliminar