Imagen generada con ChatGPT |
En colaboración con Mercedes Leticia Sánchez Ambriz
Escucha el pódcast
El empleo de la IA en todas las actividades
de investigación es una realidad que no se puede ocultar. Tan real como los
problemas que se advierten en las tesis de los estudiantes universitarios. Los
estudiantes suelen enfrentarse a deficiencias en el conocimiento del tema a
investigar, la formación en investigación y las habilidades esenciales de redacción
y ortografía
Es común encontrarnos
errores en la determinación de las categorías centrales como el problema, el
objetivo, las variables, entre otras. Por lo general debemos revisar una y
varias veces la relación entre problema y objetivo. Incluso días antes de las
defensas se vuelven a realizar ajustes a estas categorías. Entonces cómo es
posible que el resto del trabajo se evalúe correctamente, mientras que se
siguen modificando las categorías antes mencionadas.
Es común en las
carreras universitarias que las asignaturas relacionadas con la metodología de
la investigación se coloquen en los dos o tres primeros semestres, lo que en nuestra
opinión es un error. A esto se une que en los siguientes las mayoría de las materias
se sienten poco comprometidas a emplear dicha metodología en su trabajo. Los
estudiantes cuando deben hacer uso “real” de lo aprendido, recuerdan muy poco Los
que nos encargamos de las asignaturas finales de grado, lo sufrimos en cada
semestre.
Un rol para la IA
Proponemos un análisis de los pro y contra
de dejar en manos de la IA la estructura metodológica del trabajo de
investigación, lo que en la práctica está sucediendo a diario, aunque no
queramos enterarnos de que es así. Es la realidad y cada vez será la constante
en los trabajos finales de grado, sin excluir maestrías y doctorados. No se
resuelve con detectores de plagio, tampoco con charlas sobre ética y
responsabilidad moral. Menos con prohibir el empleo de la IA. Se requiere
cambiar la manera de enseñar la metodología de la investigación. Revisemos
algunos argumentos que justifican este rol.
Eficiencia y rapidez: Se
puede procesar y analizar información a gran velocidad, agilizando labores
tradicionalmente lentas en la investigación. Por ejemplo, ChatGPT, Gemini y
otros modelos pueden revisar texto, encontrar patrones o resumir literatura en
una fracción del tiempo que tomaría manualmente, lo que reduce costos y
ahorra tiempo en proyectos de investigación
Análisis de grandes volúmenes de datos y hallazgo de patrones: Los algoritmos de IA pueden explorar enormes
conjuntos de datos y detectar tendencias o relaciones ocultas que
podrían pasar desapercibidas al investigador humano.
Democratización de la investigación: Al automatizar tareas complejas, la IA puede nivelar el campo para estudiantes
e investigadores con menos recursos técnicos o institucionales. Además, se
pueden realizar análisis avanzados sin necesidad de formación en
programación o ciencia de datos, facilitando que los profesores de instituciones
con pocos recursos pequeñas produzcan investigación de calidad con menos
presupuesto
Enfoque en tareas de mayor nivel conceptual: Al delegar en la IA tareas metodológicas
rutinarias o altamente técnicas, como organizar un diseño de investigación, el investigador
puede dedicar más tiempo a tareas creativas y críticas y enfocarse en
el pensamiento crítico, la teoría y la innovación.
Calidad mejorada mediante asistencia experta: Algunas aplicaciones de IA puede mejorar la
calidad metodológica actuando como asistente o “segundo par de ojos”. En el
campo de las encuestas, por ejemplo, se ha mostrado que modelos de lenguaje
pueden sugerir formulaciones de preguntas más claras y neutrales basándose en
datos de encuestas previas, ayudando a diseñar cuestionarios con mejores
prácticas
En síntesis, una IA bien
utilizada funciona como herramienta aumentativa: acelera el proceso,
amplia el panorama de información y libera al científico para las partes más
reflexivas de la investigación.
Lo que no debemos
dejar de tomar en cuenta.
No olvidemos que la IA
comete errores y responde en dependencia de cómo preguntemos. Es obligado
pensar detenidamente en los siguientes argumentos:
Sesgos y falta de fiabilidad: Las IAs aprenden de datos existentes y pueden arrastrar sesgos y
errores presentes en esas fuentes. Si se delega ciegamente la definición de
variables o la formulación de preguntas a un modelo, podría enfatizar supuestos
erróneos o prejuicios inherentes a sus datos de entrenamiento.
Falta de comprensión contextual y teórica: El diseño metodológico en ciencias sociales no es
mecánico; requiere entender el contexto social, las teorías relevantes y las
sutilezas culturales del fenómeno estudiado. Esto se traduce en metodologías
superficiales, desconectada de los fundamentos conceptuales, que debe manejar
el estudiante.
Problemas de originalidad y dependencia excesiva: Un efecto señalado por analistas es el “efecto
doppelgänger”, donde la IA podría replicar trabajos existentes con
demasiada fidelidad, difuminando la originalidad y autoría de la
investigación
Limitaciones en problemas novedosos o creativos: Las herramientas actuales funcionan bien en
dominios similares a sus datos de entrenamiento, pero no manejan
adecuadamente situaciones totalmente nuevas o preguntas de investigación
disruptivas. Un algoritmo podría no saber proponer un diseño metodológico para
un fenómeno social emergente o poco conocido y sin precedentes en los datos
históricos. En esos casos, la imaginación y el pensamiento lateral siguen
siendo insustituibles.
Cuestiones éticas y de responsabilidad científica: Delegar partes sustantivas de la investigación a
sistemas de IA plantea interrogantes éticas. Por ejemplo, ¿quién asume la
responsabilidad si el diseño metodológico automatizado conduce a conclusiones
erróneas o dañinas? También existe el dilema de la transparencia: si un
algoritmo decide la forma de un estudio, podría dificultar la rendición de
cuentas sobre por qué se tomaron ciertas decisiones. Las directrices emergentes
en publicaciones científicas sugieren cautela: revistas influyentes han
aclarado que la IA puede usarse como herramienta de apoyo, pero no debe
figurar como autor de trabajos científicos.
En resumen, delegar la
metodología a la IA implica que estas herramientas, aunque potentes, carecen
de juicio contextual, originalidad genuina y responsabilidad moral. Su uso
indiscriminado puede comprometer la calidad y la ética de la investigación
social, por lo que deben ser empleadas con mucha precaución y supervisión
humana en todo momento.
Delegar o no delegar a
la IA el fundamento metodológico.
Hasta esta parte del
trabajo hemos visto elementos que transforman a las herramientas de IA en
aliados poderosos del investigador. También revisamos aquellos aspectos que
pueden dañar todo el proceso de investigación. Por ello nos preguntamos: se
emplea la IA o se prohíbe, tomando en cuenta que nuestros estudiantes hoy
la emplean, en su mayoría sin consideraciones éticas.
En definitiva,
consideramos que delegar la parte metodológica a la IA es posible y puede
ser beneficioso, siempre que se haga con precaución y criterio. Las
ciencias sociales, con su acervo de pensamiento crítico sobre la tecnología y
la sociedad, nos instan a no caer ni en el temor paralizante ni en la adopción
ingenua. La IA debe ser vista como un aliado poderoso pero imperfecto:
capaz de ayudarnos en la investigación, pero que requiere de nuestra guía para
no perder el rumbo. Si logramos ese equilibrio, el resultado puede ser una
práctica investigativa más eficaz, con nuevos tipos de preguntas y análisis que
hoy apenas imaginamos. En cambio, si delegamos más de la cuenta, corremos el
riesgo de comprometer la calidad y confianza en la investigación misma.
Esto significa que las
asignaturas relacionadas con el proceso de investigación deben hacer una
revisión de sus programas de estudio, dando gran peso al empleo de estas
herramientas con un sentido crítico.
Por ello el desafío y la
responsabilidad, recaen en toda la comunidad académica: aprovechar
críticamente la IA para enriquecer –y no empobrecer– la ciencia social.
Rodríguez,
R. V., Bendezú, C. A. G., & Elguera, V. C. (2023). Review of the
literature on the difficulties that students experience when preparing their
university thesis. 2023 IEEE 3rd International Conference on Advanced
Learning Technologies on Education & Research (ICALTER), 1–3.
https://doi.org/10.1109/ICALTER61411.2023.10372908
Sebastian,
R., Kottekkadan, N. N., Thomas, T. K., & Niyas KK, M. (2025). Generative
AI tools (ChatGPT*) in social science research. Journal of Information,
Communication and Ethics in Society, 23(2), 284–290.
https://doi.org/10.1108/JICES-10-2024-0145
Sharma,
M. (2024). Challenges and Strategies in Graduate Thesis Writing: Insights from
a Literature Review. Lumbini Journal of Language and Literature, 4(1),
63–70. https://doi.org/10.3126/ljll.v4i1.73858
Muchas gracias por esta información, me parece correcta, oportuna y de gran ayuda. Me quedo con esta idea: IA aliado poderoso pero imperfecto
ResponderEliminarExcelente
ResponderEliminarLa IA debe ser tomada solo como un asistente colaborativo con clara falencias en su creatividad, la cual solo proviene del lado humano, por tanto el trabajo investigativo no debe delegarse a la IA, sino deve realizarse atravez de la creatividad humana.
ResponderEliminarNo la IA es una herramienta valiosa en la investigación para tareas específicas, que el investigador en su experticie dirija
ResponderEliminar