
Algunos autores no informan a las revistas científicas de que han redactado sus artículos con IA.
Los 'detectives científicos' que cazan el 'copia y pega' de los artículos hechos con IA: "Puede escribir algo sin pies ni cabeza"'
Los expertos advierten de que esta tecnología puede ser una herramienta muy útil, pero también una amenaza para la integridad de la ciencia.
Más información: Esta es la investigación más importante del siglo XXI según los propios científicos: adelantó en 2016 el futuro de ChatGPT
La inteligencia artificial (IA) inunda casi cualquier disciplina. Cada vez más profesionales la utilizan como una herramienta de apoyo en su trabajo porque sus ventajas son de sobra conocidas. Puede agilizar ciertas tareas, pero también puede conducir a malas prácticas en áreas como el mundo académico. Si ChatGPT es capaz de escribir un cuento o una novela, por qué no iba a hacer lo mismo con un artículo científico. Es un dilema que se está empezando a plantear entre los expertos.
Las editoriales son conscientes del fenómeno y algunas ya han tomado cartas en el asunto. Por ejemplo, exigen a los autores que quieran publicar en sus revistas que informen del uso de IA en la redacción de sus artículos. No obstante, no todos lo cumplen y ya hay algunos investigadores que han empezado a hacer pesquisas en el tema, una suerte de 'detectives'.
Estos expertos tratan de encontrar trabajos publicados en revistas científicas y en los que sus autores hayan empleado la IA para redactarlos, aunque no lo hayan reconocido. Lo que han encontrado no es nada desdeñable.
Alex Glynn, profesor de alfabetización en investigación y comunicación en la Universidad de Louisville, Kentucky (Estados Unidos) es el creador de Academ-AI, un rastreador en línea para registrar estos casos, cuenta la web de la revista Nature. El pasado 2 de noviembre publicó como preimpresión un análisis de los primeros 500 artículos que había identificado. El 13% aparecía en revistas de importantes editoriales, como Elsevier, Springer Nature y MDPI. Desde entonces, ha añadido otros 200 trabajos en los que había intervenido la IA sin que sus autores lo dijeran.
No es el único, investigador de la Universidad de Economía de Katowice (Polonia), también ha recopilado este tipo de datos, pero centrándose únicamente en revistas de renombre. El pasado diciembre publicó un artículo en el que identificaba 64 artículos que habían visto la luz en las principales revistas de distintas disciplinas, cuenta también Nature.
Visto este tipo de datos, cabe preguntarse si la IA puede pasar de ser una herramienta de apoyo en la producción científica a ser una amenaza para su integridad. Joaquín Sevilla, catedrático de la Universidad Pública de Navarra (UPNA), considera que una y otra no son excluyentes y pueden ocurrir ambas. "Es una herramienta excelente, pero también se le puede pedir que escriba un artículo sin pies ni cabeza". Para él, el límite entre un buen y un mal uso otra está "en la integridad de las propias personas"
Isidro Aguillo, vicedirector técnico del Instituto de Políticas y Bienes Públicos del Consejo Superior de Investigaciones Científicas (IPP-CSIC), cree que el problema de los autores que hacen trampas no es nuevo. "Ya existía, pero la IA lo ha exacerbado". El investigador defiende que casos como los que pueden reflejar Glynn o Katowice en sus trabajos no son distintos a las trampas que ya se podían observar antes de la llegada de la IA. "Estos problemas no son otra cosa que malas prácticas en investigación científica".
Otros expertos consideran que esto no es más que el reflejo de la "ciencia mediocre", autores que publican artículos de bajo nivel o que, incluso, los hacen con las informaciones de otros trabajos, sin aportación propia. Así lo expresa Jorge Barrero, director general de la Fundación Cotec. Para él, "estamos muy cerca de que este uso sea indistinguible".
Un sistema que aboca a la mediocridad
Barrero no se muestra demasiado preocupado por cómo pueden afectar estas prácticas a la integridad de la producción científica. Cree que, en ese sentido, a donde hay que mirar es al propio sistema. Tanto él como Aguillo lamentan que actualmente se enfoca a la publicación constante. Cuanto más, mejor.
De esta manera, no es de extrañar que haya investigadores que finalmente opten por 'hacer trampas' con la IA, dicen. "El problema es que estamos midiendo la brillantez de un humano en algo que puede hacer una máquina", critica Barrero. El director general de la Fundación Cotec tiene la esperanza de que esta situación acabe por darse la vuelta y esas malas prácticas obliguen a cambiar la forma de evaluar a los científicos para primar la calidad de sus publicaciones antes que la cantidad.
El papel de las revistas científicas
Glynn y Katowice han podido identificar todos esos artículos gracia a algo tan simple como los errores humanos. Al revisarlos, los investigadores vieron que en ellos se podían encontrar algunas frases como "Soy un modelo de lenguaje de IA", "a partir de mi última actualización de conocimientos", o "regenerar la respuesta". Se podían encontrar en medio de un párrafo porque el autor probablemente lo copiaría por error al seleccionar la respuesta generada por IA para trasladarla en su documento.
Esto no solo señala a quien los escribe, también sirve para apuntar directamente a las editoriales. Los artículos, antes de ser aceptados y publicados, son revisados, supuestamente, con atención. Por lo tanto, esto refleja una clara negligencia, algo que, en el caso de las revistas de renombre, choca todavía más por el elevado precio que pagan los autores por la publicación de sus trabajos.
A pesar de la crítica, Aguillo lo achaca a un problema que llama "la crisis de revisores". Los profesionales "de primera línea" en este sentido son limitados y no pueden abarcar la avalancha de artículos que reciben las revistas para su publicación. Esto hace que haya que buscar revisores con menos experiencia o menos conocimiento, que pueden pasar por alto errores como los mencionados, expone.
Aun así, el científico del IPP-CSIC no es partidario de prohibir usar la IA en la producción científica o en la redacción. Lo que hace falta, expone, es formación para que los profesionales sepan usarla bien y puedan sacarle todo el partido como una herramienta de apoyo. De hecho, afirma que quienes la usan para que les redacte los trabajos muestran un gran desconocimiento del verdadero potencial de esta tecnología.
Sevilla, de la UPNA, está de acuerdo con él y asegura que intentar prohibir la IA en la redacción de artículos científicos es una tarea titánica: "Como ponerle puertas al campo". En la misma línea que Aguillo, considera que hay que abogar porque los trabajos publicados "sean correctos y estén bien" y que la IA se utilice como una herramienta más de apoyo.
Aguillo tienen claro que lo que se ha visto hasta ahora puede distar mucho de la realidad. "Es solo la punta del iceberg", sostienen. El científico del IPP-CSIC señala que estos casos han salido a la luz por la dejadez de los propios autores, que no han detectado que habían copiado en sus documentos las frases que les delataban. "Hay muchos más casos que no son descubiertos y que es complicado destapar", concluye.