Pillan a científicos que usan ChatGPT en sus publicaciones y artículos

Una vergüenza. Hasta los científicos se todo el mundo se comportan ya como estudiantes y utilizan ChatGPT para escribir los artículos que revelan los resultados de sus investigaciones sin revelar que han «copiado». Son los detectives científicos, garantes de que no nos la metan doblada las estrellas del universo de la ciencia, los que han alertado de esta mala praxis.

El investigador Guillaume Cabanac se fijó en una extraña frase en un supuesto texto original que pretendía descubrir nuevas soluciones a una compleja ecuación matemática publicado en la revista Physica Scripta este pasado mes de agosto que decía «Regenerar entrada». No son dos palabras propias de un matemático que explica una teoría, pero muy recurrentes cuando se está utilizando la exitosa IA generativa creada por OpenAI.

Según ha desvelado una publicación de la revista Nature, que ha divulgado este fraude intelectual, la frase es un etiqueta de un botón de ChatGPT. El científico y autor había hecho el supuesto texto original tras haber realizado una pregunta a la IA generativa. De inmediato Cabanac, que es informático de la Universidad de Toulouse (Francia), realizó una captura de la evidencia y la publicó en PubPeer, una web donde los científicos debaten sobre las investigaciones que se publica.

un supuesto texto original que pretendía descubrir nuevas soluciones a una compleja ecuación matemática que decía «regenerar entrada»

Tras la «pillada» los científicos responsables de la publicación matemática reconocieron abiertamente que habían utilizado ChatGPT. Lo curioso es que este tipo de artículos están sujetos a un proceso de revisión por pares, por el que se presentó en mayo y meses después, en julio, se envío a tipografía una versión revisada, y allí tampoco detectaron las pistas de la máquina. El artículo ha sido retirado por el editor, Kim Eggleton, jefe de revisión por pares e integridad de la investigación en IOP Publishing, la editorial de Physica Scripta en Bristol, Reino Unido, por considerar que «esto es una violación de nuestras políticas éticas».

El investigador informático Cabanac asegura que esto es solo el comienzo, y que ya se ha detectado más de una docena de casos de utilización de ChatGPT en artículos a los que se les supone una originalidad y elevada calidad científica, y que son revisados por pares. Se trata de un tremenda torpeza de personas a las que se les atribuye una contrastada inteligencia, pero que se despistan y dejan en el texto frases como «Regenerar respuesta» o «Como modelo de lenguaje de IA, yo…». Un auténtica torpeza.

Pillan a científicos que usan ChatGPT en sus publicaciones y artículos
Los científicos hacen trampas con ChatGPT.

DEBEN DECLARAR QUE USAN CHATGPT

Muchos otros editores, incluidos Elsevier y Springer Nature, han dejado claro que los autores pueden utilizar ChatGPT y otras herramientas de los grandes modelos de lenguaje (LLM) para ayudarles a producir sus manuscritos, pero claro, siempre que lo declaren. El problema es que más allá de estas absurdas «pilladas», los investigadores y editores están convencidos que solo es «la punta de iceberg» y que la cantidad de artículos originales generados con IA sin declarar sea mucho mayor de lo imaginable.

Cabanac ha pillado ya varios artículos de investigación que muestran fallos propios de alumnos de la ESO. En un artículo publicado el 3 de agosto en Resources Policy, sobre el impacto del comercio electrónico en la eficiencia de los combustibles fósiles en los países en desarrollo, el informático vio ecuaciones sin sentido en el escrito, y justo encima de las mismas pudo leer «tenga en cuenta que, como modelo de lenguaje de IA, no puedo generar tablas específicas ni realizar pruebas…«. Los autores del artículo, de la Universidad de Liaoning en Shenyang, China, y de la Academia China de Comercio Internacional y Cooperación Económica en Beijing, no ha querido pronunciarse ni dar explicación alguna.

Al contrario que con otros sistemas de generación de contenido por ordenador, que al final se detectaban por fallos sutiles pero evidentes, si los investigadores eliminan las frases repetitivas de ChatGPT el texto fluido del chatbot más sofisticado es «casi imposible» de detectar, según explica Matt Hodgkinson, gerente de la Oficina de Integridad de la Investigación del Reino Unido con sede en Londres, que añade: «Es esencialmente una carrera armamentista. Los estafadores versus las personas que intentan mantenerlos fuera».

si los investigadores eliminan las frases repetitivas de ChatGPT el texto fluido del chatbot más sofisticado es «casi imposible» de detectar

Ya han encontrado un uso no revelado de ChatGPT en muchos artículos de conferencias revisados ​​por pares y en preimpresiones. En el «chat» de científicos PubPeer, bastantes autores admitieron que utilizaban ChatGPT varias veces y sin declararlo para ayudarse en la redacción de sus trabajos. El tema no es baladí porque el ascenso de ChatGPT y otras herramientas de IA generativa puede generar un negocio de creación y venta de contenidos falsos a investigadores que están siempre deseando aumentar sus publicaciones.

Según Elisabeth Bik, microbióloga y consultora independiente sobre integridad de la investigación en San Francisco (California), «el problema se multiplicará por cien. Me preocupa mucho que ya tengamos una afluencia de estos artículos que ya ni siquiera reconocemos». David Bimler, que descubre artículos falsos bajo el seudónimo de Smut Clyde desde Nueva Zelanda, por su parte señala que «todo el ecosistema científico consiste en publicar o perecer. El número de guardianes no da abasto».

Una posible solución es que los detectives de trampas busquen las referencia falsas que Chat GPT suele volcar, porque si la referencia no existe, es una señal de alarma. Según ha explicado a Nature el microbiólogo del Instituto Estatal del Suero de Copenhague, Rune Stensvold, se encontró con el problema de las referencias falsas cuando un estudiante le pidió una copia de un artículo del que, al parecer, Stensvold había sido coautor con uno de sus colegas en 2006. El artículo no existía. El estudiante había pedido a un chatbot de IA que le sugiriera artículos sobre Blastocystis, un género de parásito intestinal, y el chatbot había improvisado una referencia con el nombre de Stensvold. «Parecía tan real», comentó.