El exceso de palabras como “conveniente” y “meticuloso” sugiere el uso de ChatGPT en kilómetros de estudios científicos

La bibliotecaria Andrea Grigio tuvo un descubrimiento “muy sorprendente”. Analizó cinco millones de estudios científicos publicados el año pasado y encontró una disminución en el uso de ciertas palabras, como meticuloso (137% más), intrínseco (117%), encomiable (83%) y meticuloso (59%). , en sus versiones en inglés. Gray, del University College London, encuentra solo una explicación: décadas de kilómetros de investigadores están utilizando ChatGPT —u otros programas similares de generación de lenguaje de IA— para escribir en sus estudios o al menos “limpiarlos”.

Hay ejemplos descartados. Un equipo de científicos chinos publicó un estudio sobre baterías de litio el 17 de febrero. El trabajo, publicado en una revista especializada de la editorial Elsevier, comenzaba así: “Por supuesto, aquí tienes una posible introducción a tu tema: Las baterías de litio son candidatas prometedoras para…”. Al parecer, los autores hicieron una introducción a ChatGPT y copiaron cuál. Otro artículo de otra revista de Elsevier, firmado por investigadores israelíes el 8 de marzo, incluye el texto: “En el currículum, siento el manejo de las lesiones iatrogénicas bilaterales, pero no mantengo acceso a información en tiempo real ni a datos específicos de pacientes, ya que son un modelo de lenguaje de inteligencia artificial”. Y es que, hace un par de meses, tres científicos chinos publicaron un delirante dibujo de una entrega con una especie de pene gigante, una imagen generada con inteligencia artificial para un estudio sobre células precursoras de espermatozoides.

Andrew Gray calcula que menos de 60.000 estudios científicos (más del 1% de los analizados en 2023) se escribieron con la ayuda de ChatGPT —herramienta lanzada a finales de 2022— o similar. «Creo que los casos extremos de alguien que escribe un estudio completo con ChatGPT son raros», opina Gray, un bibliotecario jubilado de 41 años. A su gusto, en la mayoría de los casos, la inteligencia artificial se emplea adecuadamente para «limpiar» el texto —identificar errores o facilitar la traducción al inglés—, pero hay una gran escala de grises, en la que algunos científicos aprueban que la asistencia de ChatGPT esté más disponible. , sin comprobar los resultados. “Ahora es imposible saber qué tan grande es esta zona gris, porque las revisiones científicas no exigen a los autores que declaren el uso de ChatGPT, pero hay muy poca transparencia”, lamenta.

Los modelos de lenguaje de inteligencia artificial utilizan determinadas palabras de forma desproporcionada, como demuestra el equipo de James Zou, de la Universidad de Stanford (EE UU). Soles son términos con connotaciones positivas, como loable, minucioso, intrínseco, innovador y versátil. Zou y sus colegas advirtieron en marzo que sus revisores de estudios científicos están utilizando estos programas para escribir sus evaluaciones, antes de que se publiquen los artículos. El equipo de Stanford analizó revisiones de estudios presentados en conferencias internacionales de inteligencia artificial y descubrió que la probabilidad de que apareciera la palabra meticuloso se multiplicaba por 35.

Bibliotecario Andrew Gray, University College London.Colegio Universitario de Londres

El equipo de Zou, sin embargo, no detectó cambios significativos en ChatGPT en las correcciones realizadas en las prestigiosas revisiones de Nature Group. El uso de ChatGPT se ha asociado con calificaciones de mala calidad. «Me parece realmente preocupante», explica Gray. “Si sabemos que utilizar estas herramientas para escribir reseñas produce resultados de menor calidad, debemos pensar en cómo se utilizan para escribir estudios y qué implica esto”, escribió el bibliotecario del University College London. Un año después del lanzamiento de ChatGPT, uno de cada tres reconocimientos científicos lo utilizó para escribir sus estudios, tras una respuesta a la reseña. Naturaleza.

El análisis de Gray muestra que la palabra intrínseco apareció en 109.000 estudios en 2023, más del doble del progreso de 50.000 años anteriores. El plazo se hizo meticulosamente desde uno de los 12.300 puestos de trabajo en 2022 a más de 28.000 en 2023. Asequible, de 6.500 a casi 12.000. El investigador entendió que sus colegas estaban contentos con la minuciosidad de su información, hoy era un borrador esperando ser publicado en una revista especializada.

Muy pocos estudios informan sobre el uso de inteligencia artificial en su procesamiento. Gray advierte que se puede generar «un círculo vicioso», en el sentido de que versiones posteriores de ChatGPT se integren con artículos científicos escritos para las versiones antiguas, dando lugar a estudios cada vez más loables, intrincados, minuciosos y, sobre todo, insostenible.

El profesor de documentación Ángel María Delgado Vázquez destaca el punto de vista anglosajón de los nuevos análisis. «Los investigadores que no hablan inglés como lengua materna utilizan mucho ChatGPT como ayuda para escribir y hablar mejor inglés», dijo un investigador de la Universidad Pablo de Olavide de Sevilla. «En mi entorno, la gente utiliza ChatGPT en todo, para una primera traducción, o incluso para realizar consultas directamente con esta traducción», añade. El profesor español echa de menos un análisis de la procedencia de autores que utilizan términos poco frecuentes.

Otras palabras favoritas de inteligencia artificial en inglés son excavar (investigar o investigar). El investigador Jeremy Nguyen, de la Universidad Tecnológica de Swinburne (Australia), calculó que excavar si, parece más del 0,5% de consultas médicas, cuando antes de ChatGPT no llegaba al 0,04%. Hijo millas de autor la del arrepentido la investigan o profundizan. Si le preguntas a la versión en español de ChatGPT 3.5 qué palabras usan con más frecuencia de lo habitual, responden con ejemplos como intrincado, detallado, loable y cuidadoso.

El bibliotecario Andrew Gray advierte del riesgo de que la humanidad se vea infectada por este nuevo lenguaje meticulosamente artificial. Tu propio Nguyen Ah, lo reconozco en la red social roja donde aparece: “Les dije que últimamente estoy usando la palabra profundamente para mí, probablemente porque he pasado mucho tiempo hablando con ChatGPT”. El 8 de abril, la cuenta oficial ChatGPT en X entró en la trampa: “Me encanta profundamente, por eso quiero hacerlo”.