La bibliotecaria andres gris ha hecho un descubrimiento “muy sorprendente”. Ha analizado cinco millones de estudios científicos publicados el año pasado y ha detectado un repentino aumento en el uso de determinadas palabras, como meticulosamente (hasta un 137%), intrincado (117%), loable (83%) y meticuloso (59%). en sus versiones en inglés. Gray, del University College London, solo puede encontrar una explicación: decenas de miles de investigadores están utilizando ChatGPT (o programas similares de generación de lenguaje de inteligencia artificial) para escribir sus estudios o al menos “pulirlos”.
Hay ejemplos flagrantes. Un equipo de científicos chinos publicó el 17 de febrero un estudio sobre las baterías de litio. El trabajo, publicado en una revista especializada de la editorial Elsevier, comenzaba así: “Por supuesto, aquí hay una posible introducción a su tema: las baterías de litio son prometedoras. candidatos a…”. Al parecer, los autores pidieron una introducción a ChatGPT y la copiaron tal cual. Otro artículo de otra revista de Elsevier, firmado por investigadores israelíes el 8 de marzo, incluye el texto: “En resumen, el tratamiento de las lesiones iatrogénicas bilaterales lo siento, pero no tengo acceso a información en tiempo real ni a datos específicos del paciente. , ya que soy un modelo de lenguaje de inteligencia artificial”. Y es que, hace un par de meses, tres científicos chinos publicaron un delirante dibujo de una rata con una especie de pene gigante, una imagen generada con inteligencia artificial para un estudio sobre las células precursoras del esperma.
Andrew Gray estima que al menos 60.000 estudios científicos (más del 1% de los analizados en 2023) se escribieron con la ayuda de ChatGPT —herramienta lanzada a finales de 2022— o similar. «Creo que los casos extremos de alguien que escribe un estudio completo con ChatGPT son raros», dice Gray, un bibliotecario escocés de 41 años. En su opinión, en la mayoría de los casos la inteligencia artificial se utiliza adecuadamente para “pulir” el texto -identificar errores tipográficos o facilitar la traducción al inglés-, pero hay una gran escala de grises, en la que algunos científicos aprovechan aún más la asistencia de ChatGPT, sin verificar. los resultados. “Ahora mismo es imposible saber qué tan grande es esa zona gris, porque las revistas científicas no exigen a los autores que declaren el uso de ChatGPT, hay muy poca transparencia”, lamenta.
Los modelos de lenguaje de inteligencia artificial utilizan determinadas palabras de forma desproporcionada, como demuestra el equipo de James Zou de la Universidad de Stanford (EE.UU.). Suelen ser términos con connotaciones positivas, como encomiable, meticuloso, complejo, innovador y versátil. Zou y sus colegas advirtieron en marzo que los propios revisores de estudios científicos están utilizando estos programas para escribir sus evaluaciones, antes de la publicación de los trabajos. El grupo de Stanford analizó revisiones de estudios presentados en dos conferencias internacionales sobre inteligencia artificial y descubrió que la probabilidad de que apareciera la palabra meticuloso había aumentado 35 veces.
El equipo de Zou, en cambio, no detectó rastros significativos de ChatGPT en las correcciones realizadas en las prestigiosas revistas del grupo Nature. El uso de ChatGPT se asoció con revisiones de peor calidad. «Lo encuentro realmente preocupante», explica Gray. “Si sabemos que utilizar estas herramientas para escribir reseñas produce resultados de menor calidad, debemos reflexionar sobre cómo se están utilizando para escribir estudios y qué implica eso”, afirma la bibliotecaria del University College London. Un año después del lanzamiento de ChatGPT, uno de cada tres científicos reconoce que lo utilizó para escribir sus estudios, según una encuesta de la revista Naturaleza.
El análisis de Gray muestra que la palabra intrincado apareció en 109.000 estudios en 2023, más del doble del promedio de 50.000 en años anteriores. El plazo pasó minuciosamente de unos 12.300 puestos de trabajo en 2022 a más de 28.000 en 2023. Loable, de 6.500 a casi 12.000. El investigador bromea diciendo que sus compañeros le han felicitado por la minuciosidad de su informe, todavía un borrador pendiente de publicación en una revista especializada.
Muy pocos estudios reportan el uso de inteligencia artificial en su elaboración. Gray advierte que se puede generar “un círculo vicioso”, en el que las versiones posteriores de ChatGPT se entrenan con artículos científicos escritos por las versiones antiguas, dando lugar a estudios cada vez más loables, intrincados, minuciosos y, sobre todo, insustanciales. .
El profesor de documentación Ángel María Delgado Vázquez destaca el punto de vista anglosajón del nuevo análisis. “Los investigadores que no hablan inglés nativo están utilizando mucho ChatGPT, como ayuda para escribir y mejorar el idioma inglés”, afirma el investigador, de la Universidad Pablo de Olavide, de Sevilla. “En mi entorno, la gente utiliza ChatGPT principalmente para una primera traducción, o incluso para continuar directamente con esa traducción”, señala. Al catedrático español se le escapa un análisis del origen de autores que utilizan términos inusuales.
Otra de las palabras favoritas de inteligencia artificial en inglés es ahondar (investigar o profundizar). El investigador Jeremy Nguyen, de la Universidad Tecnológica de Swinburne (Australia), ha calculado que ahondar ya aparece en más del 0,5% de estudios médicos, cuando antes de ChatGPT no llegaba al 0,04%. Son miles de autores que de repente investigan o profundizan. Si le preguntas a la versión en español de ChatGPT 3.5 qué palabras usa con más frecuencia de lo habitual, responde con ejemplos como intrincado, detallado, loable y cuidadoso.
El bibliotecario Andrew Gray advierte del riesgo de que la humanidad se infecte con este nuevo lenguaje meticulosamente artificial. El propio Nguyen ha sido reconocido en la red social El 8 de abril, la cuenta oficial ChatGPT en X entró en el trapo: “Me encanta profundizar, ¿qué voy a hacer?”
puedes seguir SUJETO en Facebook, X y Instagramo regístrate aquí para recibir nuestro boletín semanal.



