Es bien sabido que la investigación es el principal motor del progreso económico y social; pero debe funcionar correctamente para permitirnos mejorar verdaderamente nuestras vidas. Lamentablemente, existen claras evidencias que indican la necesidad de reparar algunos aspectos sustanciales de la misma, como la falta de financiación adecuada, la poca importancia que se da en nuestro país a la investigación interdisciplinaria, la necesidad de un pacto de Estado en materia de investigación, la evaluación de los investigadores y la atracción y retención del talento. En este artículo nos centraremos en estos dos últimos aspectos: evaluación y talento.
En España, la investigación de investigadores, profesores universitarios y quienes aspiran a serlo, se evalúa casi exclusivamente en base a criterios bibliométricos. Es decir, con una contabilidad del volumen de publicaciones, citas y otras medidas de carácter numérico. Pero, salvo algunas excepciones, se excluye la evaluación por pares. Es decir, expertos en el tema emiten juicios bien fundamentados sobre los aportes más relevantes de los investigadores al avance del conocimiento.
Los defensores del uso de criterios de evaluación bibliométrica argumentan que son más “objetivos” y menos costosos que la evaluación por pares. La medida clave aquí es el llamado factor de impacto de las revistas en las que los investigadores publican nuestros resultados. Este factor se calcula para cada revista de la siguiente manera: cada año, el factor de impacto de una revista es el resultado de dividir el número total de citas que han recibido los artículos de esa revista en los dos años anteriores, por el número de artículos. publicados en dicha revista durante esos dos años.
La realidad es que estas medidas indirectas no son adecuadas para evaluar las contribuciones científicas de los investigadores. Un estudio de Philip Campbell, entonces editor de Naturaleza (ver “Escapar del factor de impacto”, Naturaleza vol. 8, 2008) reveló que tres cuartas partes de los artículos publicados en esta prestigiosa revista no contribuyen al cálculo del factor de impacto de la revista. De hecho, el 80% de los artículos publicados en Naturaleza en un año determinado reciben menos de 20 nombramientos durante los dos años siguientes.
Por otro lado, se sabe que hay editores de revistas que durante el proceso de revisión solicitan a los autores de un artículo que citen otros artículos publicados recientemente en la misma revista. De esta forma consiguen aumentar artificialmente el impacto de la revista.
En definitiva, se puede afirmar que el hecho de publicar un artículo en una revista de alto impacto no significa en absoluto que dicho artículo sea una contribución científica de alta calidad. Sería necesario analizar detalladamente la relevancia de las citas recibidas por el artículo en cuestión y el motivo de dichas citas, ya que un artículo puede recibir muchas citas por el hecho de contener resultados erróneos. El ejemplo más conocido es un artículo que aparentemente demostró que la fusión nuclear era posible a temperatura ambiente.
Negligencia profesional
Medir la producción académica por peso ha traído consigo un buen número de trucos características de la picaresca tan común en nuestro país. Algunos ejemplos de mala praxis pueden ser los siguientes.
Un investigador puede aumentar su números haciendo un acuerdo de publicación con otros, quienes aparecerán como coautores de sus artículos, a cambio de aparecer como coautores de los artículos de los demás. Este acuerdo se extiende también a las citas recíprocas.
lo conocido cebo de clics, es decir, artículos con títulos capaces de llamar la atención de otros investigadores porque tratan de un Tema de moda, aunque estos artículos son aportaciones sin interés. Otra estrategia es escribir artículos que resuma el estado del arte en un campo (artículos de encuesta), ya que tienen más probabilidades de recibir más citas que los artículos que contienen contribuciones originales.
Otras veces se decide dividir un resultado científico en pedazos que no excedan el unidad mínima publicable. Este truco también se conoce como publicación. salami. Esto aumenta artificialmente el número de citas y publicaciones.
En EL PAÍS, así como en otros medios, se han publicado recientemente diversas noticias que dan cuenta de algunas de estas malas prácticas que pervierten el sistema de evaluación y que llegan a casos extremos como la publicación de artículos, de una o dos páginas y nula relevancia científica, conteniendo cientos de autocitas ajenas al contenido de dichos artículos. Nuestro compañero José Luis Verdegay también publicó recientemente un magnífico artículo sobre este aspecto (“Productividad y calidad científica: ¿dos caras de una misma moneda?” Universidad 02/04/2024)
¿Lo que debe hacerse?
Una idea razonable para acercarse a una medición más fiel de la calidad de la producción científica es utilizar criterios que funcionen internacionalmente en los países científicamente más avanzados. Por ejemplo, el Declaración sobre evaluación de la investigación (DORA, San Francisco, 2013), el Declaración conjunta de evaluación de la investigación en informática (Informática Europa, 2020) o el Declaración de Málaga de la Sociedad Científica Informática de España (SCIE, 2020). En todos estos casos se insiste en que la evaluación debe incluir la evaluación por pares de las aportaciones científicas, analizando en detalle las aportaciones más allá del llamado “estado del arte”. Es decir, más allá de los conocimientos actuales sobre el tema que se investiga, así como de las posibilidades de que dichos aportes sean útiles para que otros investigadores obtengan más y mejores resultados, de acuerdo con la célebre frase de Isaac Newton: “Si he logrado ver” Cuanto más lejos he llegado porque me he subido a hombros de gigantes”.
Pero, sobre todo, estos métodos de evaluación necesitan complementarse con algo que parece obvio: la responsabilidad de quien utiliza la evaluación para tomar decisiones.
Las consecuencias de esta forma de evaluar
Queremos resaltar las consecuencias negativas del sistema actual para fijar el objetivo que deben perseguir los investigadores para progresar en su carrera profesional. Buscamos dar razones para cambiar las cosas.
En demasiados casos, los esfuerzos se centran en producir artículos con el objetivo de acumular citas; no necesariamente que sean importantes de alguna manera. Hemos comprobado que este despropósito es una realidad. Como consecuencia de fijarse este objetivo, muchos jóvenes que inician sus carreras científicas se ven tentados a unirse a este juego de las citas. Lamentablemente la mayoría de las veces no son llamados a participar en investigaciones interesantes que representen un desafío intelectual con el que crecer como investigadores. El resultado es que las jóvenes promesas más talentosas son ellos escapan a otros lugares alejados del sistema de investigación académica español. Esto es especialmente grave y habitual en nuestro campo, la Inteligencia Artificial, ya que existen muchas reclamaciones de otros países o empresas privadas que ofrecen mejores recursos y condiciones salariales.
La fuga de talentos frustra nuestras opciones de crecimiento. En cierto sentido, se destruye la ilusión que habíamos depositado en un futuro que deberían protagonizar las nuevas generaciones. Nuestros egresados necesitan perspectivas de progreso en su carrera profesional que motiven su interés por ser parte esencial de nuestro sistema de I+D+i. Es fundamental ofrecer contratos estables y condiciones laborales dignas, incluidos salarios competitivos que reconozcan el valor de su trabajo. La simple publicación de material potencialmente citable no debería ser un elemento a tener en cuenta a la hora de atraer talento. En definitiva, la atracción y retención del talento investigador en España requiere un cambio de paradigma en la gestión del conocimiento generado.
No queremos acabar estas líneas sin señalar alguna solución para atraer y retener talento. Quizás poco original. Sugerimos observar los sistemas que siguen los países de nuestro entorno y que han tenido éxito. Por ejemplo, el modelo británico. Allí, la financiación de los centros de investigación y los departamentos universitarios depende de evaluaciones externas por pares y los resultados de las evaluaciones tienen un impacto en los salarios de los investigadores, incluidos los jóvenes estudiantes de doctorado. Por tanto, la responsabilidad de los directivos para hacer crecer las instituciones incluye medidas no sólo para retener el talento, sino también para atraerlo. Además de las condiciones salariales, la pieza clave es también la capacidad de entusiasmar a los jóvenes con la calidad de los proyectos de enseñanza y de investigación.
Dejamos muchas preguntas importantes sin respuesta. Por ejemplo, ¿es deseable que haya universidades donde la investigación no sea un objetivo prioritario? ¿Debería financiarse con fondos públicos la investigación en grandes empresas del sector privado? Estos y otros aspectos deberían ser objeto de debate si queremos un sistema de I+D+i de calidad equiparable al de los países más avanzados científicamente.
puedes seguir SUJETO en Facebook, X y Instagramo regístrate aquí para recibir nuestro boletín semanal.



