Contra la perversión del sistema de evaluación de la ciencia |  Ciencia

Es sabido que la investigación es el principal motor del progreso económico y social; pero debe funcionar correctamente para permitirnos mejorar verdaderamente nuestras vidas. Desgraciadamente, existen pruebas claras que indican la necesidad de remediar algunos aspectos sustanciales, como la falta de financiación adecuada, la falta de importancia concedida en nuestro país a la investigación interdisciplinar, la necesidad de un pacto de Estado en materia de investigación, la evaluación de los investigadores y la atracción y retención del talento. En este artículo nos centraremos en estos dos últimos aspectos: evaluación y talento.

En España, la investigación de investigadores, profesores universitarios y aspirantes a serlo se evalúa casi exclusivamente a partir de criterios bibliométricos. Es decir, con la contabilidad del volumen de publicaciones, citas y otras medidas numéricas. Pero, salvo algunas excepciones, se excluye la evaluación por pares. Es decir, los expertos en la materia emiten juicios bien fundamentados sobre las contribuciones más relevantes de los investigadores al progreso del conocimiento.

Los defensores del uso de criterios de evaluación bibliométrica argumentan que son más “objetivos” y menos costosos que la evaluación por pares. La medida clave aquí es el llamado factor de impacto de las revistas en las que los investigadores publican nuestros resultados. Este factor se calcula para cada revista de la siguiente manera: cada año, el factor de impacto de una revista es el resultado de la relación entre el número total de citas que han recibido los artículos de esa revista en los dos años anteriores, por el número de artículos publicados en esa revista durante esos dos años.

La realidad es que estas medidas indirectas no son adecuadas para evaluar las contribuciones científicas de los investigadores. Un estudio realizado por Philip Campbell, entonces director de Naturaleza (ver “Escapar del factor de impacto”, Naturaleza Vol. 8, 2008) reveló que tres cuartas partes de los artículos publicados en esta prestigiosa revista no contribuyen al cálculo del factor de impacto de la revista. De hecho, el 80% de los artículos publicados en Naturaleza en un año determinado reciben menos de 20 nominaciones en los dos años siguientes.

Por otro lado, hay conocidos editores de revistas que durante el proceso de revisión solicitan a los autores de un artículo que citen otros artículos publicados recientemente en la misma revista. De esta forma consiguen aumentar artificialmente el impacto de la revista.

En resumen, se puede afirmar que el hecho de publicar un artículo en una revista de alto impacto no significa en absoluto que dicho artículo constituya un aporte científico de alto nivel. Sería necesario analizar detalladamente la relevancia de las citas recibidas por el artículo en cuestión y el motivo de dichas citas, ya que un artículo puede recibir muchas citas por el hecho de contener resultados incorrectos. El ejemplo más conocido es un artículo que aparentemente demostró que la fusión nuclear era posible a temperatura ambiente.

Negligencia

Medir la producción académica por peso trajo consigo un buen número de trucos características de la picaresca tan extendida en nuestro país. Algunos ejemplos de negligencia pueden ser los siguientes.

Un investigador puede aumentar su números haciendo un contrato editorial con otros, quienes aparecerán como coautores de sus artículos, a cambio de aparecer como coautores en los artículos de otros. Este acuerdo también se extiende a las citas mutuas.

lo conocido cebo de clics, es decir, artículos con títulos capaces de llamar la atención de otros investigadores porque tratan de un tema de moda, incluso si estos artículos son contribuciones sin interés. Otra estrategia es escribir artículos que resuma el estado del arte en un campo (artículos de encuesta), ya que tienen más probabilidades de recibir más citas que los artículos que contienen contribuciones originales.

Otras veces se decide dividir un resultado científico en pedazos que no excedan unidad mínima publicable. Este truco también se conoce como publicación. salami. Esto aumenta artificialmente el número de citas y publicaciones.

En EL PAÍS, así como en otros medios, han aparecido recientemente varias noticias que dan cuenta de algunas de estas malas prácticas que pervierten el sistema de evaluación y que llegan a casos extremos como la publicación de artículos, de una o dos páginas y sin importancia científica, que contiene cientos de autocitas ajenas al contenido de dichos artículos. Nuestro compañero José Luis Verdegay también publicó recientemente un magnífico artículo sobre este aspecto (“Productividad y calidad científica: ¿dos caras de una misma moneda?” Universidad 02/04/2024)

¿Lo que debe hacerse?

Una idea razonable para acercarse a una medición más fiel de la calidad de la producción científica es utilizar criterios que funcionen internacionalmente en los países científicamente más avanzados. Por ejemplo, el Declaración sobre la evaluación de la investigación (DORA, San Francisco, 2013), el Declaración Conjunta de Evaluación de la Investigación en Computación (Informática Europa, 2020) o la Declaración de Málaga de la Sociedad Española de Informática Científica (SCIE, 2020). En todos estos casos se insiste en que la evaluación debe incluir una evaluación por pares de las aportaciones científicas, analizando detalladamente las aportaciones más allá del llamado “estado del arte”. Es decir, más allá de los conocimientos actuales sobre el tema que se investiga, así como de las posibilidades de que dichos aportes puedan ser útiles a otros investigadores para obtener mayores y mejores resultados, según la famosa frase de Isaac Newton: “Si hubiera podido ver” Incluso más aún ha estado lejos porque me he subido sobre hombros de gigantes”.

Pero sobre todo es necesario que estos métodos de evaluación se complementen con algo que parece obvio: la responsabilidad de quienes utilizan la evaluación para tomar decisiones.

Las consecuencias de esta forma de evaluar

Queremos resaltar las consecuencias negativas del sistema actual para fijar el objetivo que deben perseguir los investigadores para progresar en su carrera profesional. Intentamos dar razones para cambiar las cosas.

En demasiados casos, los esfuerzos se concentran en producir artículos con el objetivo de acumular citas; no necesariamente que sean importantes de alguna manera. Hemos comprobado que este despropósito es una realidad. Como resultado de establecer este objetivo, muchos jóvenes que inician sus carreras científicas se sienten tentados a unirse a este juego de las citas. Desafortunadamente, la mayoría de las veces no son llamados a participar en investigaciones interesantes, lo que representa un desafío intelectual para crecer como investigadores. El resultado es que las jóvenes promesas más talentosas son huyen en otros lugares alejados del sistema de investigación académica español. Esto es especialmente grave y habitual en nuestro campo, la inteligencia artificial, ya que existen muchas solicitudes de otros países o empresas privadas que ofrecen mejores recursos y condiciones salariales.

La fuga de talentos socava nuestras opciones de crecimiento. En cierto sentido, se destruye la ilusión que teníamos en un futuro en el que las nuevas generaciones serían protagonistas. Nuestros egresados ​​necesitan perspectivas de progreso en su carrera profesional que motiven su interés por ser parte esencial de nuestro sistema de investigación, desarrollo e innovación. Es fundamental ofrecer contratos estables y condiciones laborales dignas, incluidos salarios competitivos que reconozcan el valor de su trabajo. La simple publicación de material potencialmente citable no debería ser una consideración a la hora de atraer talento. En definitiva, la atracción y retención del talento investigador en España requiere un cambio de paradigma en la gestión del conocimiento generado.

No queremos concluir estas líneas sin indicar algunas soluciones para atraer y retener talento. Quizás no sea original. Sugerimos observar los sistemas seguidos por los países de nuestro entorno que han tenido éxito. Por ejemplo, el modelo británico. Allí, la financiación de los centros de investigación y departamentos universitarios depende de evaluaciones externas de pares, y los resultados de las evaluaciones impactan los salarios de los investigadores, incluidos los jóvenes estudiantes de doctorado. Por lo tanto, la responsabilidad de los directivos de hacer crecer las instituciones incluye medidas no sólo para retener el talento, sino también para atraerlo. Además de las condiciones salariales, el elemento fundamental es también la capacidad de entusiasmar a los jóvenes con la calidad de los proyectos de enseñanza y de investigación.

Hemos dejado muchas preguntas importantes sin respuesta. Por ejemplo, ¿es deseable que haya universidades donde la investigación no sea un objetivo prioritario? ¿Debería financiarse con fondos públicos la investigación en grandes empresas del sector privado? Estos y otros aspectos deberían ser objeto de debate si queremos un sistema de I+D+i de calidad equiparable al de los países más avanzados científicamente.

puedes seguir SUJETO En Facebook, X Y Instagramo regístrate aquí para recibirlo nuestro boletín semanal.