¿Una estupidez clasificatoria?

Este artículo es exclusivo para suscriptores (3)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Ingrese a su cuenta para continuar disfrutando de nuestro contenido


Este artículo es exclusivo para suscriptores (2)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

Este artículo es exclusivo para suscriptores (1)

Suscríbase para disfrutar de forma ilimitada de contenido exclusivo y confiable.

Subscribe

BLOOMINGTON – “Cite sus fuentes”. Esa amonestación resuena en los oídos de todo estudiante y todo doctor universitarios y chapuceros, pero ¿hemos exagerado la insistencia en las citas?

Desde temprana edad se nos enseña a reconocer a aquellos cuyas ideas y penetración han modelado nuestro pensamiento. Durante nuestras carreras académicas, aprendemos a hacer una atribución correcta de las palabras, datos o imágenes existentes que utilizamos, y “atribuir el mérito a quien le corresponde” es el principio axial en torno al cual gira todo el sistema de publicaciones científicas y académicas.

En el mundo académico, citar las obras de otros no es una mera cortesía, sino un requisito normativo. De hecho, resulta casi imposible imaginar la publicación de un artículo en una revista reputada sin una lista adjunta de referencias. El plagio es uno de los pocos actos que pueden acabar con una carrera académica brillante.

Las citas sitúan en su marco la investigación y ayudan a orientar al lector. Permiten al lector evaluar la obra de un autor a partir de la calidad patente de las referencias seleccionadas y a rastrear obras antes desconocidas, pero posiblemente útiles.

Eugene Garfield lo entendió. En 1955, Garfield creó el Science Citation Index (SCI), base de datos en la que figuran todas las referencias citadas en todas las revistas científicas muy respetadas, con lo cual exponía la desperdigada red de conexiones entre los textos. Como él mismo dijo: “Recurriendo a las citas de los autores al compilar el índice de citas, estamos utilizando en realidad a un ejército de participantes en los índices, pues, siempre que un autor indica una referencia, está incluyendo, en realidad, en un índice esa obra desde su punto de vista”. El SCI permitiría a los investigadores seguir cadenas de conocimientos hacia atrás y hacia delante por los enlaces a citas insertas en la bibliografía científica.

Las posibilidades del SCI no se desaprovecharon en la comunidad científica, cuyos miembros se apresuraron a adoptarlo, pero no por las razones por las que habría sido de esperar. El enriquecimiento de la materia estudiada con análisis, conexiones y conclusiones anteriores relativos a los mismos textos citados fue, desde luego, una parte de su atractivo. Sin embargo, más atractiva era la posibilidad de rastrear la influencia académica de uno mismo y de otros a lo largo del tiempo y en diferentes esferas y de descubrir cuáles son los científicos, artículos, revistas e instituciones más citados.

Casi de la noche a la mañana, la humilde referencia bibliográfica adquirió importancia simbólica y la ciencia obtuvo un sistema de puntuación, pero ¿de verdad lo necesitaba?

El SCI originó múltiples formas de calibrar las citas, dos de las cuales, en particular, son dignas de mención. La primera –otra idea de Garfield– es el factor de repercusión, que ofrece una presunta indicación de la calidad de una revista académica basada en el número de veces que sus artículos fueron citados por término medio en los dos años anteriores. Un factor de repercusión alto impulsa al instante el prestigio de una revista.

Otro método notable de calibración es el índice H, concebido por el físico Jorge Hirsch, cuyo objetivo es el de calibrar la productividad y la repercusión. La forma en que se computa el índice H es sencilla: si un investigador publica 20 artículos, cada uno de los cuales haya sido citado al menos 20 veces, tendrá un índice H de 20. Si publica 34 artículos, cada uno de los cuales haya sido citado al menos 34 veces, obtendrá un índice H de 34.

Pese a las bien documentadas limitaciones de esas calibraciones, su sencillez –por no hablar de la competencia inherente al progreso científico– las hace enormemente atractivas. A consecuencia de ello, las han considerado válidas personas que deberían dar muestras de mayor sensatez. De hecho, los datos sobre citas han llegado a ser las estadísticas decisivas en el mundo académico, por lo que los investigadores incluyen automáticamente en sus currículos los datos sobre el factor de repercusión y los índices H, junto con los meros tantos obtenidos en fuentes como la Web of Science de Thomson Reuter (la base de datos de Garfield), Elsevier’s Scopus y Google Scholar ...

Asimismo, varias clasificaciones anuales de universidades, incluidas la Clasificación CWTS de Leiden, la Clasificación Académica de Shanghái de las Universidades del Mundo, las Clasificaciones QS de las Universidades del Mundo y las Clasificaciones de las Universidades del Mundo, consignan los datos de citas y publicaciones en sus cálculos. Los presidentes de las universidades deben procurar impulsar los historiales de citas de sus instituciones, aun cuando sepan que la validez y la fiabilidad de dichos datos y las clasificaciones resultantes son discutibles.

El problema no se limita al mundo académico. Los administradores están recurriendo a esas calibraciones para evaluar la productividad de aquellos a quienes contratan y financian, y rastrear las repercusiones posteriores de los proyectos de investigación e innovación que financian, sin apenas tener en cuenta las limitaciones de semejantes índices. En países como el Reino Unido, Australia, Alemania e Italia, los ejercicios de evaluación de las investigaciones están creando inexorablemente una forma de cuantificación y rendición de cuentas en la que los datos sobre citas desempeñan un papel cada vez más importante.

Cuanto más se recurre a esos indicadores “objetivos” en la evaluación de las investigaciones y del personal, más se sienten obligados los científicos a participar en el juego de las citas, lo cual significa recurrir cada vez más al sistema, al centrarse en los trabajos que prometen réditos a corto plazo, elegir objetos de investigación “candentes”, dedicar más tiempo a la autopromoción (facilitada por la proliferación de medios de comunicación social) y cortar y trocear sus trabajos para atraer la máxima atención. La reciente aparición de las llamadas “mediciones sustitutivas” (como, por ejemplo, descargas electrónicas, recomendaciones, opiniones de “me gusta" en Facebook y Tweets ) ha intensificado la presión para que los investigadores acumulen pruebas de su influencia.

Desde luego, la aplicación de los análisis sociales al mundo de la investigación y al mundo académico podría aún aportar importantes revelaciones que faciliten la evaluación de las aportaciones “verdaderas” de un científico. El problema consistirá en la gestión del equilibrio entre la transparencia y la trivialidad. Como Einstein dijo, según cuentan: “No todo lo que se puede contar cuenta, ni todo lo que cuenta se puede contar”.

Blaise Cronin es profesor emérito de Ciencias de la Información en la Universidad Bloomington de Indiana y profesor honorario en la Universidad de la Ciudad de Londres. © Project Syndicate.