Mierzenie czegokolwiek poza jakością czasopisma za pomocą IF i jego pochodnych (np. punktów ministerialnych) do niczego nie prowadzi. Jedyną wiarygodną miarą wartości publikacji jest wnikliwa i bezstronna ocena ekspercka, no ale do tego są potrzebni rzetelni eksperci. Na razie mamy z tym problem. Może zresztą nie tylko na razie. Poza tym, ocena ekspercka jest praktycznie niewykonalna w większej, ponadindywidualnej skali, np. w ewaluacji większych jednostek naukowych (wydziałów, uczelni, instytutów). Wydaje się więc, iż w biurokratycznej ocenie zarówno indywidualnych jak i zbiorowych dokonań naukowych jesteśmy skazani na bibliometrię.
Dziwnym zbiegiem okoliczności, większość toczących się w przestrzeni publicznej dyskusji nad tym zagadnieniem obraca się wokół punktacji czasopism. To sugeruje iż zabierają w nich głos prawie wyłącznie bibliotekarze, redaktorzy i naukowi dyletanci (a więc osoby zainteresowane zawodowo lub chorobliwie rankingiem czasopism naukowych). Dla tych, którzy naukę tworzą jest oczywiste, że o wartości dzieła nie decyduje to, w jakim czasopiśmie zostało opublikowane, ale jaki rezonans wywołało. Jego miarą (poza uznaniem u kolegów po fachu) jest liczba cytowań w światowej literaturze. Punktacja (IF) czasopisma, w którym dzieło opublikowano, odgrywa drugorzędną, wyłącznie promocyjną rolę. Dobre czasopismo zapewnia szerszy odbiór i większe zaufanie do rzetelności publikowanych w nim artykułów, ale nie łudźmy się - nie zapewni, mimo promocyjnej przewagi, rozgłosu mało odkrywczej pracy. Z drugiej strony, dobra praca opublikowana w niżej notowanym czasopiśmie nie zginie. Będzie dostrzeżona i cytowana przez innych autorów, choć liczba cytowań nie osiągnie pułapu który zostałby osiągnięty po jej opublikowaniu w topowym żurnalu. Jedynym warunkiem jest to, by czasopismo w którym się pojawiła funkcjonowało w obiegu międzynarodowym.
Tak więc obiektywnym wskaźnikiem wartości publikacji naukowej jest to, jak często była cytowana przez innych autorów. Z kolei wskaźnikiem umożliwiającym zmierzenie osiągnięć konkretnego badacza jest to, ile razy jego prace były przez innych cytowane. Pewną, czasem przydatną pochodną tego wskaźnika jest indeks Hirsha, ale należy do niego podchodzić z największą ostrożnością. Uzmysławia nam to np. poniższe zestawienie:
Rzecz nie wymaga komentarza, ale być może warto wspomnieć, że Peter Higgs (ten od bozonu) legitymujący się wg. WoS 22 pracami i 5777 obcymi cytowaniami (średnio 263 cytowania na pracę !), dorobił się dość skromnego indeksu Hirsha (= 11). Tak więc zarówno w przypadku przeciętniaków jak i w przypadku jednostek wybitnych ten wskaźnik nie umożliwia właściwej oceny ich naukowego dorobku. Do tego wszystkiego dochodzi jeszcze to, że w niektórych bazach (np. WoS) indeks H wyliczany jest tylko z całkowitej liczby cytowań, a to umożliwia sprytnym i najbardziej produktywnym jednostkom (producentom makulatury) uzyskanie wysokiego wyniku dzięki obfitemu cytowaniu prac własnych. Znam kilka przypadków takiego windowania indeksu H do poziomu 15-16 pkt. (wg WoS) przy wyliczonym poniżej 5 na podstawie obcych cytowań.
Nie dziwi więc, że indeks Hirsha i WoS jako źródło tego wskaźnika mają u nas tak wielu zwolenników. Nasz kraj stał się bowiem po zadziałaniu poprzedniej reformy (która wykreowała szerokie rzesze punktowych stachanowców) jednym z największych producentów makulatury naukowej.
Zobaczymy, jakie narzędzie bibliometryczne śmietanka polskiej nauki wybierze teraz do oceny tzw. doskonałości naukowej ludzi i instytucji. To, że będzie ono niewłaściwe, nie ulega wątpliwości. Innymi słowy, wkrótce dowiemy się, jak ostra brzytwa dostanie się za jej sprawą do rąk ministerialnej małpy (mocno pobudzonej perspektywą zreformowania nauki). Perspektywa jatek, które wkrótce nastąpią może być ekscytująca nawet dla najbardziej wyrafinowanego sadysty. To, co urządza NCN (za pomocą równie wyrafinowanych narzędzi), stanowi jedynie przedsmak.

Brak komentarzy:
Prześlij komentarz