Obserwowany po 1989 r. rozwój nauki nie jest pozorny, dystans pomiędzy najprężniejszymi ośrodkami naukowymi na świecie a Warszawą i Krakowem zmniejsza się, chociaż bardzo powoli W numerze „Wprost” z 8 kwietnia 2007 r. ukazał się artykuł Zbigniewa Wojtasińskiego pt. „Naukopolo”, w którym autor próbuje zidentyfikować przyczyny słabości polskiej nauki, omawia trapiące ją bolączki, a na końcu proponuje środki zaradcze. Publicyści „Wprost” lubią zajmować się nauką, ale te ich zainteresowania można przyrównać do miłości grafomana do pisania prac literackich. Praktycznie wszystkie teksty dotyczące nauki, jej organizacji i oceny jakości prac naukowych wskazują na, delikatnie mówiąc, niedostateczną wiedzę autorów, przez co przedstawiane przez ten tygodnik klasyfikacje ośrodków naukowych, czyli tzw. rankingi, są na ogół opracowane w sposób niepoprawny metodologicznie. Artykuł Wojtasińskiego nie jest niestety wyjątkiem. Autor, chcąc „przytrzeć rogi” krnąbrnym naukowcom, rozpoczyna od stwierdzenia, że znaczenie polskiej nauki jest – i na przestrzeni lat było – przeceniane propagandowo. Tymczasem w rzeczywistości zarówno w PRL, jak i po 1989 r. polskich naukowców raczej dręczyły kompleksy w stosunku do krajów zachodnich. Nawet w PRL ukazywały się niezwykle krytyczne artykuły dotyczące poziomu i organizacji polskiej nauki. Pamiętamy, że na nas, bardzo młodych wtedy ludziach, ogromne wrażenie zrobił artykuł opublikowany w „Polityce”, chyba w 1975 r., pt. „Przepraszam tych, którzy naprawdę pracują”. Był to zjadliwy paszkwil piętnujący koterie, pozoranctwo naukowe środowiska, jego lenistwo i niechęć do zajmowania się zagadnieniami użytecznymi dla rozwoju gospodarki, wypisz, wymaluj tekst Wojtasińskiego. Wojtasiński wprowadza jednak czynnik nowy, zupełnie arbitralnie dzieli polskich naukowców na tych liczących się na świecie (chemicy, fizycy i biolodzy) i tych marnych, nieliczących się (ekonomiści, prawnicy, badacze kultury, filolodzy). Jest to gołosłowna teza, która nie może być poparta dowodami. Porównywanie przedstawicieli nauk humanistycznych jest znacznie trudniejsze niż naukowców zajmujących się naukami ścisłymi i przyrodniczymi i przypomina dyskusję czy Faulkner był lepszym pisarzem od Gombrowicza. Dlatego w dalszej części artykułu będziemy się zajmować opiniami autora na temat stanu nauk przyrodniczych i ścisłych. W czasach PRL polska nauka, chociaż dostrzegalna, nie miała wielkiego znaczenia w skali światowej. Wystarczy powiedzieć, że przed 1989 r. cała polska „produkcja naukowa”, mierzona liczbą publikacji w czasopismach klasyfikowanych przez Instytut Informacji Naukowej (ISI), była niższa niż produkcja Filadelfii – ośrodka naukowego o średniej wielkości i średniej reputacji w Stanach Zjednoczonych. Po przemianie ustrojowej Polska znacznie wyprzedziła Filadelfię. Wojtasiński pisze, że to „pozorny skok”, podając na dowód nieprawdziwe dane. Powołując się na Andrzeja Pilca, pisze bowiem, że w latach 1996-2005 ukazało się jedynie 230 publikacji polskich naukowców, które były cytowane więcej niż 40 razy, co według niego świadczy o całkowitej marginalizacji polskiej nauki. Zapomina jednak dodać, że statystyka Pilca dotyczy tylko nauk biomedycznych, a nie całości nauk przyrodniczych i ścisłych. Jako skrupulatni badacze sprawdziliśmy te dane w najlepszej wersji słynnej bazy danych Web of Science. Podana przez Wojtasińskiego liczba jest co najmniej ośmiokrotnie zaniżona. W rzeczywistości obserwowany po 1989 r. rozwój nauki nie jest pozorny, ale realny, a dystans pomiędzy najprężniejszymi ośrodkami naukowymi na świecie (Cambridge w Stanach Zjednoczonych i Cambridge w Wielkiej Brytanii) a Warszawą i Krakowem zmniejsza się, chociaż bardzo powoli. Zainteresowanych dokładnymi danymi na ten temat odsyłamy do naszego artykułu „Na salonach nauki”, który ukaże się w kwietniowym numerze „Forum Akademickiego”. Kolejną przyczyną lamentu Wojtasińskiego jest niska pozycja polskich uniwersytetów na tzw. liście szanghajskiej, klasyfikującej 500 najlepszych uniwersytetów na świecie. Listę tę należy właściwie interpretować, bo traktowana bezkrytycznie może prowadzić do zupełnie fałszywych wniosków. Po pierwsze jej autorzy porównują nieporównywalne, gdyż w różnych krajach uniwersytety mają różną strukturę. Trudno np. porównywać bardzo duży Uniwersytet Kalifornijski w Berkeley z paryską Ecole Supérieure de Physique et de Chimie Industrielles de la Ville de Paris, która ma tylko dwa małe wydziały – chemii i fizyki. Nie sposób więc wybrać jednolitych kryteriów, według których można by porównywać obiektywnie całe uniwersytety. Brak tu miejsca na szczegółową krytykę pięciu kryteriów oceny wybranych przez autorów listy szanghajskiej. Wystarczy powiedzieć, że ich dobór powoduje, iż dobre miejsce w rankingu mogą zająć