Zmarnowana szansa

W dyskusji na temat zmian proponowanych w ustawie o Polskiej Akademii Nauk padło już wiele ważkich argumentów, jednocześnie wydaje się, że niektóre dostatecznie nie wybrzmiały. Projektowana nowelizacja skupiła się na kwestiach kontroli i nadzoru, trzeba zaś zaakcentować, iż z punktu widzenia działalności instytutu naukowego PAN taka koncepcja reformy jest po prostu zmarnowaną szansą. Powinniśmy bowiem patrzeć nie tylko na to, co w przygotowywanym projekcie się znalazło, ale również na to, czego w nim nie ma. Podczas gdy podjęta została kwestia uprawnień władczych, w przypadku których nie ma jasnych przesłanek do wprowadzenia zmian, zupełnie pominięte zostały realne problemy bieżącego funkcjonowania i patologiczne rozwiązania instytucjonalne. Co więcej, reformę PAN należy widzieć nie tylko przez pryzmat zmian w samej ustawie, lecz biorąc pod uwagę całokształt aktów prawnych, regulujących działanie Akademii i jej jednostek. Do rozwiązania kilku kluczowych problemów nie jest potrzebna zgoda sejmowej większości i podpis Prezydenta, tylko zmiana ministerialnych rozporządzeń.

Zasadniczym kontekstem przygotowywanej reformy PAN pozostaje fakt pojawienia się w 2018 roku zupełnie nowych – napisanych od podstaw, kompleksowych regulacji dotyczących całego systemu nauki i szkolnictwa wyższego. Ustawa o PAN z 2010 roku została jedynie w technicznie niezbędnym zakresie dostosowana do nowego prawa, zaś jej dalszą nowelizację odłożono. Warto jednocześnie zauważyć, że akt z 2010 roku stanowił w swojej istocie nieznacznie zmienioną formę regulacji z lat 90‑ych. W międzyczasie uczelnie „wymyśliły się” na nowo, w szczególności uchwalając nowe statuty, niekiedy kompletnie zmieniając strukturę organizacyjną, uzyskały także dostęp do nowych programów wspierania doskonałości badawczej. Brak realnego, kompleksowego dostosowania regulacji dotyczących PAN do tej samej logiki nowego systemu nauki wydaje się jaskrawą wadą proponowanej reformy.

Zasadniczy problem instytutów naukowych PAN stanowi patologiczny w swojej istocie mechanizm ich finansowania. Polega on na podziale wyasygnowanej łącznie kwoty subwencji. Do podziału stosowany jest algorytm analogiczny do tego, za pomocą którego dzielona jest subwencja pomiędzy uniwersytety – opierający się na logice konkurencji jakością badań w ramach poszczególnych dyscyplin. W przypadku uczelni efekt jest jednak agregatem międzydziedzinowym, a pula środków wielokrotnie większa. Zastosowanie tego mechanizmu do instytutów PAN, które reprezentują przeważnie osobne pola naukowe i dyscypliny, skutkuje tym, iż jakość badań ma w procesie podziału znaczenie drugorzędne. W efekcie, jak to łatwo matematycznie pokazać, stosowanie tego algorytmu prowadzi do sytuacji gry o sumie zerowej, a potencjalnie (w długiej perspektywie) nawet do gry o sumie ujemnej. Kompromitujących efektów działania algorytmu dotychczas nie widzieliśmy ze względu na przejściowe „zawężenie tunelu” do wartości 100%-106%. Zgodnie z dzisiejszym stanem prawnym tunel ten wyniesie w przyszłym roku 95%-110%, co przy zapowiedzianym zwiększeniu łącznej subwencji dla IPAN o zaledwie 3,25% (35 mln) będzie oznaczało, że niektóre jednostki posiadające kategorię naukową A+ uzyskają nie tylko realnie, ale nawet nominalnie niższą subwencję niż rok wcześniej.

Często podnoszony w dyskusji nad kondycją PAN problem podziału dodatkowych 190 mln zł subwencji dla instytutów naukowych jest bezpośrednio powiązany z opisaną wyżej kwestią. Warto  zadać sobie pytane o to, dlaczego wpuszczenie tych pieniędzy w ministerialny algorytm zostało de facto uznane za niedorzeczne i szybko odrzucone na rzecz innych rozwiązań („równy kąt” i „według potrzeb płacowych”). Brak odpowiedniego mechanizmu finansowania generuje tarcia i konflikty nie z racji pieniaczej natury dyrektorów, ale ze względu na systemowe przeciwstawienie sobie ich interesów przez regulatora.

Drugim dobitnym przykładem jest sposób finansowania szkół doktorskich. Składnik doktorancki jest formalnie „zaszyty” w subwencji instytutu, który administruje szkołą. Ministerstwo nie jest jednak w stanie podać alokowanej na ten cel kwoty (algorytm jest iteracyjny), nie dając jednostkom prowadzącym wspólnie szkołę doktorską jednoznacznych podstaw do wzajemnych rozliczeń. Co więcej, jeśli przy rosnącej liczbie doktorantów jednostka administrująca szkołą na przestrzeni wielu lat otrzymuje subwencję w niezmienionej wysokości, problem finansowania stypendiów przestaje być zagadnieniem arytmetyki. Prowadzenie szkoły, mimo rosnącej wagi składnika doktoranckiego, pozostaje deficytowe, a jedyne logiczne rozwiązanie tego problemu to samodzielne prowadzenie szkoły przez jeden instytut (choć i wówczas może to być deficytowe). Nie może zatem dziwić, że UW prowadzi cztery szkoły, a instytuty PAN – ponad dwadzieścia. To jest efekt uzyskany przez ustawodawcę „by design”. Przykłady podobnych „wad konstrukcyjnych” i braku synergii (dostęp do baz, osobne licencje, wydawnictwa, biblioteki, brak jednolitej obsługi prawnej) można mnożyć. Łatwo też podać przykłady anachronicznego przeregulowania, jak w przypadku określonej ustawą siatki stanowisk, niekompatybilnej z kategoriami występującymi w rozporządzeniu o podziale środków, czy rozbieżności między ustawami w zakresie skutków oceny pracowniczej.

Można oczywiście udawać, że tych problemów nie ma i nadal debatować o tym jak nominat ministerialny w radzie wpłynie na jakość badań oraz czy możliwość odwołania kanclerza skłoni ministra do zwiększenia puli subwencyjnej dla PAN. Ale czy warto?


PS. Profesor Ewa Łętowska pisała niedawno słusznie, że reformę musi poprzedzać klarownie sformułowana wizja i strategia, w szczególności precyzyjnie sformułowane cele. Dopiero do tych celów dobiera się odpowiednie rozwiązania regulacyjne. Najpierw wypada więc zadeklarować, czym PAN i jego instytuty mają być w krajowym systemie nauki? Czy ma to być instytucja, która ma rywalizować o miejsce w pierwszej dwusetce światowych rankingów? Wedle wskaźników publikacyjnych jest to realna możliwość, ale wymaga głębszej zmiany formuły funkcjonowania. A może ma to być rodzima wersja Towarzystwa Maxa Plancka, z ambicjami tworzenia zespołów poziomu noblowskiego? Do tego trzeba by analogicznych nakładów jak w przypadku TMP, czyli circa dziesięciokrotnego zwiększenia finansowania, co wydaje się mniej realne. Instytucja o takich celach aktywnie pozyskuje do pracy najwybitniejszych uczonych, oferując wysokie wynagrodzenia. Tymczasem mamy do czynienia z ruchem odwrotnym. Spośród 10 grantów uzyskanych przez Polaków w ostatnim rozdaniu ERC, tylko dwa będą realizowane w krajowych instytucjach naukowych (zob. https://twitter.com/MartaKolcz/status/1832362358750036090). Swoją drogą – wbrew temu, że zwykle określa się to mianem „brain drain”, jest to w istocie „brain leak”.

Klasyfikacja dyscyplin – obosieczne narzędzie polityki naukowej

Klasyfikacja obszarów badań naukowych jest kwestią pewnej konwencji, która z kolei stanowi wypadkową m.in. struktury paradygmatów, instytucjonalnego izomorfizmu (kompatybilność z otoczeniem), społecznej akulturacji, w tym własnej tradycji, czy po prostu środowiskowych linii demarkacyjnych. Część dzisiejszych konwencji wywodzi się ze starożytności, inne okrzepły w XIX wieku, gdy następowała instytucjonalizacja edukacji na szczeblu wyższym. Od tej pory, zarówno w kontekście globalnym, jak i krajowym, sporo energii środowisk akademickich poświęcanej jest bądź to na obronę status quo, ugruntowanie własnej pozycji i obronę granic przed „intruzami” z innych pól wiedzy (co często wybrzmiewa dziś także np. w recenzjach NCN), bądź na instytucjonalnej pracy poświęconej delimitacji i umacnianiu nowego obszaru wiedzy.

Stanowi ona jednocześnie istotne narzędzie prowadzenia polityki naukowej w Polsce, które może być wykorzystywane z pożytkiem lub szkodą dla systemu instytucji i badań…

Zachęcam do lektury całego tekstu na ten temat, opublikowanego w Forum Akademickim:

Sondaże przedwyborcze i efekt peletonu

Poniżej przyglądam się pewnym tendencjom, które pojawiły się w ostatnich latach w sondażach przedwyborczych. Podstawowy wniosek, jaki można wysnuć, mówi, że wzrosła zbieżność predykcji sondażowych, ale spadła ich łączna jakość. Wydaje się, że można to wyjaśnić „efektem peletonu”.

Wyniki badań przedwyborczych przynoszą nam pewną wiedzę zarówno o wynikach nadchodzących wyborów, jak i o przemianach w sektorze badania opinii. Ten wpis jest głównie o tych drugich. Swoje obserwacje oparłem na traktowanych porównawczo sondażach przedwyborczych z lat 2011, 2015, 2019 i 2023 (dane znormalizowane1).

TL;DR: Ludzie nie zmieniają poglądów tak szybko, jak skaczą słupki – waga kampanii jest przeceniana; z wyników sondaży da się wyczytać jak zmienia się sama technologia tego fachu; sondaże „czytają” inne sondaże.

Zacznijmy od tego, że doszukiwanie się trendów w traktowanych łącznie sondażach w czterech ostatnich wyborach było głównie rzeźbieniem w szumie. Jeśli coś było widać, to systematyczne niedoszacowanie jednych komitetów i przeszacowanie innych – właśnie to pokazuje wykres powyżej. Są na nim odchylenia od wyniku wyborów. Tu i dalej konsekwentnie pomijam CBOS z powodów, które streszczam w przypisie2.

Od 2011 roku stabilnie przeszacowane były duże partie i „stare marki” (w 2011 SLD, w 2015 PO, a w 2019 PiS), a niedoszacowane – „nowe marki” o mniejszym poparciu (w 2011 Ruch Palikota, w 2015 Kukiz i .Nowoczesna, w 2019 Koalicja Polska i Konfederacja, a w 2023 Trzecia Droga). Są to względnie regularne prze- i niedoszacowania. Realnie nie było silnego klarownego „trendu” (patrz wykres powyżej).

Szeroko komentowane międzysondażowe „skoki” poparcia (zwykle ze wskazaniem „źródeł wzrostu/spadku” – co jest zawsze tak urocze) były przede wszystkim artefaktami. Owe artefakty miały najprawdopodobniej dwojakie źródło: sam błąd pomiaru, jak i strategię badawczą sondażowni. Pokażę to na liczbach, ale najpierw musicie przecierpieć akademickie przynudzania na temat wyliczania błędów losowych.

Przy wynikach sondaży podawany jest często „maksymalny błąd oszacowania”. Prawie zawsze (zawsze?) jest zwyczajnie niepoprawny, ponieważ ustala się go jedynie na podstawie liczebności próby. Jest on zaniżony, ponieważ nie uwzględnia paru rzeczy. Nie chodzi tu jedynie o błędy systematyczne, które mają wiele źródeł: brzmienie pytań, ich kolejność, korelacje odmów z poglądami itd. (nie będę brnął w ten wątek – te błędy są i tyle, trzeba mieć ich świadomość i starać się je minimalizować). Już sam błąd losowy jest większy niż podawany. Dzieje się tak, ponieważ wszystkie (prove me wrong!) ośrodki badawcze stosują kwotowanie lub wagi analityczne. W przypadku pierwszego w ogóle nie powinno się liczyć błędu jak przy SRS, w przypadku drugiego jest on wyraźnie większy (zmniejsza się effective sample size).

Tzw. „maksymalny błąd oszacowania” łatwo obalić patrząc na jego weryfikację wyborczą. Statystycznie tylko 5 oszacowań punktowych na 100 powinno odchylać się o więcej niż dwa błędy standardowe od wyniku PKW. W ciągu 10 dni przed wyborami w 2019 odchyleń tych było 44 na 85! (zaznaczone na czerwono w tabelce poniżej)

Tylko nie tłumaczcie tego „trendem”, proszę…

Oczywiście niektórzy pomylili się bardziej niż inni. Jednak żadna pracownia nie była stabilnym liderem predykcji na przestrzeni wielu lat – sukces nie jest więc replikowalny. Nie da się jednoznacznie wskazać „najlepszej kuchni”. Tej „kuchni” przede wszystkim praktycznie nie znamy. Publikowane notki zawierają jedynie informacje szczątkowe – nic tam nie ma o doborze respondentów, response rate, ważeniu, za mało jest o filtrowaniu. Trudno więc ocenić realne obciążenie poszczególnych wyników. Informacje metodologiczne traktowane są w znacznej mierze jak sekret korporacyjny, a nie sposób na budowanie społecznej wiarygodności. (Tym elementem powinny próbować się wyróżnić większe pracownie – zwłaszcza w kontekście tendencji o których napiszę dalej.)

Czy bez wiedzy insiderskiej da się coś powiedzieć o współczesnej „kuchni”? Wydaje mi się, że tak.

Tu wróćmy do ważenia. Można je przeprowadzić wg szeregu różnych kryteriów, np. cech społeczno-demograficznych, retrospektywnych deklaracji ws. wcześniejszych głosowań itp., a dokładny wybór sposobu ważenia i filtrowania jest zawsze w pewnym stopniu arbitralny. To powoduje, że nie mamy przeważnie do czynienia z „czystymi” sondażami (w sensie surowego rozkładu odpowiedzi), a z sondażowymi prognozami (dane przetworzone ekspercko). Co ważne – komponent arbitralny pozwala uwzględnić w nich dodatkowe informacje kontekstowe… w tym średnią wyników innych pracowni.

Update: Poniżej przedstawiam przeciętne odchylenie pojedynczego wyniku sondażu od ich łącznej średniej w miesiącu poprzedzającym wybory parlamentarne (tylko komitety „ponadprogowe”). Jak widać, od 12 lat rozrzut wyników systematycznie zmniejsza się.

Rosnąca zbieżność wyników sugeruje, że pracownie starają się lekko nawigować względem siebie, co jest decyzją względnie racjonalną biznesowo, zwłaszcza w przypadku ośrodków robiących tanie badania, świadomych słabości własnych danych. jest to po prostu optymalizacja jakości do kosztu z wykorzystaniem darmowego „surowca”. Większość sondaży zamawiają media, im zależy na klikalności/oglądalności, ale nie są w stanie zapłacić kilkuset tysięcy złotych w każdy weekend. Powstaje więc wiele sondaży względnie tanich, o niższych standardach, niż akademickie. Reprezentatywność tych sondaży jest względnie niska. Dostępne są jednak średnie z wielu sondaży, czyli ekwiwalent „powiększenia próbki”. Dlaczego nie skorzystać?

Jak wie każdy zawodowy kolarz, nie oglądanie się na resztę peletonu jest ryzykowne. Jazda z „peletonem” stanowi rodzaj ubezpieczenia. Większa zbieżność powoduje, że cały sektor sondażowy pospołu wygra lub przegra. Kto jest w stawce, ten może przynajmniej nie wypadnie z rynku. Co więcej, uwzględnianie wyników innych sondaży jest jak jechanie za plecami konkurenta – trochę lżej się pedałuje.

O ile „efekt peletonu” (tzw. herding) jest racjonalny z punktu widzenia przynajmniej części pracowni badawczych, to niekoniecznie jest on korzystny dla konsumentów sondaży. Większa spójność wyników tworzy pozór pewności prognozy. Gdyby nie wspomaganie zbieżności wyników (zwłaszcza większych partii), bardziej wiarygodna byłaby też średnia z wielu sondaży. Wykorzystywanie informacji kontekstowej dokłada bowiem nowe źródło błędu systematycznego. Wracając do metafory kolarskiej – często peleton wjeżdża na metę jako pierwszy, ale nie raz zdarza się, że oglądanie się na siebie nawzajem prowadzi do przesadnego obniżenia wspólnego tempa. Wówczas peleton przegrywa.

Źródło: wiktionary.org

Jakościowej korekty prognoz – jeśli nastąpi – można oczekiwać dopiero w ostatnim tygodniu przed wyborami, tuż przed klarowną weryfikacją jakości oszacowań. Wszelkie wcześniejsze odchylenia można tłumaczyć „trendami poparcia”, które są w zasadzie nieweryfikowalne.

„Korekta” na ostatniej prostej nie zawsze jest skuteczna (choć zakładam, że wszyscy dokładają wówczas większych starań), ale okazała się taka w 2015 roku. Tu jednak znajdujemy dodatkową przesłankę, aby sądzić, że trafne ważenie odgrywa bardzo dużą rolę w poprawnym szacowaniu wyników. W maju 2015 odbyły się wybory prezydenckie. Retrospektywne pytanie o sposób głosowania w maju były jesienią znacznie lepszą „kotwicą” kalibracji wag, niż gdy czyni się to w oparciu o deklarację głosowania cztery lata wcześniej. Po prostu fakt, że ktoś zadeklarował głosowanie na Dudę/Komorowskiego był znakomitym predyktorem głosowania w październiku. To dlatego udało się wówczas stworzyć lepsze oszacowania. W tygodniu przed tymi wyborami na 66 oszacowań punktowych (11 sondaży * 6 komitetów z > 5pp) powyżej błędu losowego znalazło się jedynie 15 (wciąż więcej niż oczekuje statystyka indukcyjna, ale porównajcie to z ponad połową przekroczeń w 2019!)

15 X poznamy nie tylko zwycięzcę wyborów, ale również zwycięzcę prognoz. Czy będzie to zwycięstwo wypracowane na podstawie finezyjnej metodologii, żelaznej dyscypliny i pełnej poświęceń pracy ankieterów? Mam nadzieję. Ale trudno będzie wykluczyć zwykły fart. Socjologia w zakresie prognoz rywalizuje raczej z meteorologią czy sejsmologią, a niż z astronomią. Z dwutygodniowym wyprzedzeniem bardzo trudno przewidzieć czy potrzebny będzie parasol.

Na koniec niezbędny jest DISCLAIMER: Nie oznacza to wcale, że sondaże i prognozy są bezwartościowe i że nic nie wiadomo. Przeciwnie, dzięki sondażom wiemy całkiem sporo i możemy być świadomymi wyborcami. Ale warto znać specyfikę tego „barometru” i brać na nią poprawkę.

PS. Wiadomo już, które sondaże okazały się najbliższe wynikom wyborów (przy czym można to mierzyć na kilka różnych sposobów):
https://x.com/spoleczenstwopl/status/1732776755264405598?s=20

Przypisy:

  1. Wyniki podawane przez poszczególne pracownie nie są bezpośrednio porównywalne, choćby ze względu na rozbieżne odsetki odpowiedzi „nie wiem”. Żeby zestawiać je między sobą i z PKW, powinny sumować się do 100. Właśnie temu służy normalizacja. Warto zauważyć, że czym wyższy odsetek odpowiedzi „nie wiem”, tym łatwiej jest później pracowni bronić się, że to właśnie w niej zaszyte były brakujące punkty procentowe. Skoro i tak stosowane są wagi, a niezdecydowani są dopytywani o poglądy, prognozy powinny to uwzględniać. ↩︎
  2. CBOS od dawna mierzy się z silnym house effect, którego jest świadom i którego mimo wszystko nie koryguje. Zachowuje natomiast względnie spójną metodologię, dość istotną z punktu widzenia śledzenia trendów – co jest pewną wartością tych badań (#reliablebiaspride). Powoduje to, że CBOSu nie należy traktować jak podmiotu z rynku sondaży przedwyborczych. Jego nadrzędnym celem nie jest prognoza wyniku PKW. Waży tylko na demografikach. Nie ma medialnych zleceniodawców, ale mecenasa, który (jak sądzę) za bardzo nie życzy sobie jakichkolwiek nowinek. ↩︎

Inflacja w nauce

W roku 2021 Minister Edukacji i Nauki trzykrotnie zmieniał zawartość wykazów czasopism naukowych. Wskutek tych zmian łączna liczba punktów przyznawanych za artykuły wzrosła w poszczególnych dyscyplinach tak, jak przedstawia to poniższy wykres. Wyższą punktację zyskały w szczególności krajowe czasopisma naukowe. Wprowadzone zmiany działały wstecz, zatem stanowiły nie tyle sygnał dla autorów, gdzie warto wysyłać teksty (zwiększając konkurencję), co rodzaj redystrybucji – zamianę porządku przyznawania kategorii naukowych (a wraz z nimi wysokość finansowania i uprawnienia do nadawania stopni naukowych) w samej końcówce okresu objętego oceną (2017-2021).

Kręta ścieżka kobiet ku STEM

Jakiś czas temu pisaliśmy o wynikach badań nad płacowymi konsekwencjami wyboru ścieżki edukacyjnej (a w konsekwencji zawodowej). Najlepiej płatna praca dotyczyła absolwentów kierunków inżynieryjnych i innych bezpośrednio związanych z matematyką. Przyjęło się określać je mianem sektora STEM (science, technology, engineering, mathematics), będącego filarem tzw. nowej gospodarki.

Pomimo zmian, jakie w ostatnich dekadach zachodzą w położeniu społecznym kobiet, niektóre obszary edukacji i rynku pracy, w tym właśnie STEM, nadal są wyraźnie zdominowane przez mężczyzn. W konsekwencji epoka społeczeństwa informacyjnego zastępuje jedne statusowe nierówności między płciami innymi. Tym razem przyczyną nie jest jednak formalne zamknięcie zawodów przed kobietami, ale w znacznej mierze ich własny wybór. Nasuwa to szereg pytań o proces selekcji do STEM – czy kształtuje ją w sposób ścisły różnica uzdolnień? Kiedy właściwie zapadają kluczowe, indywidualne decyzje o ścieżce kariery?

Przez długi czas sądzono, że przyczyną odmiennych ścieżek profesjonalnych była po prostu różnica umiejętności matematycznych. Tego obrazu nie potwierdzają jednak szczegółowe badania nad osiągnięciami szkolnymi. Polskie dziewczynki nie wypadają gorzej niż chłopcy w badaniach porównawczych, takich jak PISA. Ale wzory te można przeanalizować nie tylko w oparciu o dane wywołane (sztuczna sytuacja pomiarowa), ale również bezpośrednio w oparciu o dane egzaminacyjne – i to „test wysokiej stawki”, jakim jest matura. Na tych właśnie danych – wynikach egzaminów ponad ćwierć miliona maturzystów w każdym z analizowanych lat – oparliśmy swoje badanie, które zostały niedawno opublikowane w dwóch artykułach: Filtered out, but not by the skill: the gender gap in pursuing mathematics at a high-stakes exam (2019, Sex Roles) oraz The net effect of ability tilt in gendered STEM-related choices (2020, Intelligence). Wyniki streścił i opublikował m.in. portal Yahoo Finance, wypada przedstawić je w przystępnej formie również polskim odbiorcom.

Matura jest kluczowym progiem w karierze szkolnej, ponieważ decyduje o przejściu od edukacji o charakterze generalnym do edukacji o charakterze profesjonalnym. Siła wpływu wykształcenia wyższego objawia się zaś choćby w tym, jak rzadko spotkamy prawnika po studiach informatycznych i programistę po prawie. Generalnie rzecz biorąc – kluczowe, najwyżej płatne profesje obsadzane są na podstawie certyfikacji będącej pochodną wyboru i przebiegu studiów. W tej „linii produkcyjnej” nie mniej istotne jest to, że przepustką na określone studia jest właśnie matura.

Interesowało nas czy dziewczyny i chłopcy mają takie same szanse przystąpienia do rozszerzonej matury z matematyki. Mając poważne intencje studiowania na kierunkach związanych z matematyką, trudno nie zdecydować się na taki egzamin. Jego wynik jest po prostu wyżej punktowany w trakcie rekrutacji np. na większość kierunków Politechniki Warszawskiej. Ze względu na wysoką konkurencję na kierunki prowadzące do lukratywnej pracy w STEM, egzamin z tego przedmiotu można potraktować jako rodzaj „biletu wstępu”. A już na pewno jest on wskaźnikiem planów i aspiracji dotyczących dalszej kariery.

Co ciekawe, polska matura tworzy sytuację optymalną, niemal eksperymentalną do badania wpływu umiejętności na wybór ścieżki STEM. Jej elementem jest bowiem obowiązkowa matura podstawowa z matematyki. Różni się ona od rozszerzonej przede wszystkim zakresem programu i pozwala sprawdzić na ile poszczególni uczniowie byli w stanie przyswoić sobie „kanon” umiejętności matematycznych. Można zasadnie przyjąć, że umiejętności w zakresie kanonu podstawowego są w istocie predyktorem umiejętności matematycznych w ogóle. Czym lepiej uczeń zdaje maturę podstawową, tym lepiej – statystycznie rzecz biorąc – zdaje również rozszerzoną. Korelacja między tymi wynikami wynosi około 0,9, a więc jest niezwykle silna. Co więcej, pamiętajmy, że badanie nie dotyczy skrajów rozkładu talentów matematycznych, ale znacznie szerszej grupy. Bardzo znaczący zakres pracy w zawodach STEM opiera się na rozszerzeniu kilku umiejętności bazowych, a nie na przejawach „geniuszu matematycznego” przy rozwiązywaniu problemów rutynowo wpisanych w pracę (począwszy od organizacji produkcji, przez pisanie kodu, a skończywszy na analizie marketingowej).

Miryam Mirzakhani (źródło: YouTube)

Co pokazały nasze analizy? Zacznijmy od tego, że według danych z matur z ostatnich lat młodzi mężczyźni ponad dwukrotnie częściej przystępują do rozszerzonej matury z matematyki. Już sama ta różnica pozwala zrozumieć dysproporcję płci na kierunkach inżynieryjnych. Kobiety masowo „wypadają z gry” już na etapie szkoły średniej. Można by przypuszczać, że część tej różnicy objaśni odmienny poziom wyników z matematyki. Nic bardziej mylnego! Kiedy podda się statystycznej kontroli wynik z matury obowiązkowej – co oznacza, że model statystyczny czyni porównania pomiędzy osobami o tym samym poziomie umiejętności – luka między kobietami i mężczyznami staje się w istocie większa. Okazuje się, że wyższe umiejętności matematyczne nie zmniejszają dysproporcji w skłonności do wyboru ścieżki matematycznej. Brzmi nieco paradoksalnie, prawda?

Dlaczego jednak tak się właśnie dzieje? Co stoi za tym, że wzrost umiejętności nie zmniejsza luki w skłonności do pogoni za karierą w STEM? Dosłownej, bezpośredniej odpowiedzi nie znajdziemy w „suchych” wynikach z matury. Możemy w nich jednak znaleźć pewne istotne poszlaki. Otóż drugą rzeczą, której się przyjrzeliśmy, były wyniki maturalne z języka polskiego. To, że wysokie umiejętności humanistyczne (zwłaszcza kompetencje językowe) kierowały uczniów ku ścieżkom na studia humanistyczne i społeczne – nie jest specjalnym zaskoczeniem. Ale ważne jest to, że owe umiejętności „odciągają” kobiety znacznie silniej niż mężczyzn, a jednocześnie jest znacznie więcej kobiet, które łączą ponadprzeciętne zdolności matematyczne z ponadprzeciętnymi zdolnościami humanistycznymi. Tworzy to pewien paradoks. Jednym z powodów odpływu ze ścieżku ku STEM kobiet są względnie wysokie dodatkowe umiejętności i tym samym szerszy wachlarz opcji kariery. Ten większy wybór działa – to istota paradoksu – na niekorzyść kobiet.

Prawdopodobieństwo wyboru matematyki na maturze rozszerzonej (oś Y)
w zależności od wyniku z egzaminu obowiązkowego (oś X, wartości standaryzowane)

Pamiętajmy bowiem, że ludzie wybierają ścieżki edukacji i pracy nie tylko porównując się z innymi, ale także porównując się „wewnętrznie” – definiując swoje „słabe” i „mocne” strony. Cudzysłów stąd, że ta ocena nie zawsze jest rzetelna i obiektywna, często nie przystaje też do relacji ryzyka do względnych korzyści (w tym płacowych) z danego poziomu zdolności. Zauważmy, że ktoś o zupełnie przeciętnych umiejętnościach matematycznych, ale kompletnym braku innych uzdolnień – jeśli zdecyduje, aby rozpocząć studia – z dużym prawdopodobieństwem wybierze kierunek techniczny, inżynieryjny lub inny związany z matematyką. Wśród tych osób więcej jest z kolei mężczyzn.

Z instytucjonalnego punktu widzenia znaczenie odgrywa także względnie sztywny system edukacji profilowanej w liceach. Pamiętajmy, że wyboru ścieżki przedmiotowej formalnie dokonują absolwenci podstawówek. Jest to zatem względnie wczesna decyzja o dużej wadze. Wiedza o własnych uzdolnieniach i ich wartości na rynku pracy, a także plany kariery są w wieku 15 lat wciąż dość mgliste, zaś nie wszyscy rodzice są kompetentnymi doradcami edukacyjnymi. System szkolny powinien w procesie „sortowania” uczniów w większym stopniu brać to pod uwagę. Warto mieć na względzie m.in. fakt, że o nastawieniu do przedmiotu decyduje w dużej mierze nauczyciel w szkole podstawowej, a z punktu widzenia większości uczniów to, na jakiego trafiają, jest procesem losowym.

Oczywiście sprawa wyboru kariery jest bardzo złożona i wzięliśmy tu w nawias cały zestaw czynników kulturowych, subtelnych „szturchnięć” w procesie edukacji, stereotypów czy lęków związanych z wejściem do zmaskulinizowanego zawodu. Nie zmienia to faktu, że statystycznie rzecz biorąc, wiele kobiet, które spokojnie mogłoby trafić do pracy w sektorze STEM, „odpływa” do innych ścieżek ze względu na inną, bardziej wyrównaną charakterystykę profilu umiejętności. Ryzyko, że stracimy talent formatu Skłodowskiej jest statystycznie większe, niż to, że stracimy talent na miarę Polaka, mężczyzny, który zdobył Nobla w naukach ścisłych…

…jak mu tam było? 😉

Źródło: historia.org.pl

Impakt rozdziałów, czyli zbiorówki kontratakują

Jednym z elementów wdrażanej właśnie reformy nauki i szkolnictwa wyższego jest modyfikacja formuły oceny jednostek naukowych. Zmian szczegółowych jest sporo, jednak uwagę zwraca przede wszystkim fakt, że zmienia się wyraźnie sposób, w jaki brane będą pod uwagę: autorstwo monografii, redakcja monografii i autorstwo rozdziału w monografii. Przedstawione w sierpniu i wrześniu projekty rozporządzeń z jednej strony selektywnie przesuwają limity na te elementy dorobku naukowego, z drugiej – zmieniają skalę ich punktacji. Przeskakując od razu do konkluzji – zwłaszcza w naukach społecznych i humanistycznych może to się okazać ważny „game changer”. Tylko czy zmiana ta będzie na lepsze czy na gorsze?

Kiedy rozdział wchodzi za mocno…

Zacznijmy od tego, że projekty rozporządzeń proponują, by w ramach ocenianego dorobku autorstwo monografii zwartych oraz redakcje monografii zbiorowych stanowiły nie więcej niż 20% (w porównaniu do dotychczasowych 40%; w naukach przyrodniczych i większości pozostałych limit ma wynieść 5%, ale tam takie publikacje mają zwykle niewielkie znaczenie). Co istotne §7 pkt.13 projektu Rozporządzenia w sprawie ewaluacji… nie wspomina o rozdziałach, więc ich liczba w ankiecie parametryzacyjnej będzie limitowana jedynie zapisem w §7 pkt.7. W praktyce oznacza to, że rozdziały będę mogły stanowić do 2/3 całego dorobku w dyscyplinie.

Monografie mają zostać podzielone na trzy klasy według nieznanej na razie klasyfikacji wydawców. W omawianych tu dziedzinach za autorstwo będzie przyznawane 20, 80 albo 300 punktów, za redakcję 5, 20 albo 150, a za autorstwo rozdziału – 5, 20 albo 75. Jako, że na pierwsze dwa elementy obowiązuje dość niski limit, to trzeci okazać się może kluczowy. Przypomnijmy jednocześnie, że za autorstwo artykułów w czasopismach objętych ministerialnym programem „Wsparcie dla czasopism naukowych” (ma on objąć nie więcej niż 500 najlepszych) przyznawane będzie 20 punktów, natomiast za autorstwo artykułów w czasopiśmie znajdującym się w drugim kwartylu cytowalności (wg Scopusa) – 70 punktów. Sprawia to, że rozdziały w książkach należących do ministerialnych wykazów staną się „funkcjonalnym odpowiednikiem” dobrych krajowych i zagranicznych czasopism.

Dane

Co jednak wiemy o ich realnym naukowym wpływie? Czy wydawnictwa da się „impaktować” podobnie jak czasopisma? Zerknijmy w dostępne dane. Gotowy zbiór przygotował w ramach swojego projektu zespół dra Daniela Torres-Salinasa (zob. Torres-Salinas et al. 2013; 2014; także: projekt EC3Metrics). Są to wskaźniki stworzone w oparciu o dane na temat cytowalności książek z bazy Thomson Reuters. Dane dotyczą okresu 2009-2013 i zostały przygotowane na podstawie prawie pół miliona rekordów (publikacji). Kompletność i trafność informacji nt. książek w bazie Thomson Reuters była przedmiotem dość wszechstronnej krytyki (m.in. dominacja angielskiego, nierówna reprezentacja dyscyplin), jednak sama wielkość bazy czyni ją w jakimś stopniu reprezentatywną. W oparciu o te dane hiszpański zespół stworzył listę 254 wydawnictw naukowych i określił wartości średniej cytowalności. Jednak wiele z tych wydawnictw dotyczyła znikoma liczba publikacji, dlatego dokonałem dalszego filtrowania danych, pozostawiając jedynie te wydawnictwa, w przypadku których liczba pozycji w bazie była wyższa niż 350, a dyspersja ich cytowalności pozwalała wnioskować, że średnia cytowalność jest istotnie wyższa od zera. W efekcie na placu boju zostało 68 wydawnictw, od wielkich komercyjnych graczy jak Routledge, przez mniejsze jak Karger Publishing, po wydawnictwa uniwersyteckie. Z pewnością nie jest to lista aktualna i wyczerpująca, ale traktuję ją jako próbkę dostatecznie wiarygodną, aby powiedzieć coś na temat wzorów dotyczących cytowalności książek.

Dobry i zły pieniądz?

Punkty na przedstawionym niżej wykresie to wydawnictwa naukowe. Błękitne to wydawnictwa uniwersyteckie, a granatowe to pozostałe. Wielkość punktów jest proporcjonalna do liczby pozycji (monografii zwartych i rozdziałów) w zbiorze Torres-Salinasa et consortes. Jak widać, nie obserwujemy wyraźnego wzoru, który sugerowałby, że wydawnictwo, które wydaje ważne i szeroko cytowane książki naukowe, wydaje także bardzo dobre zbiorówki. Korelacja cytowalności dwóch typów publikacji wynosi zaledwie 0,08 (ilustruje to dodana na wykresie linia regresji). Co typowe dla tego typu danych, na lekkie nachylenie linii pracują głównie obserwacje odstające („lewary”). Największa przeciętna cytowalność książek osiągnęło Princton University Press, a jednak przeciętna cytowalność 5’608 rozdziałów w wydanych przez nich zbiorówkach to zaledwie 0,03. U komercyjnych gigantów też bywa bardzo różnie. Elsevier ma znacznie lepiej „widoczne” niż Springer książki, ale słabiej „widoczne” rozdziały. Z dwoma wyjątkami,  wydawnictwa cechują się też większą dyspersją cytowalności (SD), niż jej średnią wartością.

Cytowalność monografii i rozdziałów wg wydawnictw (opracowanie własne; źródło danych: Torres-Salinas et al. 2014)

Kluczowe jest być może to, że istnieje dramatyczna różnica między oddźwiękiem naukowym jaki mają książki, a tym, jaki mają rozdziały. Biorąc pod uwagę łączną liczbę kilkuset tysięcy pozycji uwzględnionych w bazie naukowców z Hiszpanii, do monografii odwoływano się przeciętnie 4,25 razy, a do rozdziału 0,22 razy (to dla wszystkich dyscyplin łącznie, w naukach społecznych i humanistycznych oba wskaźniki były niewątpliwie niższe). „Impakt” rozdziału był zatem przeciętnie prawie 20 razy mniejszy niż zwartej monografii.

Czy polska nauka zachoruje na nową odmianę punktozy?

Jeśli naukowa waga rozdziału jest 20 razy mniejsza niż monografii, to czy rozdziały będą również 20 razy mniej istotne w ocenie dorobku naukowego? Według proponowanych przez MNiSW regulacji za rozdział miałaby być przyznawana czterokrotnie niższa liczba punktów niż za monografię. Jednak realne znaczenie obu elementów wcale nie przedstawia się jak 1 do 4, przede wszystkim ze względu na wspomniane na wstępie limity. Skoro profil osiągnięć publikacyjnych może w odpowiednich okolicznościach wyglądać następująco: 20% książek zwartych (i redakcji), 47% rozdziałów, 33% artykułów, to dobrze punktowane rozdziały mogą się okazać kluczem do dobrego wyniku oceny. Warto także pamiętać, że „próg wejścia” do zagranicznych wydawnictw jest w przypadku rozdziałów znacznie niższy niż w przypadku zwartych książek (w analizowanych danych rozdziałów było 10 razy więcej niż książek). Łącznie ustawia to w pewnym stopniu „strategią wygrywającą” przyszłą parametryzację, choć wiele zależy jeszcze od tego, jak wyglądać będą wykazy KEN. W zależności od tego jak zostaną one sprofilowane, mogą bardziej lub mniej przypominać strukturę impaktów zastosowaną w przypadku artykułów w czasopismach.

ps. Wpis powstał w GESIS w Kolonii. Kiedy zapytałem niemieckich kolegów o rolę, jaką w ocenie dorobku przypisuje się w niemieckiej nauce rozdziałom w pracach zbiorowych, usłyszałem: (a) „Chapters? Nobody  cares about chapters!”; (b) „It doesn’t count, unless it’s either Oxford, Cambridge or one of the best US universities”. Takiej aktywności publikacyjnej nie uważa się za w pełni kompetytywną.

Jak dyplom wpływa na dochód?

Istnieją różne motywacje kontynuowania nauki na studiach wyższych, ale perspektywa podwyższenia dochodu jest z pewnością jedną z ważniejszych. Od kilku lat, dzięki programowi MNiSW Ekonomiczne Losy Absolwentów (ELA) mamy możliwość śledzenia tego, jak młodzi ludzie radzą sobie na rynku pracy po uzyskaniu dyplomu. Na tle innych badań dochodów, wyniki zawarte w zbiorze danych ELA są wyjątkowe, ponieważ pochodzą z rejestrów ZUS, a nie z badań sondażowych. Charakteryzują się więc znacznie większą dokładnością i pokryciem całej populacji. ELA zawiera kilkanaście wskaźników charakteryzujących aktywność zawodową po ukończeniu poszczególnych kierunków studiów, ale nas interesować tu będzie mediana dochodu uzyskiwanego rok po ukończeniu studiów. Z jednej strony okres 12 miesięcy to stosunkowo mało, aby absolwent ustabilizował swoją sytuację zawodową, ale z drugiej uchwycenie dochodu w tym właśnie momencie pokazuje położenie na rynku pracy, będące bezpośrednim następstwem studiów oraz – co wiemy z innych badań – jest wyraźnie skorelowane z dochodem uzyskiwanym w późniejszych etapach kariery. Dane analizowane poniżej dotyczą absolwentów z 2015 roku.

Co pokazują wykresy?

Na poniższym wykresie prezentujemy fragment tego zróżnicowania. Skupiliśmy się na najpowszechniej dostępnych kierunkach studiów oraz uczelniach z głównych ośrodków akademickich (w istocie z miast wojewódzkich oraz dodatkowo z Gliwic i Częstochowy). Ograniczyliśmy się też do absolwentów studiów dziennych drugiego stopnia lub jednolitych. Wszystko to miało na celu większe wystandaryzowanie (porównywalność) rezultatów.

Wartości przedstawione na wykresie pochodzą z prostego modelu regresji i pokazują o ile dochód jest większy (wartości z plusem) lub mniejszy (z minusem) od wartości referencyjnej. Tę ostatnią stanowił poziom dochodu uzyskiwany rok po zakończeniu dowolnych innych studiów drugiego stopnia (czyli kierunków innych niż, te wymienione na wykresie – w praktyce chodzi o kierunki rzadziej obecne na uczelniach). Wartość ta wynosi 2.442 zł brutto (mediana dochodu ze wszystkich źródeł). Nie wchodząc w statystyczne szczegóły trzeba dodać, że to są wartości uzyskane przy kontroli ośrodka akademickiego (więc niejako niezależne od premii za konkretną uczelnię i lokalizację miejsca pierwszej pracy).

Wykres 1. Przeciętna premia dochodowa za ukończenie kierunku

Zarabiać jak filolog ugrofiński

Pierwszą obserwacją płynącą z danych ELA jest ogromne zróżnicowanie dochodów absolwentów poszczególnych kierunków. Nie jest zaskoczeniem to, że w czołówce rankingu kierunków uporządkowanych pod względem medianowego dochodu znajdują się absolwenci nauk technicznych: informatycy, absolwenci kierunku automatyka i robotyka, czy mechanika i budowa maszyn. Zaskakuje raczej to, że tuż za nimi plasują się absolwenci (w zasadzie głównie absolwentki) pielęgniarstwa – znacznie wyżej niż kierunku lekarskiego, choć nie jest to porównanie w pełni rzetelne (wejście w zawód lekarski poprzedzone jest stażem i rezydenturą). Wysokie medianowe zarobki uzyskiwane tuż po studiach w zawodach związanych ze wspomnianymi kierunkami wiążą się z dużym bieżącym popytem na takie kwalifikacje. Gdybyśmy przyjrzeli się szczegółowo również pozostałym, rzadziej pojawiającym się w ofercie uczelni kierunkom, to znajdziemy wśród nich również inne, których absolwenci już na staracie kariery zarabiają przeciętnie ponad 5.000 zł (np. telekomunikacja, metody ilościowe w ekonomii). Rynek hojnie wynagradza również rzadkie, wąskie specjalizacje humanistyczne, takie jak niektóre filologie (ugrofińska na UW daje rok po jej zakończeniu przeciętnie 5.371 zł).

Dolna część wykresu zawiera głównie kierunki, które można określić jako „para-akademickie” czy „zawodowe”, np. kosmetologia, turystyka i rekreacja, fizjoterapia. Prowadzą one przeważnie do pracy w sektorze usług osobistych, która nie wiąże się z tak wysokimi zarobkami jak w zawodach specjalistycznych. Obok nich pojawiają się kierunki społeczne i humanistyczne, które z kolei oferują wiedzę mniej sprofilowaną zawodowo. Choćby z tej racji wejście na rynek pracy jest dla ich absolwentów względnie trudniejsze (zwłaszcza w wymiarze dochodu). Dodatkowo wiele z tych kierunków ma charakter masowy, więc wytwarzają dużą podaż przy względnie niskim popycie. Dane ELA pokazują również, że odsetek absolwentów, którzy mieli za sobą doświadczenie bezrobocia w rok po zyskaniu dyplomu w dużej mierze oddaje to, co widać na wykresie 1. Ci, który nie wpadli w bezrobocie, znaleźli zatrudnienie poniżej kwalifikacji. Czas spędzony na rynku pracy będzie zapewne działał na ich korzyść, jednak dodatkowe doświadczenie nie zamknie obserwowanej luki płacowej.

Nie tylko kierunek, ale także miasto

Wybór kierunku studiów silnie wpływa na dochód, ale siła dyplomu różni się również pomiędzy ośrodkami akademickimi. Również te zróżnicowania są spore i potwierdzają to, co o nierównościach dochodowych w Polsce wiadomo od dawna (wykres 2. – ze statystyczną kontrolą kierunków). Siła „nabywcza” dyplomów jest największa w przypadku politechnik i uniwersytetów w dużych miastach – Warszawie, Gdańsku, Krakowie czy Wrocławiu. Przeciętny dochód absolwenta spada wraz z peryferyjnością uczelni. Absolwenci uczelni kieleckich, białostockich, czy rzeszowskich zarabiają (po tych samych kierunkach) kilkaset złotych mniej, niż studenci z dyplomem uzyskanym w dużych warszawskich uczelniach. Na przykład absolwent informatyki w Warszawie dostanie przeciętnie 5.800 zł brutto, a z Białegostoku 4.500 zł. Nie ma wątpliwości, że za różnice te odpowiada nie tylko jakość edukacji, ale również specyfika lokalnych rynków pracy. Relacja pomiędzy studiami a pracą nie sprowadza się jedynie do faktu, że absolwenci uczelni w mieście A najczęściej podejmują pracę w mieście A. Znaczenie mogą mieć również takie czynniki jak rozeznanie w ofertach pracy, czy doświadczenia zawodowe zdobyte jeszcze w czasie nauki (np. staże). Gdybyśmy chcieli rzetelnie orzekać o różnicy kompetencji stojącej za dyplomami tego samego kierunku w różnych ośrodkach, powinniśmy porównywać osoby, które znalazły się na jakimś „trzecim”, zewnętrznym rynku pracy (np. za granicą).

Wykres 2. Miasta akademickie wg przeciętnej premii dochodowej absolwentów

Podsumowując

ELA dostarcza niezwykle cennych informacji na temat położenia absolwentów i wiedzę tę można wykorzystać do reformowania niektórych polityk publicznych. Wydaje się, że szczególna troska powinna być skierowania do humanistów i absolwentów nauk społecznych. Zapotrzebowanie na nich niewątpliwie istnieje, ale (a) jest w niektórych „tradycyjnych” specjalnościach mniejsze niż podaż, (b) wymaga nieco innych kompetencji, niż te obecnie oferowane. Nie chodzi  o zamienienie uniwersytetów w szkoły zawodowe, ale o to, aby studia humanistyczne i społeczne nie kształtowały absolwenta zgodnie z kanonami akademickimi sprzed 20 czy 30 lat. Biegłość w językach obcych, obeznanie z technologiami informatycznymi, podstawy programowania, kompetencje organizacyjne – to są rzeczy niezbędne do dobrego odnalezienia się na współczesnym rynku pracy.

Infografika „Społeczeństwo obywatelskie czy koalicja politycznych plemion?”

Czy polskie społeczeństwo jest koalicją zwaśnionych plemion czy raczej deliberującą wspólnotą obywatelską? Odpowiedzi na to pytanie szukaliśmy, tworząc wspólnie z Kubą Wysmułkiem infografikę, która podsumowuje wybrane wyniki kończącego się właśnie projektu „Ludzie w sieciach” (realizowany w ISP PAN ze środków NCN).

(kilknij, aby zobaczyć w pełnej rozdzielczości)

„Ludzie w sieciach”

Dwa demograficzne mity

The Economist opublikował niedawno daily chart, którego tytuł w kontekście panujących nastrojów społecznych brzmi jak prowokacja: Why Europe needs more migrants. Każdy kto zna „Ekonomistę” wie jednak, że to pismo reprezentujące trzeźwy, ekonomiczny racjonalizm w opozycji do wszelkich ideologicznych idiosynkrazji, więc jeśli prowokuje, to przede wszystkim do myślenia.

Choć o sytuacji demograficznej już pisaliśmy, i to dosyć obszernie, na moment wracam więc do tego tematu. Trudno oprzeć się bowiem wrażeniu, że ktokolwiek się nim zajmuje w debacie publicznej – od rządzących po Make Life Harder – myślenie to jest obciążone: (a) fiksacją na dzietności, (b) marginalizacją ekonomicznej roli imigracji. Zrekapituluję krótko te dwa błędne mniemania.

„Mit dzietności” zakłada, że (1) wyższa dzietność może samodzielnie rozwiązać problemy demograficzne współczesnej Polski, a także, że (2) zapewnienie zastępowalności pokoleniowej jest dziś w Polsce realne. Aby najprościej wyjaśnić na czym polega mylność tych przekonań zacznijmy od możliwie najprostszej ilustracji – sztafety pokoleń. Na wykresie poniżej przedstawione zostały liczebności 10-letnich kohort wiekowych współczesnych Polek (dane GUS z VI 2017). Ograniczymy się do kobiet, ponieważ to właśnie ich bezpośrednio dotyczą statystyki dzietności. Przeciętny wiek urodzenia dziecka to obecnie 29 lat. Przyjmując kilka interpretacyjnych uproszczeń możemy więc spojrzeć na te kohorty jako na sekwencję grup matek i córek oddzielonych od siebie interwałem 30 lat. Takiej interpretacji można postawić szereg słusznych zastrzeżeń1, ale mimo wszystko będzie to wystarczające przybliżenie realnych prawidłowości.

Wielkość kohort demograficznych w populacji współczesnych Polek (stan na 30 VI 2017 wg GUS)

Do oznaczenia na wykresie poszczególnych „sztafet pokoleniowych” użyłem osobnych palet kolorystycznych. Kobiety w wieku 60-69 lat to „kohorta matek” dla kobiet w wieku 30-39 lat, te z kolei to „statystyczne matki” dziewczynek w wieku 0-9 lat. Analogiczną relację możemy zdefiniować dla dzisiejszych pięćdziesięcio- i dwudziestolatek, a także dla czterdziesto- i nastolatek.

Co widzimy na wykresie? Jeśli porównamy kohortę 60-69 z ich „córkami”, to widać, że kobiety urodzone tuż po II wojnie światowej wydały na świat przeciętnie więcej niż jedną córkę. Nie zmienia tego nawet wzięcie pod uwagę rosnącej śmiertelności kobiet po 50-tce – owe „ubytki” skompensowane są szarą „czapką” na dwóch ostatnich słupkach (śmiertelność młodszych kobiet jest niska, została więc pominięta). Dla kolejnych grup wiekowych ta tendencja wyraźnie się zmienia. Córki kobiet w wieku 50-59 lat, czyli dzisiejsze 20-latki, są mniej liczne niż ich matki. Dramatyczny spadek zaczyna się jednak dopiero w kolejnych grupach. Sukcesję ponad 3 milionom dzisiejszych 30-latek zapewnia zaledwie 2 miliony dziewczynek poniżej 10 roku życia.

Co z tego wynika? Po pierwsze trzeba rozumieć, że żaden ze słupków nie powiększy się już samym ruchem naturalnym. Dzisiejsza kohorta nastolatek nie zrobi się większa niż 2 miliony. Niezależnie więc od wskaźnika liczby urodzeń, nie zwiększy się liczba przyszłych matek. Nawet gdyby trend niskiej dzietności został kompletnie zatrzymany, nie ma powrotu do liczebności Polek z wyżu lat 1980-ych.

Ale czy ten trend można zatrzymać? Współczynnik dzietności (przeciętna liczba dzieci przypadających na kobietę w wieku rozrodczym) wynosi w Polsce niewiele ponad 1,3 (czyli statystycznie każda matka ma ok. 2/3 córki). To bardzo mało, ale w Europie jedynie dwa kraje balansują na poziomie odtwarzalności pokoleń, czyli mają ten współczynnik na poziomie około 2, są to Francja i Irlandia. Przypomnijmy jednak – jest to poziom odtwarzalności, a nie przyrostu, więc dylemat dotyczy samego utrzymania liczebności tych najmniej licznych kohort (sic!). Co więcej, takiej energii w płodzeniu dzieci nie obserwujemy nigdzie na wschód od Renu, a my wypadamy pod tym względem blado nawet na tle samych sąsiadów (zob. interaktywny wykres na Google).

Aby osiągnąć przeciętną dzietność na poziomie 2 – której Polska w ogóle nie notowała od 1991 roku – kobiety musiałyby rodzić w wyraźnie młodszym wieku i w związku z tym masowo rezygnować z innych życiowych planów. Nie chodzi nawet o realizację marzeń o karierze na szczytach władzy i bogactwa, czy o podróży dookoła świata, ale o rzeczy znacznie bardziej rudymentarne, takie jak studia. Przypomnijmy, że współczynnik skolaryzacji brutto na poziomie szkolnictwa wyższego wynosił na początku lat 1990-ych niewiele ponad 10%, ale w 2010 roku przekroczył 50%. Już sama masowość studiów wyższych przesuwa większość decyzji prokreacyjnych na okres po 25. roku życia. Do pewnych rzeczy po prostu nie ma powrotu, chyba, że w scenariuszu Handmaid’s Tale.

Warto także pamiętać, że programy child benefit, analogiczne do 500+, posiada większość państw europejskich, więc ze względu na konwergencję tak instytucji, jak stylów życia względnie bezpieczne wydaje się założenie, że dzietność w Polsce może w nadchodzących latach wzrosnąć, ale co najwyżej do poziomu 1,5-2,0. W najbardziej optymistycznym z tych scenariuszy (i biorąc na razie w nawias migracje) za 40 lat wykres „sztafety matek i córek” wyglądałby mniej więcej tak jak na wykresie poniżej2. Czarne obrysy oddają wielkość kohort z pierwszego wykresu, czyli tych dzisiejszych. Globalnie oznacza to spadek populacji o około 28% (przypomnijmy – to wersja optymistyczna!). Ale – i to jest szczególnie uderzające – w wersji „pesymistycznej” (czyli przy współczynniku dzietności na obecnym poziomie 1,3), sprawa przedstawia się w zasadzie niewiele gorzej – spadek wyniesie 33%. Jak widać optymizm i pesymizm w sprawie dzietności niewiele się różnią – konik i tak już uciekł. Wyższy współczynnik urodzeń w ogólnym rozrachunku może nieco poprawić sytuację demograficzną, ale fiksowanie się na dzietności jako rozwiązaniu problemu starzenia się społeczeństwa jest nieracjonalne.

„Sztafeta demograficzna” z poprzedniego wykresu za 40 lat przy założeniu o rosnącej dzietności.

Przejdźmy zatem do kwestii imigracji. W dobie kryzysu migracyjnego jest to sprawa drażliwa, ponieważ została spleciona z gorącymi wątkami politycznymi, w tym z lękami o bezpieczeństwo i tożsamość. Jednak niezależnie od towarzyszących jej emocji warto patrzeć na nią trzeźwo – system emerytalny potrzebuje czynnych zawodowo, a rozwijająca się gospodarka – rąk do pracy. Jest jasne, że firmy będą poszukiwały pracowników nawet jeśli rodzima podaż się wyczerpie. Presja popytu na pracownika odczuwana jest na razie głównie w postaci rekordowo niskiego poziomu bezrobocia, ale gospodarka już od dawna „zasysa” też pracowników z zagranicy.

Kwestię emigracji i imigracji zarobkowej, jak wszystkie inne zjawiska ekonomiczne, wypada rozpatrywać w kategoriach podaży i popytu. Patrząc na dane GUS dotyczące ruchów ludnościowych do i z Polski widzimy, że wciąż więcej osób wyjeżdża, niż przyjeżdża. Poniższy wykres pokazuje migracje na stałe, czyli (wg GUS) na co najmniej 12 miesięcy. Czarna ramka pokazuje ubytki ludnościowe, zaś czerwone wypełnienie – stopień ich bieżącego uzupełniania przez przybyszy z zagranicy. Są to jedynie przybliżenia i nie uwzględniają wszystkich rodzajów przepływów ludnościowych (o tym za chwilę), jednak ta wystandaryzowana miara daje pewne pojęcie o atrakcyjności migracyjnej naszego kraju. W ostatnich latach wciąż więcej ludzi długotrwale opuszczało Polskę, niż do niej na stałe przybywało, choć widać jednocześnie trend zmniejszania się tej różnicy. W odróżnieniu od kwestii przyrostu naturalnego, tu państwo ma realny i dużo bardziej znaczący wpływ na konsekwencje demograficzne – oznacza to, że w odróżnieniu od wykresu ilustrującego odtwarzalność pokoleniową, tu dużo trudniej przewidzieć dalszy trend bez wiedzy o konkretnych decyzjach politycznych. Jednak ze względu na wspomniane kwestie popytowo-podażowe, instytucjonalny wpływ na bilans migracyjny również nie jest nieograniczony.

Stosunek emigracji (czarna ramka) do imigracji (czerwone wypełnienie), dane GUS.

Tu dochodzimy do mitu nr 2. Jest nim przekonanie, że polityka imigracyjna może sprowadzać się do zamknięcia drzwi na osoby spoza Unii Europejskiej (czy szerzej rozumianego Zachodu). Jest tak, ponieważ Polska wraz z Chorwacją, Rumunią i Bułgarią zamyka stawkę, jeśli idzie o poziom życia szeroko rozumianego Zachodu. Sami imigranci również dokonują wyborów, więc obie strony potrafią być swoiście „wybredne”. Jedynie kraje najbardziej zamożne, takie jak Wielka Brytania, USA czy Niemcy mogą regulować napływ imigrantów jedynie przez selekcję negatywną.

Jedna z lansowanych obecnie koncepcji zakłada, że imigrację można skutecznie zastąpić reemigracją i repatriacją, a liczba emigrantów z Polski i osób polskiego pochodzenia jest do tego wystarczająca. Jednak największe zagraniczne społeczności polskie są na Zachodzie (dwa największe ośrodki to USA i Niemcy), więc jest to równoznaczne z oczekiwaniem porzucenia przez ludzi lepiej płatnej pracy i lepszych perspektyw życiowych, jakie oferują im te kraje. Na wschód od Polski największym ośrodkiem jest natomiast Białoruś, ale zamieszkuje tam ok. 300 tys. osób deklarujących polskie pochodzenie, więc nawet przyciągnięcie całej mniejszości polskiej z terenu byłego ZSRR – biorąc w nawias realne możliwości i koszty – miałaby marginalne skutki ekonomiczne (dodajmy, że w okresie 1997-2016 Polska wydała 5908 formalnych wiz repatriacyjnych). Być może niektórzy dopatrują się także szansy w negatywnym rezultacie negocjacji dotyczących Brexitu. Zostawmy jednak różnego rodzaju złudzenia i przyjrzyjmy się faktom.

Realnie rzecz biorąc, doraźne rozwiązanie braku dodatkowych rąk do pracy trafiło się Polsce wyjątkowym zbiegiem okoliczności. To czego nie widzimy na powyższym wykresie to liczna rzesza pracowników przyjeżdżających na krótki okres. Liczbę formalnie wydanych nowych zezwoleń na pracę ilustruje kolejny wykres (poniżej), a trzeba mieć na względzie, że jest ona dużo niższa niż realna liczba pracujących w Polsce Ukraińców3. Począwszy przynajmniej od 2014 roku napływ siły roboczej do Polski jest zatem realnie większy niż odpływ, ponieważ podaż pracy skutecznie „suplementowana” jest masowymi przyjazdami krótkookresowymi z Ukrainy (ponad 80%). Warto w tym kontekście postawić pytanie: kto zastąpiłby tych pracowników, gdyby na Ukrainie panował pokój i kwitła gospodarka?

Liczba cudzoziemców (w tys.), którzy otrzymali pozwolenie na pracę w Polsce, dane GUS.

Dla kogo, poza mieszkańcami pogrążonej w kryzysie i wojnie domowej Ukrainy, Polska jest dziś atrakcyjnym kierunkiem emigracji? Kraje, z których napływ ludzi w ostatnich pięciu latach nasilał się i wynosił więcej niż 1500 osób to: Białoruś, Mołdawia oraz Indie. Wyraźnie osłabł natomiast napływ z Chin (prawie sześciokrotnie w ostatnich 6 latach). Wydaje się jasne, że różnica stopnia rozwoju między krajami musi być wystarczająca, by łączny, relatywny koszt emigracji (w tym ten psychologiczny) był mniejszy niż względne korzyści potencjalnego imigranta. Białoruś ma niższe niż Polska PKB per capita (również to liczone w sile nabywczej), ale leży blisko, więc bezpiecznie można założyć, że wszystkie kraje lepiej od niej rozwinięte nie staną się źródłem napływu pracowników do Polski. Na tej zasadzie możemy bezspornie wykluczyć kraje takie jak Gabon, Meksyk czy Iran. Do tej grupy należy też zapewne Botswana, Tajlandia, Chiny, Brazylia czy Algieria. Jednocześnie mieszkańcy krajów bardziej oddalonych od Polski geograficznie i kulturowo niż Ukraina i Białoruś, ponoszą niewątpliwie znacznie większe koszty takiej migracji.

Jeśli w Polsce istnieją silne idiosynkrazje dotyczące kierunków migracji i możliwości integracji cudzoziemców (a debata publiczna jasno wskazuje, że tak jest), warto postawić klarowne pytanie o to, jak owe preferencje przekładają się na konkretne polityki publiczne. A może liczymy jedynie na kryzysy w nieodległym otoczeniu międzynarodowym?


1. Mediana wieku urodzeń stale zmienia się (rośnie), a jej wariancja jest oczywiście spora, więc część dziewczynek z grupy 0-9 jest w istocie córkami kobiet należących do kohorty 10-19, a inna część – kohorty 50-59. Jednak takie „przesunięcia” i nieregularności dotyczą wszystkich kohort, więc ich efekty w większości znoszą się. Zatem choć nie mamy tu substancjalnie trafnego opisu rzeczywistości, to oddaje on faktycznie wpisane w nią trendy.

2. Zakładam tu stopniowe, liniowe dochodzenie dzietności do poziomu 2.0.

3. Pozwolenia są przedłużane na podstawie oświadczenia pracodawcy, a tych wg UDSC było w 2016 roku 1,26 mln – ta liczba może być z kolei zawyżona w stosunku do realnie pracujących. ZUS podaje liczbę 270 tys. zarejestrowanych Ukraińców.