Archiwum kategorii: Instytucje

Sondaże przedwyborcze i efekt peletonu

Poniżej przyglądam się pewnym tendencjom, które pojawiły się w ostatnich latach w sondażach przedwyborczych. Podstawowy wniosek, jaki można wysnuć, mówi, że wzrosła zbieżność predykcji sondażowych, ale spadła ich łączna jakość. Wydaje się, że można to wyjaśnić „efektem peletonu”.

Wyniki badań przedwyborczych przynoszą nam pewną wiedzę zarówno o wynikach nadchodzących wyborów, jak i o przemianach w sektorze badania opinii. Ten wpis jest głównie o tych drugich. Swoje obserwacje oparłem na traktowanych porównawczo sondażach przedwyborczych z lat 2011, 2015, 2019 i 2023 (dane znormalizowane1).

TL;DR: Ludzie nie zmieniają poglądów tak szybko, jak skaczą słupki – waga kampanii jest przeceniana; z wyników sondaży da się wyczytać jak zmienia się sama technologia tego fachu; sondaże „czytają” inne sondaże.

Zacznijmy od tego, że doszukiwanie się trendów w traktowanych łącznie sondażach w czterech ostatnich wyborach było głównie rzeźbieniem w szumie. Jeśli coś było widać, to systematyczne niedoszacowanie jednych komitetów i przeszacowanie innych – właśnie to pokazuje wykres powyżej. Są na nim odchylenia od wyniku wyborów. Tu i dalej konsekwentnie pomijam CBOS z powodów, które streszczam w przypisie2.

Od 2011 roku stabilnie przeszacowane były duże partie i „stare marki” (w 2011 SLD, w 2015 PO, a w 2019 PiS), a niedoszacowane – „nowe marki” o mniejszym poparciu (w 2011 Ruch Palikota, w 2015 Kukiz i .Nowoczesna, w 2019 Koalicja Polska i Konfederacja, a w 2023 Trzecia Droga). Są to względnie regularne prze- i niedoszacowania. Realnie nie było silnego klarownego „trendu” (patrz wykres powyżej).

Szeroko komentowane międzysondażowe „skoki” poparcia (zwykle ze wskazaniem „źródeł wzrostu/spadku” – co jest zawsze tak urocze) były przede wszystkim artefaktami. Owe artefakty miały najprawdopodobniej dwojakie źródło: sam błąd pomiaru, jak i strategię badawczą sondażowni. Pokażę to na liczbach, ale najpierw musicie przecierpieć akademickie przynudzania na temat wyliczania błędów losowych.

Przy wynikach sondaży podawany jest często „maksymalny błąd oszacowania”. Prawie zawsze (zawsze?) jest zwyczajnie niepoprawny, ponieważ ustala się go jedynie na podstawie liczebności próby. Jest on zaniżony, ponieważ nie uwzględnia paru rzeczy. Nie chodzi tu jedynie o błędy systematyczne, które mają wiele źródeł: brzmienie pytań, ich kolejność, korelacje odmów z poglądami itd. (nie będę brnął w ten wątek – te błędy są i tyle, trzeba mieć ich świadomość i starać się je minimalizować). Już sam błąd losowy jest większy niż podawany. Dzieje się tak, ponieważ wszystkie (prove me wrong!) ośrodki badawcze stosują kwotowanie lub wagi analityczne. W przypadku pierwszego w ogóle nie powinno się liczyć błędu jak przy SRS, w przypadku drugiego jest on wyraźnie większy (zmniejsza się effective sample size).

Tzw. „maksymalny błąd oszacowania” łatwo obalić patrząc na jego weryfikację wyborczą. Statystycznie tylko 5 oszacowań punktowych na 100 powinno odchylać się o więcej niż dwa błędy standardowe od wyniku PKW. W ciągu 10 dni przed wyborami w 2019 odchyleń tych było 44 na 85! (zaznaczone na czerwono w tabelce poniżej)

Tylko nie tłumaczcie tego „trendem”, proszę…

Oczywiście niektórzy pomylili się bardziej niż inni. Jednak żadna pracownia nie była stabilnym liderem predykcji na przestrzeni wielu lat – sukces nie jest więc replikowalny. Nie da się jednoznacznie wskazać „najlepszej kuchni”. Tej „kuchni” przede wszystkim praktycznie nie znamy. Publikowane notki zawierają jedynie informacje szczątkowe – nic tam nie ma o doborze respondentów, response rate, ważeniu, za mało jest o filtrowaniu. Trudno więc ocenić realne obciążenie poszczególnych wyników. Informacje metodologiczne traktowane są w znacznej mierze jak sekret korporacyjny, a nie sposób na budowanie społecznej wiarygodności. (Tym elementem powinny próbować się wyróżnić większe pracownie – zwłaszcza w kontekście tendencji o których napiszę dalej.)

Czy bez wiedzy insiderskiej da się coś powiedzieć o współczesnej „kuchni”? Wydaje mi się, że tak.

Tu wróćmy do ważenia. Można je przeprowadzić wg szeregu różnych kryteriów, np. cech społeczno-demograficznych, retrospektywnych deklaracji ws. wcześniejszych głosowań itp., a dokładny wybór sposobu ważenia i filtrowania jest zawsze w pewnym stopniu arbitralny. To powoduje, że nie mamy przeważnie do czynienia z „czystymi” sondażami (w sensie surowego rozkładu odpowiedzi), a z sondażowymi prognozami (dane przetworzone ekspercko). Co ważne – komponent arbitralny pozwala uwzględnić w nich dodatkowe informacje kontekstowe… w tym średnią wyników innych pracowni.

Update: Poniżej przedstawiam przeciętne odchylenie pojedynczego wyniku sondażu od ich łącznej średniej w miesiącu poprzedzającym wybory parlamentarne (tylko komitety „ponadprogowe”). Jak widać, od 12 lat rozrzut wyników systematycznie zmniejsza się.

Rosnąca zbieżność wyników sugeruje, że pracownie starają się lekko nawigować względem siebie, co jest decyzją względnie racjonalną biznesowo, zwłaszcza w przypadku ośrodków robiących tanie badania, świadomych słabości własnych danych. jest to po prostu optymalizacja jakości do kosztu z wykorzystaniem darmowego „surowca”. Większość sondaży zamawiają media, im zależy na klikalności/oglądalności, ale nie są w stanie zapłacić kilkuset tysięcy złotych w każdy weekend. Powstaje więc wiele sondaży względnie tanich, o niższych standardach, niż akademickie. Reprezentatywność tych sondaży jest względnie niska. Dostępne są jednak średnie z wielu sondaży, czyli ekwiwalent „powiększenia próbki”. Dlaczego nie skorzystać?

Jak wie każdy zawodowy kolarz, nie oglądanie się na resztę peletonu jest ryzykowne. Jazda z „peletonem” stanowi rodzaj ubezpieczenia. Większa zbieżność powoduje, że cały sektor sondażowy pospołu wygra lub przegra. Kto jest w stawce, ten może przynajmniej nie wypadnie z rynku. Co więcej, uwzględnianie wyników innych sondaży jest jak jechanie za plecami konkurenta – trochę lżej się pedałuje.

O ile „efekt peletonu” (tzw. herding) jest racjonalny z punktu widzenia przynajmniej części pracowni badawczych, to niekoniecznie jest on korzystny dla konsumentów sondaży. Większa spójność wyników tworzy pozór pewności prognozy. Gdyby nie wspomaganie zbieżności wyników (zwłaszcza większych partii), bardziej wiarygodna byłaby też średnia z wielu sondaży. Wykorzystywanie informacji kontekstowej dokłada bowiem nowe źródło błędu systematycznego. Wracając do metafory kolarskiej – często peleton wjeżdża na metę jako pierwszy, ale nie raz zdarza się, że oglądanie się na siebie nawzajem prowadzi do przesadnego obniżenia wspólnego tempa. Wówczas peleton przegrywa.

Źródło: wiktionary.org

Jakościowej korekty prognoz – jeśli nastąpi – można oczekiwać dopiero w ostatnim tygodniu przed wyborami, tuż przed klarowną weryfikacją jakości oszacowań. Wszelkie wcześniejsze odchylenia można tłumaczyć „trendami poparcia”, które są w zasadzie nieweryfikowalne.

„Korekta” na ostatniej prostej nie zawsze jest skuteczna (choć zakładam, że wszyscy dokładają wówczas większych starań), ale okazała się taka w 2015 roku. Tu jednak znajdujemy dodatkową przesłankę, aby sądzić, że trafne ważenie odgrywa bardzo dużą rolę w poprawnym szacowaniu wyników. W maju 2015 odbyły się wybory prezydenckie. Retrospektywne pytanie o sposób głosowania w maju były jesienią znacznie lepszą „kotwicą” kalibracji wag, niż gdy czyni się to w oparciu o deklarację głosowania cztery lata wcześniej. Po prostu fakt, że ktoś zadeklarował głosowanie na Dudę/Komorowskiego był znakomitym predyktorem głosowania w październiku. To dlatego udało się wówczas stworzyć lepsze oszacowania. W tygodniu przed tymi wyborami na 66 oszacowań punktowych (11 sondaży * 6 komitetów z > 5pp) powyżej błędu losowego znalazło się jedynie 15 (wciąż więcej niż oczekuje statystyka indukcyjna, ale porównajcie to z ponad połową przekroczeń w 2019!)

15 X poznamy nie tylko zwycięzcę wyborów, ale również zwycięzcę prognoz. Czy będzie to zwycięstwo wypracowane na podstawie finezyjnej metodologii, żelaznej dyscypliny i pełnej poświęceń pracy ankieterów? Mam nadzieję. Ale trudno będzie wykluczyć zwykły fart. Socjologia w zakresie prognoz rywalizuje raczej z meteorologią czy sejsmologią, a niż z astronomią. Z dwutygodniowym wyprzedzeniem bardzo trudno przewidzieć czy potrzebny będzie parasol.

Na koniec niezbędny jest DISCLAIMER: Nie oznacza to wcale, że sondaże i prognozy są bezwartościowe i że nic nie wiadomo. Przeciwnie, dzięki sondażom wiemy całkiem sporo i możemy być świadomymi wyborcami. Ale warto znać specyfikę tego „barometru” i brać na nią poprawkę.

PS. Wiadomo już, które sondaże okazały się najbliższe wynikom wyborów (przy czym można to mierzyć na kilka różnych sposobów):
https://x.com/spoleczenstwopl/status/1732776755264405598?s=20

Przypisy:

  1. Wyniki podawane przez poszczególne pracownie nie są bezpośrednio porównywalne, choćby ze względu na rozbieżne odsetki odpowiedzi „nie wiem”. Żeby zestawiać je między sobą i z PKW, powinny sumować się do 100. Właśnie temu służy normalizacja. Warto zauważyć, że czym wyższy odsetek odpowiedzi „nie wiem”, tym łatwiej jest później pracowni bronić się, że to właśnie w niej zaszyte były brakujące punkty procentowe. Skoro i tak stosowane są wagi, a niezdecydowani są dopytywani o poglądy, prognozy powinny to uwzględniać. ↩︎
  2. CBOS od dawna mierzy się z silnym house effect, którego jest świadom i którego mimo wszystko nie koryguje. Zachowuje natomiast względnie spójną metodologię, dość istotną z punktu widzenia śledzenia trendów – co jest pewną wartością tych badań (#reliablebiaspride). Powoduje to, że CBOSu nie należy traktować jak podmiotu z rynku sondaży przedwyborczych. Jego nadrzędnym celem nie jest prognoza wyniku PKW. Waży tylko na demografikach. Nie ma medialnych zleceniodawców, ale mecenasa, który (jak sądzę) za bardzo nie życzy sobie jakichkolwiek nowinek. ↩︎

Impakt rozdziałów, czyli zbiorówki kontratakują

Jednym z elementów wdrażanej właśnie reformy nauki i szkolnictwa wyższego jest modyfikacja formuły oceny jednostek naukowych. Zmian szczegółowych jest sporo, jednak uwagę zwraca przede wszystkim fakt, że zmienia się wyraźnie sposób, w jaki brane będą pod uwagę: autorstwo monografii, redakcja monografii i autorstwo rozdziału w monografii. Przedstawione w sierpniu i wrześniu projekty rozporządzeń z jednej strony selektywnie przesuwają limity na te elementy dorobku naukowego, z drugiej – zmieniają skalę ich punktacji. Przeskakując od razu do konkluzji – zwłaszcza w naukach społecznych i humanistycznych może to się okazać ważny „game changer”. Tylko czy zmiana ta będzie na lepsze czy na gorsze?

Kiedy rozdział wchodzi za mocno…

Zacznijmy od tego, że projekty rozporządzeń proponują, by w ramach ocenianego dorobku autorstwo monografii zwartych oraz redakcje monografii zbiorowych stanowiły nie więcej niż 20% (w porównaniu do dotychczasowych 40%; w naukach przyrodniczych i większości pozostałych limit ma wynieść 5%, ale tam takie publikacje mają zwykle niewielkie znaczenie). Co istotne §7 pkt.13 projektu Rozporządzenia w sprawie ewaluacji… nie wspomina o rozdziałach, więc ich liczba w ankiecie parametryzacyjnej będzie limitowana jedynie zapisem w §7 pkt.7. W praktyce oznacza to, że rozdziały będę mogły stanowić do 2/3 całego dorobku w dyscyplinie.

Monografie mają zostać podzielone na trzy klasy według nieznanej na razie klasyfikacji wydawców. W omawianych tu dziedzinach za autorstwo będzie przyznawane 20, 80 albo 300 punktów, za redakcję 5, 20 albo 150, a za autorstwo rozdziału – 5, 20 albo 75. Jako, że na pierwsze dwa elementy obowiązuje dość niski limit, to trzeci okazać się może kluczowy. Przypomnijmy jednocześnie, że za autorstwo artykułów w czasopismach objętych ministerialnym programem „Wsparcie dla czasopism naukowych” (ma on objąć nie więcej niż 500 najlepszych) przyznawane będzie 20 punktów, natomiast za autorstwo artykułów w czasopiśmie znajdującym się w drugim kwartylu cytowalności (wg Scopusa) – 70 punktów. Sprawia to, że rozdziały w książkach należących do ministerialnych wykazów staną się „funkcjonalnym odpowiednikiem” dobrych krajowych i zagranicznych czasopism.

Dane

Co jednak wiemy o ich realnym naukowym wpływie? Czy wydawnictwa da się „impaktować” podobnie jak czasopisma? Zerknijmy w dostępne dane. Gotowy zbiór przygotował w ramach swojego projektu zespół dra Daniela Torres-Salinasa (zob. Torres-Salinas et al. 2013; 2014; także: projekt EC3Metrics). Są to wskaźniki stworzone w oparciu o dane na temat cytowalności książek z bazy Thomson Reuters. Dane dotyczą okresu 2009-2013 i zostały przygotowane na podstawie prawie pół miliona rekordów (publikacji). Kompletność i trafność informacji nt. książek w bazie Thomson Reuters była przedmiotem dość wszechstronnej krytyki (m.in. dominacja angielskiego, nierówna reprezentacja dyscyplin), jednak sama wielkość bazy czyni ją w jakimś stopniu reprezentatywną. W oparciu o te dane hiszpański zespół stworzył listę 254 wydawnictw naukowych i określił wartości średniej cytowalności. Jednak wiele z tych wydawnictw dotyczyła znikoma liczba publikacji, dlatego dokonałem dalszego filtrowania danych, pozostawiając jedynie te wydawnictwa, w przypadku których liczba pozycji w bazie była wyższa niż 350, a dyspersja ich cytowalności pozwalała wnioskować, że średnia cytowalność jest istotnie wyższa od zera. W efekcie na placu boju zostało 68 wydawnictw, od wielkich komercyjnych graczy jak Routledge, przez mniejsze jak Karger Publishing, po wydawnictwa uniwersyteckie. Z pewnością nie jest to lista aktualna i wyczerpująca, ale traktuję ją jako próbkę dostatecznie wiarygodną, aby powiedzieć coś na temat wzorów dotyczących cytowalności książek.

Dobry i zły pieniądz?

Punkty na przedstawionym niżej wykresie to wydawnictwa naukowe. Błękitne to wydawnictwa uniwersyteckie, a granatowe to pozostałe. Wielkość punktów jest proporcjonalna do liczby pozycji (monografii zwartych i rozdziałów) w zbiorze Torres-Salinasa et consortes. Jak widać, nie obserwujemy wyraźnego wzoru, który sugerowałby, że wydawnictwo, które wydaje ważne i szeroko cytowane książki naukowe, wydaje także bardzo dobre zbiorówki. Korelacja cytowalności dwóch typów publikacji wynosi zaledwie 0,08 (ilustruje to dodana na wykresie linia regresji). Co typowe dla tego typu danych, na lekkie nachylenie linii pracują głównie obserwacje odstające („lewary”). Największa przeciętna cytowalność książek osiągnęło Princton University Press, a jednak przeciętna cytowalność 5’608 rozdziałów w wydanych przez nich zbiorówkach to zaledwie 0,03. U komercyjnych gigantów też bywa bardzo różnie. Elsevier ma znacznie lepiej „widoczne” niż Springer książki, ale słabiej „widoczne” rozdziały. Z dwoma wyjątkami,  wydawnictwa cechują się też większą dyspersją cytowalności (SD), niż jej średnią wartością.

Cytowalność monografii i rozdziałów wg wydawnictw (opracowanie własne; źródło danych: Torres-Salinas et al. 2014)

Kluczowe jest być może to, że istnieje dramatyczna różnica między oddźwiękiem naukowym jaki mają książki, a tym, jaki mają rozdziały. Biorąc pod uwagę łączną liczbę kilkuset tysięcy pozycji uwzględnionych w bazie naukowców z Hiszpanii, do monografii odwoływano się przeciętnie 4,25 razy, a do rozdziału 0,22 razy (to dla wszystkich dyscyplin łącznie, w naukach społecznych i humanistycznych oba wskaźniki były niewątpliwie niższe). „Impakt” rozdziału był zatem przeciętnie prawie 20 razy mniejszy niż zwartej monografii.

Czy polska nauka zachoruje na nową odmianę punktozy?

Jeśli naukowa waga rozdziału jest 20 razy mniejsza niż monografii, to czy rozdziały będą również 20 razy mniej istotne w ocenie dorobku naukowego? Według proponowanych przez MNiSW regulacji za rozdział miałaby być przyznawana czterokrotnie niższa liczba punktów niż za monografię. Jednak realne znaczenie obu elementów wcale nie przedstawia się jak 1 do 4, przede wszystkim ze względu na wspomniane na wstępie limity. Skoro profil osiągnięć publikacyjnych może w odpowiednich okolicznościach wyglądać następująco: 20% książek zwartych (i redakcji), 47% rozdziałów, 33% artykułów, to dobrze punktowane rozdziały mogą się okazać kluczem do dobrego wyniku oceny. Warto także pamiętać, że „próg wejścia” do zagranicznych wydawnictw jest w przypadku rozdziałów znacznie niższy niż w przypadku zwartych książek (w analizowanych danych rozdziałów było 10 razy więcej niż książek). Łącznie ustawia to w pewnym stopniu „strategią wygrywającą” przyszłą parametryzację, choć wiele zależy jeszcze od tego, jak wyglądać będą wykazy KEN. W zależności od tego jak zostaną one sprofilowane, mogą bardziej lub mniej przypominać strukturę impaktów zastosowaną w przypadku artykułów w czasopismach.

ps. Wpis powstał w GESIS w Kolonii. Kiedy zapytałem niemieckich kolegów o rolę, jaką w ocenie dorobku przypisuje się w niemieckiej nauce rozdziałom w pracach zbiorowych, usłyszałem: (a) „Chapters? Nobody  cares about chapters!”; (b) „It doesn’t count, unless it’s either Oxford, Cambridge or one of the best US universities”. Takiej aktywności publikacyjnej nie uważa się za w pełni kompetytywną.

Jak dyplom wpływa na dochód?

Istnieją różne motywacje kontynuowania nauki na studiach wyższych, ale perspektywa podwyższenia dochodu jest z pewnością jedną z ważniejszych. Od kilku lat, dzięki programowi MNiSW Ekonomiczne Losy Absolwentów (ELA) mamy możliwość śledzenia tego, jak młodzi ludzie radzą sobie na rynku pracy po uzyskaniu dyplomu. Na tle innych badań dochodów, wyniki zawarte w zbiorze danych ELA są wyjątkowe, ponieważ pochodzą z rejestrów ZUS, a nie z badań sondażowych. Charakteryzują się więc znacznie większą dokładnością i pokryciem całej populacji. ELA zawiera kilkanaście wskaźników charakteryzujących aktywność zawodową po ukończeniu poszczególnych kierunków studiów, ale nas interesować tu będzie mediana dochodu uzyskiwanego rok po ukończeniu studiów. Z jednej strony okres 12 miesięcy to stosunkowo mało, aby absolwent ustabilizował swoją sytuację zawodową, ale z drugiej uchwycenie dochodu w tym właśnie momencie pokazuje położenie na rynku pracy, będące bezpośrednim następstwem studiów oraz – co wiemy z innych badań – jest wyraźnie skorelowane z dochodem uzyskiwanym w późniejszych etapach kariery. Dane analizowane poniżej dotyczą absolwentów z 2015 roku.

Co pokazują wykresy?

Na poniższym wykresie prezentujemy fragment tego zróżnicowania. Skupiliśmy się na najpowszechniej dostępnych kierunkach studiów oraz uczelniach z głównych ośrodków akademickich (w istocie z miast wojewódzkich oraz dodatkowo z Gliwic i Częstochowy). Ograniczyliśmy się też do absolwentów studiów dziennych drugiego stopnia lub jednolitych. Wszystko to miało na celu większe wystandaryzowanie (porównywalność) rezultatów.

Wartości przedstawione na wykresie pochodzą z prostego modelu regresji i pokazują o ile dochód jest większy (wartości z plusem) lub mniejszy (z minusem) od wartości referencyjnej. Tę ostatnią stanowił poziom dochodu uzyskiwany rok po zakończeniu dowolnych innych studiów drugiego stopnia (czyli kierunków innych niż, te wymienione na wykresie – w praktyce chodzi o kierunki rzadziej obecne na uczelniach). Wartość ta wynosi 2.442 zł brutto (mediana dochodu ze wszystkich źródeł). Nie wchodząc w statystyczne szczegóły trzeba dodać, że to są wartości uzyskane przy kontroli ośrodka akademickiego (więc niejako niezależne od premii za konkretną uczelnię i lokalizację miejsca pierwszej pracy).

Wykres 1. Przeciętna premia dochodowa za ukończenie kierunku

Zarabiać jak filolog ugrofiński

Pierwszą obserwacją płynącą z danych ELA jest ogromne zróżnicowanie dochodów absolwentów poszczególnych kierunków. Nie jest zaskoczeniem to, że w czołówce rankingu kierunków uporządkowanych pod względem medianowego dochodu znajdują się absolwenci nauk technicznych: informatycy, absolwenci kierunku automatyka i robotyka, czy mechanika i budowa maszyn. Zaskakuje raczej to, że tuż za nimi plasują się absolwenci (w zasadzie głównie absolwentki) pielęgniarstwa – znacznie wyżej niż kierunku lekarskiego, choć nie jest to porównanie w pełni rzetelne (wejście w zawód lekarski poprzedzone jest stażem i rezydenturą). Wysokie medianowe zarobki uzyskiwane tuż po studiach w zawodach związanych ze wspomnianymi kierunkami wiążą się z dużym bieżącym popytem na takie kwalifikacje. Gdybyśmy przyjrzeli się szczegółowo również pozostałym, rzadziej pojawiającym się w ofercie uczelni kierunkom, to znajdziemy wśród nich również inne, których absolwenci już na staracie kariery zarabiają przeciętnie ponad 5.000 zł (np. telekomunikacja, metody ilościowe w ekonomii). Rynek hojnie wynagradza również rzadkie, wąskie specjalizacje humanistyczne, takie jak niektóre filologie (ugrofińska na UW daje rok po jej zakończeniu przeciętnie 5.371 zł).

Dolna część wykresu zawiera głównie kierunki, które można określić jako „para-akademickie” czy „zawodowe”, np. kosmetologia, turystyka i rekreacja, fizjoterapia. Prowadzą one przeważnie do pracy w sektorze usług osobistych, która nie wiąże się z tak wysokimi zarobkami jak w zawodach specjalistycznych. Obok nich pojawiają się kierunki społeczne i humanistyczne, które z kolei oferują wiedzę mniej sprofilowaną zawodowo. Choćby z tej racji wejście na rynek pracy jest dla ich absolwentów względnie trudniejsze (zwłaszcza w wymiarze dochodu). Dodatkowo wiele z tych kierunków ma charakter masowy, więc wytwarzają dużą podaż przy względnie niskim popycie. Dane ELA pokazują również, że odsetek absolwentów, którzy mieli za sobą doświadczenie bezrobocia w rok po zyskaniu dyplomu w dużej mierze oddaje to, co widać na wykresie 1. Ci, który nie wpadli w bezrobocie, znaleźli zatrudnienie poniżej kwalifikacji. Czas spędzony na rynku pracy będzie zapewne działał na ich korzyść, jednak dodatkowe doświadczenie nie zamknie obserwowanej luki płacowej.

Nie tylko kierunek, ale także miasto

Wybór kierunku studiów silnie wpływa na dochód, ale siła dyplomu różni się również pomiędzy ośrodkami akademickimi. Również te zróżnicowania są spore i potwierdzają to, co o nierównościach dochodowych w Polsce wiadomo od dawna (wykres 2. – ze statystyczną kontrolą kierunków). Siła „nabywcza” dyplomów jest największa w przypadku politechnik i uniwersytetów w dużych miastach – Warszawie, Gdańsku, Krakowie czy Wrocławiu. Przeciętny dochód absolwenta spada wraz z peryferyjnością uczelni. Absolwenci uczelni kieleckich, białostockich, czy rzeszowskich zarabiają (po tych samych kierunkach) kilkaset złotych mniej, niż studenci z dyplomem uzyskanym w dużych warszawskich uczelniach. Na przykład absolwent informatyki w Warszawie dostanie przeciętnie 5.800 zł brutto, a z Białegostoku 4.500 zł. Nie ma wątpliwości, że za różnice te odpowiada nie tylko jakość edukacji, ale również specyfika lokalnych rynków pracy. Relacja pomiędzy studiami a pracą nie sprowadza się jedynie do faktu, że absolwenci uczelni w mieście A najczęściej podejmują pracę w mieście A. Znaczenie mogą mieć również takie czynniki jak rozeznanie w ofertach pracy, czy doświadczenia zawodowe zdobyte jeszcze w czasie nauki (np. staże). Gdybyśmy chcieli rzetelnie orzekać o różnicy kompetencji stojącej za dyplomami tego samego kierunku w różnych ośrodkach, powinniśmy porównywać osoby, które znalazły się na jakimś „trzecim”, zewnętrznym rynku pracy (np. za granicą).

Wykres 2. Miasta akademickie wg przeciętnej premii dochodowej absolwentów

Podsumowując

ELA dostarcza niezwykle cennych informacji na temat położenia absolwentów i wiedzę tę można wykorzystać do reformowania niektórych polityk publicznych. Wydaje się, że szczególna troska powinna być skierowania do humanistów i absolwentów nauk społecznych. Zapotrzebowanie na nich niewątpliwie istnieje, ale (a) jest w niektórych „tradycyjnych” specjalnościach mniejsze niż podaż, (b) wymaga nieco innych kompetencji, niż te obecnie oferowane. Nie chodzi  o zamienienie uniwersytetów w szkoły zawodowe, ale o to, aby studia humanistyczne i społeczne nie kształtowały absolwenta zgodnie z kanonami akademickimi sprzed 20 czy 30 lat. Biegłość w językach obcych, obeznanie z technologiami informatycznymi, podstawy programowania, kompetencje organizacyjne – to są rzeczy niezbędne do dobrego odnalezienia się na współczesnym rynku pracy.

Dwa demograficzne mity

The Economist opublikował niedawno daily chart, którego tytuł w kontekście panujących nastrojów społecznych brzmi jak prowokacja: Why Europe needs more migrants. Każdy kto zna „Ekonomistę” wie jednak, że to pismo reprezentujące trzeźwy, ekonomiczny racjonalizm w opozycji do wszelkich ideologicznych idiosynkrazji, więc jeśli prowokuje, to przede wszystkim do myślenia.

Choć o sytuacji demograficznej już pisaliśmy, i to dosyć obszernie, na moment wracam więc do tego tematu. Trudno oprzeć się bowiem wrażeniu, że ktokolwiek się nim zajmuje w debacie publicznej – od rządzących po Make Life Harder – myślenie to jest obciążone: (a) fiksacją na dzietności, (b) marginalizacją ekonomicznej roli imigracji. Zrekapituluję krótko te dwa błędne mniemania.

„Mit dzietności” zakłada, że (1) wyższa dzietność może samodzielnie rozwiązać problemy demograficzne współczesnej Polski, a także, że (2) zapewnienie zastępowalności pokoleniowej jest dziś w Polsce realne. Aby najprościej wyjaśnić na czym polega mylność tych przekonań zacznijmy od możliwie najprostszej ilustracji – sztafety pokoleń. Na wykresie poniżej przedstawione zostały liczebności 10-letnich kohort wiekowych współczesnych Polek (dane GUS z VI 2017). Ograniczymy się do kobiet, ponieważ to właśnie ich bezpośrednio dotyczą statystyki dzietności. Przeciętny wiek urodzenia dziecka to obecnie 29 lat. Przyjmując kilka interpretacyjnych uproszczeń możemy więc spojrzeć na te kohorty jako na sekwencję grup matek i córek oddzielonych od siebie interwałem 30 lat. Takiej interpretacji można postawić szereg słusznych zastrzeżeń1, ale mimo wszystko będzie to wystarczające przybliżenie realnych prawidłowości.

Wielkość kohort demograficznych w populacji współczesnych Polek (stan na 30 VI 2017 wg GUS)

Do oznaczenia na wykresie poszczególnych „sztafet pokoleniowych” użyłem osobnych palet kolorystycznych. Kobiety w wieku 60-69 lat to „kohorta matek” dla kobiet w wieku 30-39 lat, te z kolei to „statystyczne matki” dziewczynek w wieku 0-9 lat. Analogiczną relację możemy zdefiniować dla dzisiejszych pięćdziesięcio- i dwudziestolatek, a także dla czterdziesto- i nastolatek.

Co widzimy na wykresie? Jeśli porównamy kohortę 60-69 z ich „córkami”, to widać, że kobiety urodzone tuż po II wojnie światowej wydały na świat przeciętnie więcej niż jedną córkę. Nie zmienia tego nawet wzięcie pod uwagę rosnącej śmiertelności kobiet po 50-tce – owe „ubytki” skompensowane są szarą „czapką” na dwóch ostatnich słupkach (śmiertelność młodszych kobiet jest niska, została więc pominięta). Dla kolejnych grup wiekowych ta tendencja wyraźnie się zmienia. Córki kobiet w wieku 50-59 lat, czyli dzisiejsze 20-latki, są mniej liczne niż ich matki. Dramatyczny spadek zaczyna się jednak dopiero w kolejnych grupach. Sukcesję ponad 3 milionom dzisiejszych 30-latek zapewnia zaledwie 2 miliony dziewczynek poniżej 10 roku życia.

Co z tego wynika? Po pierwsze trzeba rozumieć, że żaden ze słupków nie powiększy się już samym ruchem naturalnym. Dzisiejsza kohorta nastolatek nie zrobi się większa niż 2 miliony. Niezależnie więc od wskaźnika liczby urodzeń, nie zwiększy się liczba przyszłych matek. Nawet gdyby trend niskiej dzietności został kompletnie zatrzymany, nie ma powrotu do liczebności Polek z wyżu lat 1980-ych.

Ale czy ten trend można zatrzymać? Współczynnik dzietności (przeciętna liczba dzieci przypadających na kobietę w wieku rozrodczym) wynosi w Polsce niewiele ponad 1,3 (czyli statystycznie każda matka ma ok. 2/3 córki). To bardzo mało, ale w Europie jedynie dwa kraje balansują na poziomie odtwarzalności pokoleń, czyli mają ten współczynnik na poziomie około 2, są to Francja i Irlandia. Przypomnijmy jednak – jest to poziom odtwarzalności, a nie przyrostu, więc dylemat dotyczy samego utrzymania liczebności tych najmniej licznych kohort (sic!). Co więcej, takiej energii w płodzeniu dzieci nie obserwujemy nigdzie na wschód od Renu, a my wypadamy pod tym względem blado nawet na tle samych sąsiadów (zob. interaktywny wykres na Google).

Aby osiągnąć przeciętną dzietność na poziomie 2 – której Polska w ogóle nie notowała od 1991 roku – kobiety musiałyby rodzić w wyraźnie młodszym wieku i w związku z tym masowo rezygnować z innych życiowych planów. Nie chodzi nawet o realizację marzeń o karierze na szczytach władzy i bogactwa, czy o podróży dookoła świata, ale o rzeczy znacznie bardziej rudymentarne, takie jak studia. Przypomnijmy, że współczynnik skolaryzacji brutto na poziomie szkolnictwa wyższego wynosił na początku lat 1990-ych niewiele ponad 10%, ale w 2010 roku przekroczył 50%. Już sama masowość studiów wyższych przesuwa większość decyzji prokreacyjnych na okres po 25. roku życia. Do pewnych rzeczy po prostu nie ma powrotu, chyba, że w scenariuszu Handmaid’s Tale.

Warto także pamiętać, że programy child benefit, analogiczne do 500+, posiada większość państw europejskich, więc ze względu na konwergencję tak instytucji, jak stylów życia względnie bezpieczne wydaje się założenie, że dzietność w Polsce może w nadchodzących latach wzrosnąć, ale co najwyżej do poziomu 1,5-2,0. W najbardziej optymistycznym z tych scenariuszy (i biorąc na razie w nawias migracje) za 40 lat wykres „sztafety matek i córek” wyglądałby mniej więcej tak jak na wykresie poniżej2. Czarne obrysy oddają wielkość kohort z pierwszego wykresu, czyli tych dzisiejszych. Globalnie oznacza to spadek populacji o około 28% (przypomnijmy – to wersja optymistyczna!). Ale – i to jest szczególnie uderzające – w wersji „pesymistycznej” (czyli przy współczynniku dzietności na obecnym poziomie 1,3), sprawa przedstawia się w zasadzie niewiele gorzej – spadek wyniesie 33%. Jak widać optymizm i pesymizm w sprawie dzietności niewiele się różnią – konik i tak już uciekł. Wyższy współczynnik urodzeń w ogólnym rozrachunku może nieco poprawić sytuację demograficzną, ale fiksowanie się na dzietności jako rozwiązaniu problemu starzenia się społeczeństwa jest nieracjonalne.

„Sztafeta demograficzna” z poprzedniego wykresu za 40 lat przy założeniu o rosnącej dzietności.

Przejdźmy zatem do kwestii imigracji. W dobie kryzysu migracyjnego jest to sprawa drażliwa, ponieważ została spleciona z gorącymi wątkami politycznymi, w tym z lękami o bezpieczeństwo i tożsamość. Jednak niezależnie od towarzyszących jej emocji warto patrzeć na nią trzeźwo – system emerytalny potrzebuje czynnych zawodowo, a rozwijająca się gospodarka – rąk do pracy. Jest jasne, że firmy będą poszukiwały pracowników nawet jeśli rodzima podaż się wyczerpie. Presja popytu na pracownika odczuwana jest na razie głównie w postaci rekordowo niskiego poziomu bezrobocia, ale gospodarka już od dawna „zasysa” też pracowników z zagranicy.

Kwestię emigracji i imigracji zarobkowej, jak wszystkie inne zjawiska ekonomiczne, wypada rozpatrywać w kategoriach podaży i popytu. Patrząc na dane GUS dotyczące ruchów ludnościowych do i z Polski widzimy, że wciąż więcej osób wyjeżdża, niż przyjeżdża. Poniższy wykres pokazuje migracje na stałe, czyli (wg GUS) na co najmniej 12 miesięcy. Czarna ramka pokazuje ubytki ludnościowe, zaś czerwone wypełnienie – stopień ich bieżącego uzupełniania przez przybyszy z zagranicy. Są to jedynie przybliżenia i nie uwzględniają wszystkich rodzajów przepływów ludnościowych (o tym za chwilę), jednak ta wystandaryzowana miara daje pewne pojęcie o atrakcyjności migracyjnej naszego kraju. W ostatnich latach wciąż więcej ludzi długotrwale opuszczało Polskę, niż do niej na stałe przybywało, choć widać jednocześnie trend zmniejszania się tej różnicy. W odróżnieniu od kwestii przyrostu naturalnego, tu państwo ma realny i dużo bardziej znaczący wpływ na konsekwencje demograficzne – oznacza to, że w odróżnieniu od wykresu ilustrującego odtwarzalność pokoleniową, tu dużo trudniej przewidzieć dalszy trend bez wiedzy o konkretnych decyzjach politycznych. Jednak ze względu na wspomniane kwestie popytowo-podażowe, instytucjonalny wpływ na bilans migracyjny również nie jest nieograniczony.

Stosunek emigracji (czarna ramka) do imigracji (czerwone wypełnienie), dane GUS.

Tu dochodzimy do mitu nr 2. Jest nim przekonanie, że polityka imigracyjna może sprowadzać się do zamknięcia drzwi na osoby spoza Unii Europejskiej (czy szerzej rozumianego Zachodu). Jest tak, ponieważ Polska wraz z Chorwacją, Rumunią i Bułgarią zamyka stawkę, jeśli idzie o poziom życia szeroko rozumianego Zachodu. Sami imigranci również dokonują wyborów, więc obie strony potrafią być swoiście „wybredne”. Jedynie kraje najbardziej zamożne, takie jak Wielka Brytania, USA czy Niemcy mogą regulować napływ imigrantów jedynie przez selekcję negatywną.

Jedna z lansowanych obecnie koncepcji zakłada, że imigrację można skutecznie zastąpić reemigracją i repatriacją, a liczba emigrantów z Polski i osób polskiego pochodzenia jest do tego wystarczająca. Jednak największe zagraniczne społeczności polskie są na Zachodzie (dwa największe ośrodki to USA i Niemcy), więc jest to równoznaczne z oczekiwaniem porzucenia przez ludzi lepiej płatnej pracy i lepszych perspektyw życiowych, jakie oferują im te kraje. Na wschód od Polski największym ośrodkiem jest natomiast Białoruś, ale zamieszkuje tam ok. 300 tys. osób deklarujących polskie pochodzenie, więc nawet przyciągnięcie całej mniejszości polskiej z terenu byłego ZSRR – biorąc w nawias realne możliwości i koszty – miałaby marginalne skutki ekonomiczne (dodajmy, że w okresie 1997-2016 Polska wydała 5908 formalnych wiz repatriacyjnych). Być może niektórzy dopatrują się także szansy w negatywnym rezultacie negocjacji dotyczących Brexitu. Zostawmy jednak różnego rodzaju złudzenia i przyjrzyjmy się faktom.

Realnie rzecz biorąc, doraźne rozwiązanie braku dodatkowych rąk do pracy trafiło się Polsce wyjątkowym zbiegiem okoliczności. To czego nie widzimy na powyższym wykresie to liczna rzesza pracowników przyjeżdżających na krótki okres. Liczbę formalnie wydanych nowych zezwoleń na pracę ilustruje kolejny wykres (poniżej), a trzeba mieć na względzie, że jest ona dużo niższa niż realna liczba pracujących w Polsce Ukraińców3. Począwszy przynajmniej od 2014 roku napływ siły roboczej do Polski jest zatem realnie większy niż odpływ, ponieważ podaż pracy skutecznie „suplementowana” jest masowymi przyjazdami krótkookresowymi z Ukrainy (ponad 80%). Warto w tym kontekście postawić pytanie: kto zastąpiłby tych pracowników, gdyby na Ukrainie panował pokój i kwitła gospodarka?

Liczba cudzoziemców (w tys.), którzy otrzymali pozwolenie na pracę w Polsce, dane GUS.

Dla kogo, poza mieszkańcami pogrążonej w kryzysie i wojnie domowej Ukrainy, Polska jest dziś atrakcyjnym kierunkiem emigracji? Kraje, z których napływ ludzi w ostatnich pięciu latach nasilał się i wynosił więcej niż 1500 osób to: Białoruś, Mołdawia oraz Indie. Wyraźnie osłabł natomiast napływ z Chin (prawie sześciokrotnie w ostatnich 6 latach). Wydaje się jasne, że różnica stopnia rozwoju między krajami musi być wystarczająca, by łączny, relatywny koszt emigracji (w tym ten psychologiczny) był mniejszy niż względne korzyści potencjalnego imigranta. Białoruś ma niższe niż Polska PKB per capita (również to liczone w sile nabywczej), ale leży blisko, więc bezpiecznie można założyć, że wszystkie kraje lepiej od niej rozwinięte nie staną się źródłem napływu pracowników do Polski. Na tej zasadzie możemy bezspornie wykluczyć kraje takie jak Gabon, Meksyk czy Iran. Do tej grupy należy też zapewne Botswana, Tajlandia, Chiny, Brazylia czy Algieria. Jednocześnie mieszkańcy krajów bardziej oddalonych od Polski geograficznie i kulturowo niż Ukraina i Białoruś, ponoszą niewątpliwie znacznie większe koszty takiej migracji.

Jeśli w Polsce istnieją silne idiosynkrazje dotyczące kierunków migracji i możliwości integracji cudzoziemców (a debata publiczna jasno wskazuje, że tak jest), warto postawić klarowne pytanie o to, jak owe preferencje przekładają się na konkretne polityki publiczne. A może liczymy jedynie na kryzysy w nieodległym otoczeniu międzynarodowym?


1. Mediana wieku urodzeń stale zmienia się (rośnie), a jej wariancja jest oczywiście spora, więc część dziewczynek z grupy 0-9 jest w istocie córkami kobiet należących do kohorty 10-19, a inna część – kohorty 50-59. Jednak takie „przesunięcia” i nieregularności dotyczą wszystkich kohort, więc ich efekty w większości znoszą się. Zatem choć nie mamy tu substancjalnie trafnego opisu rzeczywistości, to oddaje on faktycznie wpisane w nią trendy.

2. Zakładam tu stopniowe, liniowe dochodzenie dzietności do poziomu 2.0.

3. Pozwolenia są przedłużane na podstawie oświadczenia pracodawcy, a tych wg UDSC było w 2016 roku 1,26 mln – ta liczba może być z kolei zawyżona w stosunku do realnie pracujących. ZUS podaje liczbę 270 tys. zarejestrowanych Ukraińców.

Strategie kadrowe polskich instytucji naukowych

Czy duże wydziały i małe centra badawcze mają w Polsce podobne czy różne szanse na uzyskanie wysokiej jakości osiągnięć naukowych? Czy poszczególne dziedziny nauki różnią się pod tym względem? W końcu – czy w Polsce mamy względnie jednolite pole instytucji naukowych, czy też ich pierwszą, drugą i niższe ligi? O tych i paru innych kwestiach piszę w artykule, który ukazał się właśnie na łamach „Nauki”.
Tekst zamieszczony został w wolnym dostępie na stronie czasopisma: http://www.nauka-pan.pl/index.php/nauka/article/view/672.

Nowa lista czasopism punktowanych MNiSW

Opublikowana przed świętami nowa lista czasopism punktowanych wywołała sporo kontrowersji. W porównaniu z zeszłym rokiem zmiany dotknęły przede wszystkim listę B, czyli wykaz czasopism krajowych. Mogły one liczyć na dodatkowe 0-5 punktów, które w tej edycji dodawali eksperci z poszczególnych dziedzin (opinia środowiskowa). Zwiększył się w ten sposób zakres ocen tych czasopism – o ile poprzednio punktacja wynosiła tu od 1 do 10 punktów, to obecnie – od 1 do 15 punktów.

Bezpośredniego porównania rozkładu punktacji z roku 2014 i 2015 dokonaliśmy nakładając na siebie dwa histogramy (wykres poniżej). Porównujemy tylko te tytuły, które wystąpiły na liście B zarówno w roku 2014, jak 2015 (co oznacza pełną porównywalność, ale także pominięcie prawie jednej czwartej journali zgłoszonych w bieżącej edycji). W oczy rzuca się przede wszystkim to, że rozkład z 2015 roku ma większy „ogon” po prawej stronie (co zilustrował już Emanuel Kulczycki). Widać, że rozkład z 2014 był w miarę symetryczny wokół średniej, z tym zastrzeżeniem, że czasopism za 9 i 10 było nieco mniej niż tych za 2 i 3 punkty. W 2015 roku pojawiła się wyraźna asymetria o odwrotnym charakterze – mamy wyraźną przewagę liczbową czasopism z wynikiem wyższym niż średni. Takie rozkłady przypominają nieco sytuację, gdy studentom przygotuje się trochę zbyt łatwy test. Mogło się tak stać m.in. dlatego, że eksperci oceniając czasopisma w obrębie własnej dziedziny mieli powody, by przyznawać raczej wysokie noty – trzeba przecież pamiętać, że w parametryzacji konkurują nie tylko same jednostki naukowe, ale całe dyscypliny – zwłaszcza w ramach łączonych GWO (ta dyscyplina, która ma niżej punktowane journale przegrywa w przedbiegach).

Rplot

O ile w roku 2014 wypadało redakcji cieszyć się z uzyskania 6 lub 7 punktów, ponieważ był to wynik ponadprzeciętny, to te same wartości w 2015 roku oznaczały już znalezienie się poniżej średniej. Ta ostatnia w grupie analizowanych czasopism wzrosła bowiem z 5,1 do 8,2. Gdyby wziąć pod uwagę wszystkie pozycje na liście B z roku 2015, w tym nowe, średnia wynosiłaby niewiele mniej – 7,8.

Charakter generalnego kierunku zmiany punktacji pokazuje dokładniej poniższy wykres. Przedstawiony jest na nim rozkład różnicy punktów między 2015 i 2014 rokiem (ponownie – tylko tych czasopism, które były oceniane w ramach listy B w obu latach). Widać tu wyraźnie, że spadków było stosunkowo mało i były one niewielkie. Tytuły straciły od jednego do 4 czterech punktów. Wzrosty wyraźnie przeważały nad spadkami i wyniosły do 11 punktów. Aż 67 czasopism awansowało o 8 lub więcej punktów, wliczając w to spektakularne skoki o 800% (z 1 do 9) czy na drugą stronę skali (z 3 do 14).

Rplot02

Co oznaczają te zmiany w szerszej perspektywie?

(1) Wyraźny wzrost punktacji czasopism krajowych jest tożsamy z relatywnym obniżeniem wagi punktów zdobywanych za publikacje na liście A (gdzie średnia jest bez zmian), czyli w czasopismach zagranicznych posiadających impact factor (wysoką cytowalność). Warto przypomnieć, że w parametryzacji wszystkie artykuły rozpatruje się łącznie (sumując), a w przypadku większości jednostek zdecydowanie dominują publikacje z listy B.

(2) Najwyżej punktowane czasopisma z listy B premiują autorów w tym samym stopniu co te najsłabsze z listy A. Oznacza to, że dobre opinie krajowych badaczy stały się funkcjonalnym ekwiwalentem niższych wartości impact factora.

(3) Jeśli weźmiemy pod uwagę różnicę w trudności publikacji w czasopismach indeksowanych w JCR i krajowych (nawet z powodów translatorskich), to osłabione zostały bodźce do pracy nad tymi pierwszymi.

Kobiety w polityce

Tegoroczne wybory parlamentarne różnią do poprzednich między innymi większą ekspozycją kobiet. W trakcie kampanii prezydenckiej uwagę zwracała kandydatura Magdaleny Ogórek, ale obecnie trzy największe siły polityczne w Polsce postawiły na kobiety jako swoich frontman’ów (czy może raczej frontwoman). Główna rywalizacja wizerunkowa toczyła się w kampanii pomiędzy Beatą Szydło, Ewą Kopacz i Barbarą Nowacką. Czy większa liczba kobiet na pierwszej linii walki kampanijnej oznacza także ich większy obecnie udział w polityce? Sprawdziliśmy czy proporcja kobiet w parlamencie faktycznie wyraźnie zmieniła się i czy ewentualne trendy mają charakter lokalny, czy globalny. Wykresy pokazują odsetek kobiet w niższych izbach parlamentu wybranych państw w latach 1997, 2005 i 2015 (dane pochodzą z zasobów Inter-Parliamentary Union: http://www.ipu.org/wmn-e/classif.htm).

Odsetek kobiet w polskich ławach poselskich w ostatnich 20-stu latach wzrósł bardzo wyraźnie – z 13 do 24,1%. Wciąż jednak na tle reszty Europy polska polityka nie należy do sfeminizowanych. Najwięcej kobiet w izbach niższych ciał ustawodawczych jest w krajach skandynawskich: Szwecji (43,6%), Finlandii (41,5%) i Islandii (41,3%). W wielu innych państwach także rósł ostatnio udział kobiet w polityce, do spektakularnych zmian doszło w Słowenii (wzrost czterokrotny), we Włoszech (wzrost trzykrotny) i na Półwyspie Iberyjskim (prawe dwukrotny w Hiszpanii i ponad dwukrotny w Portugalii). Nawet w najbardziej zmaskulinizowanych parlamentach Europy liczba ta ostatnio wzrastała (w Rumunii w całym okresie z 7,3 do 13,7%, na Węgrzech spadła zaś co prawda między rokiem 1997 i 2005 z 11,4 do 9,1%, ale ponownie nieznacznie wzrosła w ostatniej dekadzie do 10,1%). W największych krajach Europy Zachodniej – Niemczech, Wielkiej Brytanii, Francji – trend był podobny, a odsetek kobiet oscylował wokół 1/3.

europe

W pozostałej części świata zróżnicowanie jest pod tym względem wyraźnie większe i niekiedy zaskakujące. Przykładowo Rwanda i Boliwia mają o wiele bardziej sfeminizowane parlamenty niż Szwecja (większość parlamentarzystów to kobiety), natomiast Stany Zjednoczone podobne są obecnie pod tym względem raczej do Tadżykistanu (więcej kobiet zasiada już w parlamencie Arabii Saudyjskiej). Wśród państw rozwiniętych najmniej zbalansowana reprezentacja płci występuje w Japonii (9%). Kobiety nie zasiadają zaś w parlamentach niektórych państw wyspiarskich na antypodach (Mikronezji, Palau, Tongi, Vanuatu) oraz niektórych państw arabskich (Katar, Jemen). Wśród państw dużych najmniejsze sfeminizowanie legislatury występuje w Iranie (3%) i Nigerii (5%).

world

Globalna tendencja w ostatnich 20 latach jest zbliżona – liczba kobiet w polityce rośnie. Przeciętny wzrost dla 175 państw o których dostępne są dane wyniósł 11,3 punktu procentowego, zatem prawie dokładnie tyle, co w Polsce.

Noworoczne targi zdrowotne

Okres zawierania i przedłużania kontraktów między NFZem a jednostkami opieki zdrowotnej jest tradycyjnie czasem wyjątkowo burzliwym (zwłaszcza dla niektórych pacjentów). Nie wnikając szczegółowo w przedmiot sporu (jest to złożona gra interesów), warto zwrócić uwagę na bardzo nierównomierny zasięg geograficzny przejawów tego konfliktu. W mediach i na stronie Porozumienia Zielonogórskiego można znaleźć mapę, pokazującą jaka część POZów w poszczególnych województwach odmówiła świadczeń na nowych zasadach. My  z kolei postanowiliśmy zrobić takie zestawienie dla miast wojewódzkich (wykres poniżej, dane ze stron oddziałów wojewódzkich NFZ, stan na 3.1.2015), który pozwala pokazać pewien rzadko podkreślany aspekt przebiegu tego sporu.

Odsetek POZów, które zawarły umowęJak widać przejawy wspomnianego konfliktu instytucjonalnego są niezwykle mocno zróżnicowane pomiędzy dużymi miastami Polski (niewielka entropia konfliktu). Spośród 18 stolic wojewódzkich, w 9 świadczenia według nowych zasad zgodziły się prowadzić wszystkie lub prawie wszystkie POZ. Z kolei w 5 innych zakres sprzeciwu świadczeniodawców można ocenić jako duży lub bardzo duży – wynosi od 45 do 67%. Ostatnie cztery miasta – Lublin, Rzeszów, Gdańsk i Opole to przypadki pośrednie, gdzie akcja sprzeciwu ani nie wygasła, ani nie osiągnęła bardzo dotkliwego poziomu (zamkniętych było między 14 a 32% POZów).

Tak duże zróżnicowanie geograficzne stanowi interesującą zagadkę. W przypadku różnic regionalnych kluczowym czynnikiem jest oczywiście siła Porozumienia Zielonogórskiego (między innymi dlatego w Wielkopolsce 100% przychodni zaczęło pracę zaraz po Nowym Roku). Być może da się jednak znaleźć również inne uwarunkowania tych różnic, patrząc właśnie na największe miasta.

Po pierwsze warto zauważyć, że jest to jeden z tych konfliktów, który w niewielkim stopniu związany jest z podziałem politycznym. Można by podejrzewać, że „bunt” lekarzy rodzinnych może być szczególnie silny tam, gdzie w generalnej populacji istnieje niski poziom poparcia dla partii rządzącej, zwłaszcza, że to ona desygnowała Ministra Zdrowia. Nie znajduje to potwierdzenia. Korelacja między zakresem protestu a poparciem dla PO w wyborach 2011 roku jest dość słaba, wynosi zaledwie -0,14. Zresztą rzut oka na mapę nie pozostawia złudzeń, że konflikt ten nie ma jednoznacznego politycznie charakteru – warto pamiętać, że parę lat temu PZ blisko współpracowało z rządem koalicji PO-PSL.

Jest natomiast jeden inny ważny czynnik, który warto chyba podkreślić – jest nim poziom urbanizacji. Korelacja między wielkością miasta wojewódzkiego a zakresem tamtejszego protestu wynosi -0,39 (zob. wykres poniżej). Innymi słowy, w wielkich miastach było znacznie mniejsze prawdopodobieństwo, że po Nowym Roku zamkniętych pozostanie wiele przychodni. Dlaczego tak się stało? Dlaczego to tu PZ miało mniejszą siłę wpływu? Wydaje się, że wyjaśnienie może być związane z wielkością rynku usług medycznych. W dużych miastach, gdzie oferta usług medycznych jest bogata, silniej działają mechanizmy rynkowe. Jeśli jedna przychodnia nie przyjmie pacjentów, weźmie ich inna. Warunki trudne do przyjęcia dla jednego świadczeniodawcy są do zaakceptowania dla innego. W efekcie protestowi trudniej osiągnąć masę krytyczną – dopóki warunki proponowane przez NFZ nie będą zupełnie nieakceptowalne dla zdecydowanej większości, opór względnie szybko się załamie. W mniejszych miejscowościach, zwłaszcza tam gdzie federacja świadczeniodawców ma względnie duże wpływy, protest jest znacznie bardziej dotkliwy, a zarazem skuteczny – mniejsze jest prawdopodobieństwo „wyłamania się” pojedynczych podmiotów. Pokazuje to, jaka jest (ceteris paribus) relacja pomiędzy siłą grup nacisku a stopniem rynkowości otoczenia. To między innymi dlatego w najgorszej sytuacji na początku stycznia znaleźli się pacjenci w Zambrowie i okolicach, a w najlepszej ci w Poznaniu i Warszawie.Urbanizacja a siła nacisku PZ

Frekwencja w wyborach do sejmików

Mimo, że PKW ogłosiła już oficjalnie jak wygląda podział mandatów w wyborach samorządowych do rad i sejmików, to wciąż nie znamy dokładnych danych o liczbie wydanych kart, oddanych głosów i głosach nieważnych. Od dnia wyborów na stronie PKW możemy znaleźć jedynie częściowe dane o frekwencji – z godziny 17:30. W oczekiwaniu na kolejne dane, które mogą być przedmiotem ciekawych analizy, stworzyliśmy przy pomocy prostego, darmowego narzędzia mapę frekwencji głosów ważnych w wyborach do sejmików (poniżej).

Głosy ważne, sejmiki

Liczba oddanych głosów ważnych w wyborach do sejmików województw w stosunku do liczby osób uprawnionych do glosowania (w %)

Jak widać „ważna frekwencja” w wyborach do sejmików (39,7%) była dość odległa od łącznej frekwencji wyborów samorządowych, która – jak podano – wyniosła 47,4%. W województwie opolskim na radnych wojewódzkich oddało głosy niespełna 35% uprawnionych. Sytuacja wygląda podobnie we wszystkich województwach Polski zachodniej. Z kolei w świętokrzyskim padło prawie 45% ważnych głosów. Z ciekawością wypada oczekiwać na dokładne dane o głosach nieważnych, ponieważ dopiero wówczas dowiemy się więcej o wyjątkowych problemach, jakie wystąpiły w trakcie tych wyborów (dotyczyły zarówno procedury głosowania, jak sposobu liczenia głosów oraz ich publikacji). Na razie podano jedynie, że w skali kraju w wyborach do sejmików oddano 17,9% głosów nieważnych. W zestawieniu z liczbą głosów ważnych i liczbą uprawnionych oznaczałoby to, że łączna frekwencja wyniosła nie mniej niż 48,4% (30 356 100 uprawnionych, 12 061 247 głosów ważnych, a zatem około 2 635 045 głosów musiało być nieważnych, co daje razem 14 696 292 głosów oddanych). Liczba ta różni się od oficjalnie ogłoszonej frekwencji o cały punkt procentowy, więc nie może być jedynie rezultatem zaokrągleń.

Takie niewielkie różnice mogą mieć różne przyczyny (np. wyniesione karty, błędy w sprawozdaniach), ale dopiero pełna dostępność danych pozwoliłaby rozwiać różne wątpliwości. Warto bowiem wspomnieć, że geograficzne korelacje dotyczące wyników, frekwencji i błędów są jedną ze standardowych procedur wykrywania nieprawidłowości wyborczych, co ilustrują analizy przeprowadzone przez Kobaka, Szpilkina i Pszenicznikowa dla wyborów 2011-12 w Rosji (zob. http://arxiv.org/pdf/1205.0741.pdf). Istotnym elementem monitoringu wyborów jest więc pełna dostępność danych o ich przebiegu.