Sondaże przedwyborcze i efekt peletonu

Poniżej przyglądam się pewnym tendencjom, które pojawiły się w ostatnich latach w sondażach przedwyborczych. Podstawowy wniosek, jaki można wysnuć, mówi, że wzrosła zbieżność predykcji sondażowych, ale spadła ich łączna jakość. Wydaje się, że można to wyjaśnić “efektem peletonu”.

Wyniki badań przedwyborczych przynoszą nam pewną wiedzę zarówno o wynikach nadchodzących wyborów, jak i o przemianach w sektorze badania opinii. Ten wpis jest głównie o tych drugich. Swoje obserwacje oparłem na traktowanych porównawczo sondażach przedwyborczych z lat 2011, 2015, 2019 i 2023 (dane znormalizowane1).

TL;DR: Ludzie nie zmieniają poglądów tak szybko, jak skaczą słupki – waga kampanii jest przeceniana; z wyników sondaży da się wyczytać jak zmienia się sama technologia tego fachu; sondaże “czytają” inne sondaże.

Zacznijmy od tego, że doszukiwanie się trendów w traktowanych łącznie sondażach w czterech ostatnich wyborach było głównie rzeźbieniem w szumie. Jeśli coś było widać, to systematyczne niedoszacowanie jednych komitetów i przeszacowanie innych – właśnie to pokazuje wykres powyżej. Są na nim odchylenia od wyniku wyborów. Tu i dalej konsekwentnie pomijam CBOS z powodów, które streszczam w przypisie2.

Od 2011 roku stabilnie przeszacowane były duże partie i “stare marki” (w 2011 SLD, w 2015 PO, a w 2019 PiS), a niedoszacowane – „nowe marki” o mniejszym poparciu (w 2011 Ruch Palikota, w 2015 Kukiz i .Nowoczesna, w 2019 Koalicja Polska i Konfederacja, a w 2023 Trzecia Droga). Są to względnie regularne prze- i niedoszacowania. Realnie nie było silnego klarownego „trendu” (patrz wykres powyżej).

Szeroko komentowane międzysondażowe „skoki” poparcia (zwykle ze wskazaniem „źródeł wzrostu/spadku” – co jest zawsze tak urocze) były przede wszystkim artefaktami. Owe artefakty miały najprawdopodobniej dwojakie źródło: sam błąd pomiaru, jak i strategię badawczą sondażowni. Pokażę to na liczbach, ale najpierw musicie przecierpieć akademickie przynudzania na temat wyliczania błędów losowych.

Przy wynikach sondaży podawany jest często „maksymalny błąd oszacowania”. Prawie zawsze (zawsze?) jest zwyczajnie niepoprawny, ponieważ ustala się go jedynie na podstawie liczebności próby. Jest on zaniżony, ponieważ nie uwzględnia paru rzeczy. Nie chodzi tu jedynie o błędy systematyczne, które mają wiele źródeł: brzmienie pytań, ich kolejność, korelacje odmów z poglądami itd. (nie będę brnął w ten wątek – te błędy są i tyle, trzeba mieć ich świadomość i starać się je minimalizować). Już sam błąd losowy jest większy niż podawany. Dzieje się tak, ponieważ wszystkie (prove me wrong!) ośrodki badawcze stosują kwotowanie lub wagi analityczne. W przypadku pierwszego w ogóle nie powinno się liczyć błędu jak przy SRS, w przypadku drugiego jest on wyraźnie większy (zmniejsza się effective sample size).

Tzw. „maksymalny błąd oszacowania” łatwo obalić patrząc na jego weryfikację wyborczą. Statystycznie tylko 5 oszacowań punktowych na 100 powinno odchylać się o więcej niż dwa błędy standardowe od wyniku PKW. W ciągu 10 dni przed wyborami w 2019 odchyleń tych było 44 na 85! (zaznaczone na czerwono w tabelce poniżej)

Tylko nie tłumaczcie tego „trendem”, proszę…

Oczywiście niektórzy pomylili się bardziej niż inni. Jednak żadna pracownia nie była stabilnym liderem predykcji na przestrzeni wielu lat – sukces nie jest więc replikowalny. Nie da się jednoznacznie wskazać “najlepszej kuchni”. Tej “kuchni” przede wszystkim praktycznie nie znamy. Publikowane notki zawierają jedynie informacje szczątkowe – nic tam nie ma o doborze respondentów, response rate, ważeniu, za mało jest o filtrowaniu. Trudno więc ocenić realne obciążenie poszczególnych wyników. Informacje metodologiczne traktowane są w znacznej mierze jak sekret korporacyjny, a nie sposób na budowanie społecznej wiarygodności. (Tym elementem powinny próbować się wyróżnić większe pracownie – zwłaszcza w kontekście tendencji o których napiszę dalej.)

Czy bez wiedzy insiderskiej da się coś powiedzieć o współczesnej “kuchni”? Wydaje mi się, że tak.

Tu wróćmy do ważenia. Można je przeprowadzić wg szeregu różnych kryteriów, np. cech społeczno-demograficznych, retrospektywnych deklaracji ws. wcześniejszych głosowań itp., a dokładny wybór sposobu ważenia i filtrowania jest zawsze w pewnym stopniu arbitralny. To powoduje, że nie mamy przeważnie do czynienia z “czystymi” sondażami (w sensie surowego rozkładu odpowiedzi), a z sondażowymi prognozami (dane przetworzone ekspercko). Co ważne – komponent arbitralny pozwala uwzględnić w nich dodatkowe informacje kontekstowe… w tym średnią wyników innych pracowni.

Update: Poniżej przedstawiam przeciętne odchylenie pojedynczego wyniku sondażu od ich łącznej średniej w miesiącu poprzedzającym wybory parlamentarne (tylko komitety “ponadprogowe”). Jak widać, od 12 lat rozrzut wyników systematycznie zmniejsza się.

Rosnąca zbieżność wyników sugeruje, że pracownie starają się lekko nawigować względem siebie, co jest decyzją względnie racjonalną biznesowo, zwłaszcza w przypadku ośrodków robiących tanie badania, świadomych słabości własnych danych. jest to po prostu optymalizacja jakości do kosztu z wykorzystaniem darmowego “surowca”. Większość sondaży zamawiają media, im zależy na klikalności/oglądalności, ale nie są w stanie zapłacić kilkuset tysięcy złotych w każdy weekend. Powstaje więc wiele sondaży względnie tanich, o niższych standardach, niż akademickie. Reprezentatywność tych sondaży jest względnie niska. Dostępne są jednak średnie z wielu sondaży, czyli ekwiwalent “powiększenia próbki”. Dlaczego nie skorzystać?

Jak wie każdy zawodowy kolarz, nie oglądanie się na resztę peletonu jest ryzykowne. Jazda z „peletonem” stanowi rodzaj ubezpieczenia. Większa zbieżność powoduje, że cały sektor sondażowy pospołu wygra lub przegra. Kto jest w stawce, ten może przynajmniej nie wypadnie z rynku. Co więcej, uwzględnianie wyników innych sondaży jest jak jechanie za plecami konkurenta – trochę lżej się pedałuje.

O ile “efekt peletonu” (tzw. herding) jest racjonalny z punktu widzenia przynajmniej części pracowni badawczych, to niekoniecznie jest on korzystny dla konsumentów sondaży. Większa spójność wyników tworzy pozór pewności prognozy. Gdyby nie wspomaganie zbieżności wyników (zwłaszcza większych partii), bardziej wiarygodna byłaby też średnia z wielu sondaży. Wykorzystywanie informacji kontekstowej dokłada bowiem nowe źródło błędu systematycznego. Wracając do metafory kolarskiej – często peleton wjeżdża na metę jako pierwszy, ale nie raz zdarza się, że oglądanie się na siebie nawzajem prowadzi do przesadnego obniżenia wspólnego tempa. Wówczas peleton przegrywa.

Źródło: wiktionary.org

Jakościowej korekty prognoz – jeśli nastąpi – można oczekiwać dopiero w ostatnim tygodniu przed wyborami, tuż przed klarowną weryfikacją jakości oszacowań. Wszelkie wcześniejsze odchylenia można tłumaczyć “trendami poparcia”, które są w zasadzie nieweryfikowalne.

„Korekta” na ostatniej prostej nie zawsze jest skuteczna (choć zakładam, że wszyscy dokładają wówczas większych starań), ale okazała się taka w 2015 roku. Tu jednak znajdujemy dodatkową przesłankę, aby sądzić, że trafne ważenie odgrywa bardzo dużą rolę w poprawnym szacowaniu wyników. W maju 2015 odbyły się wybory prezydenckie. Retrospektywne pytanie o sposób głosowania w maju były jesienią znacznie lepszą „kotwicą” kalibracji wag, niż gdy czyni się to w oparciu o deklarację głosowania cztery lata wcześniej. Po prostu fakt, że ktoś zadeklarował głosowanie na Dudę/Komorowskiego był znakomitym predyktorem głosowania w październiku. To dlatego udało się wówczas stworzyć lepsze oszacowania. W tygodniu przed tymi wyborami na 66 oszacowań punktowych (11 sondaży * 6 komitetów z > 5pp) powyżej błędu losowego znalazło się jedynie 15 (wciąż więcej niż oczekuje statystyka indukcyjna, ale porównajcie to z ponad połową przekroczeń w 2019!)

15 X poznamy nie tylko zwycięzcę wyborów, ale również zwycięzcę prognoz. Czy będzie to zwycięstwo wypracowane na podstawie finezyjnej metodologii, żelaznej dyscypliny i pełnej poświęceń pracy ankieterów? Mam nadzieję. Ale trudno będzie wykluczyć zwykły fart. Socjologia w zakresie prognoz rywalizuje raczej z meteorologią czy sejsmologią, a niż z astronomią. Z dwutygodniowym wyprzedzeniem bardzo trudno przewidzieć czy potrzebny będzie parasol.

Na koniec niezbędny jest DISCLAIMER: Nie oznacza to wcale, że sondaże i prognozy są bezwartościowe i że nic nie wiadomo. Przeciwnie, dzięki sondażom wiemy całkiem sporo i możemy być świadomymi wyborcami. Ale warto znać specyfikę tego “barometru” i brać na nią poprawkę.

PS. Wiadomo już, które sondaże okazały się najbliższe wynikom wyborów (przy czym można to mierzyć na kilka różnych sposobów):
https://x.com/spoleczenstwopl/status/1732776755264405598?s=20

Przypisy:

  1. Wyniki podawane przez poszczególne pracownie nie są bezpośrednio porównywalne, choćby ze względu na rozbieżne odsetki odpowiedzi “nie wiem”. Żeby zestawiać je między sobą i z PKW, powinny sumować się do 100. Właśnie temu służy normalizacja. Warto zauważyć, że czym wyższy odsetek odpowiedzi “nie wiem”, tym łatwiej jest później pracowni bronić się, że to właśnie w niej zaszyte były brakujące punkty procentowe. Skoro i tak stosowane są wagi, a niezdecydowani są dopytywani o poglądy, prognozy powinny to uwzględniać. ↩︎
  2. CBOS od dawna mierzy się z silnym house effect, którego jest świadom i którego mimo wszystko nie koryguje. Zachowuje natomiast względnie spójną metodologię, dość istotną z punktu widzenia śledzenia trendów – co jest pewną wartością tych badań (#reliablebiaspride). Powoduje to, że CBOSu nie należy traktować jak podmiotu z rynku sondaży przedwyborczych. Jego nadrzędnym celem nie jest prognoza wyniku PKW. Waży tylko na demografikach. Nie ma medialnych zleceniodawców, ale mecenasa, który (jak sądzę) za bardzo nie życzy sobie jakichkolwiek nowinek. ↩︎

Inflacja w nauce

W roku 2021 Minister Edukacji i Nauki trzykrotnie zmieniał zawartość wykazów czasopism naukowych. Wskutek tych zmian łączna liczba punktów przyznawanych za artykuły wzrosła w poszczególnych dyscyplinach tak, jak przedstawia to poniższy wykres. Wyższą punktację zyskały w szczególności krajowe czasopisma naukowe. Wprowadzone zmiany działały wstecz, zatem stanowiły nie tyle sygnał dla autorów, gdzie warto wysyłać teksty (zwiększając konkurencję), co rodzaj redystrybucji – zamianę porządku przyznawania kategorii naukowych (a wraz z nimi wysokość finansowania i uprawnienia do nadawania stopni naukowych) w samej końcówce okresu objętego oceną (2017-2021).

Kręta ścieżka kobiet ku STEM

Jakiś czas temu pisaliśmy o wynikach badań nad płacowymi konsekwencjami wyboru ścieżki edukacyjnej (a w konsekwencji zawodowej). Najlepiej płatna praca dotyczyła absolwentów kierunków inżynieryjnych i innych bezpośrednio związanych z matematyką. Przyjęło się określać je mianem sektora STEM (science, technology, engineering, mathematics), będącego filarem tzw. nowej gospodarki.

Pomimo zmian, jakie w ostatnich dekadach zachodzą w położeniu społecznym kobiet, niektóre obszary edukacji i rynku pracy, w tym właśnie STEM, nadal są wyraźnie zdominowane przez mężczyzn. W konsekwencji epoka społeczeństwa informacyjnego zastępuje jedne statusowe nierówności między płciami innymi. Tym razem przyczyną nie jest jednak formalne zamknięcie zawodów przed kobietami, ale w znacznej mierze ich własny wybór. Nasuwa to szereg pytań o proces selekcji do STEM – czy kształtuje ją w sposób ścisły różnica uzdolnień? Kiedy właściwie zapadają kluczowe, indywidualne decyzje o ścieżce kariery?

Przez długi czas sądzono, że przyczyną odmiennych ścieżek profesjonalnych była po prostu różnica umiejętności matematycznych. Tego obrazu nie potwierdzają jednak szczegółowe badania nad osiągnięciami szkolnymi. Polskie dziewczynki nie wypadają gorzej niż chłopcy w badaniach porównawczych, takich jak PISA. Ale wzory te można przeanalizować nie tylko w oparciu o dane wywołane (sztuczna sytuacja pomiarowa), ale również bezpośrednio w oparciu o dane egzaminacyjne – i to “test wysokiej stawki”, jakim jest matura. Na tych właśnie danych – wynikach egzaminów ponad ćwierć miliona maturzystów w każdym z analizowanych lat – oparliśmy swoje badanie, które zostały niedawno opublikowane w dwóch artykułach: Filtered out, but not by the skill: the gender gap in pursuing mathematics at a high-stakes exam (2019, Sex Roles) oraz The net effect of ability tilt in gendered STEM-related choices (2020, Intelligence). Wyniki streścił i opublikował m.in. portal Yahoo Finance, wypada przedstawić je w przystępnej formie również polskim odbiorcom.

Matura jest kluczowym progiem w karierze szkolnej, ponieważ decyduje o przejściu od edukacji o charakterze generalnym do edukacji o charakterze profesjonalnym. Siła wpływu wykształcenia wyższego objawia się zaś choćby w tym, jak rzadko spotkamy prawnika po studiach informatycznych i programistę po prawie. Generalnie rzecz biorąc – kluczowe, najwyżej płatne profesje obsadzane są na podstawie certyfikacji będącej pochodną wyboru i przebiegu studiów. W tej “linii produkcyjnej” nie mniej istotne jest to, że przepustką na określone studia jest właśnie matura.

Interesowało nas czy dziewczyny i chłopcy mają takie same szanse przystąpienia do rozszerzonej matury z matematyki. Mając poważne intencje studiowania na kierunkach związanych z matematyką, trudno nie zdecydować się na taki egzamin. Jego wynik jest po prostu wyżej punktowany w trakcie rekrutacji np. na większość kierunków Politechniki Warszawskiej. Ze względu na wysoką konkurencję na kierunki prowadzące do lukratywnej pracy w STEM, egzamin z tego przedmiotu można potraktować jako rodzaj “biletu wstępu”. A już na pewno jest on wskaźnikiem planów i aspiracji dotyczących dalszej kariery.

Co ciekawe, polska matura tworzy sytuację optymalną, niemal eksperymentalną do badania wpływu umiejętności na wybór ścieżki STEM. Jej elementem jest bowiem obowiązkowa matura podstawowa z matematyki. Różni się ona od rozszerzonej przede wszystkim zakresem programu i pozwala sprawdzić na ile poszczególni uczniowie byli w stanie przyswoić sobie “kanon” umiejętności matematycznych. Można zasadnie przyjąć, że umiejętności w zakresie kanonu podstawowego są w istocie predyktorem umiejętności matematycznych w ogóle. Czym lepiej uczeń zdaje maturę podstawową, tym lepiej – statystycznie rzecz biorąc – zdaje również rozszerzoną. Korelacja między tymi wynikami wynosi około 0,9, a więc jest niezwykle silna. Co więcej, pamiętajmy, że badanie nie dotyczy skrajów rozkładu talentów matematycznych, ale znacznie szerszej grupy. Bardzo znaczący zakres pracy w zawodach STEM opiera się na rozszerzeniu kilku umiejętności bazowych, a nie na przejawach “geniuszu matematycznego” przy rozwiązywaniu problemów rutynowo wpisanych w pracę (począwszy od organizacji produkcji, przez pisanie kodu, a skończywszy na analizie marketingowej).

Miryam Mirzakhani (źródło: YouTube)

Co pokazały nasze analizy? Zacznijmy od tego, że według danych z matur z ostatnich lat młodzi mężczyźni ponad dwukrotnie częściej przystępują do rozszerzonej matury z matematyki. Już sama ta różnica pozwala zrozumieć dysproporcję płci na kierunkach inżynieryjnych. Kobiety masowo “wypadają z gry” już na etapie szkoły średniej. Można by przypuszczać, że część tej różnicy objaśni odmienny poziom wyników z matematyki. Nic bardziej mylnego! Kiedy podda się statystycznej kontroli wynik z matury obowiązkowej – co oznacza, że model statystyczny czyni porównania pomiędzy osobami o tym samym poziomie umiejętności – luka między kobietami i mężczyznami staje się w istocie większa. Okazuje się, że wyższe umiejętności matematyczne nie zmniejszają dysproporcji w skłonności do wyboru ścieżki matematycznej. Brzmi nieco paradoksalnie, prawda?

Dlaczego jednak tak się właśnie dzieje? Co stoi za tym, że wzrost umiejętności nie zmniejsza luki w skłonności do pogoni za karierą w STEM? Dosłownej, bezpośredniej odpowiedzi nie znajdziemy w “suchych” wynikach z matury. Możemy w nich jednak znaleźć pewne istotne poszlaki. Otóż drugą rzeczą, której się przyjrzeliśmy, były wyniki maturalne z języka polskiego. To, że wysokie umiejętności humanistyczne (zwłaszcza kompetencje językowe) kierowały uczniów ku ścieżkom na studia humanistyczne i społeczne – nie jest specjalnym zaskoczeniem. Ale ważne jest to, że owe umiejętności “odciągają” kobiety znacznie silniej niż mężczyzn, a jednocześnie jest znacznie więcej kobiet, które łączą ponadprzeciętne zdolności matematyczne z ponadprzeciętnymi zdolnościami humanistycznymi. Tworzy to pewien paradoks. Jednym z powodów odpływu ze ścieżku ku STEM kobiet są względnie wysokie dodatkowe umiejętności i tym samym szerszy wachlarz opcji kariery. Ten większy wybór działa – to istota paradoksu – na niekorzyść kobiet.

Prawdopodobieństwo wyboru matematyki na maturze rozszerzonej (oś Y)
w zależności od wyniku z egzaminu obowiązkowego (oś X, wartości standaryzowane)

Pamiętajmy bowiem, że ludzie wybierają ścieżki edukacji i pracy nie tylko porównując się z innymi, ale także porównując się “wewnętrznie” – definiując swoje “słabe” i “mocne” strony. Cudzysłów stąd, że ta ocena nie zawsze jest rzetelna i obiektywna, często nie przystaje też do relacji ryzyka do względnych korzyści (w tym płacowych) z danego poziomu zdolności. Zauważmy, że ktoś o zupełnie przeciętnych umiejętnościach matematycznych, ale kompletnym braku innych uzdolnień – jeśli zdecyduje, aby rozpocząć studia – z dużym prawdopodobieństwem wybierze kierunek techniczny, inżynieryjny lub inny związany z matematyką. Wśród tych osób więcej jest z kolei mężczyzn.

Z instytucjonalnego punktu widzenia znaczenie odgrywa także względnie sztywny system edukacji profilowanej w liceach. Pamiętajmy, że wyboru ścieżki przedmiotowej formalnie dokonują absolwenci podstawówek. Jest to zatem względnie wczesna decyzja o dużej wadze. Wiedza o własnych uzdolnieniach i ich wartości na rynku pracy, a także plany kariery są w wieku 15 lat wciąż dość mgliste, zaś nie wszyscy rodzice są kompetentnymi doradcami edukacyjnymi. System szkolny powinien w procesie “sortowania” uczniów w większym stopniu brać to pod uwagę. Warto mieć na względzie m.in. fakt, że o nastawieniu do przedmiotu decyduje w dużej mierze nauczyciel w szkole podstawowej, a z punktu widzenia większości uczniów to, na jakiego trafiają, jest procesem losowym.

Oczywiście sprawa wyboru kariery jest bardzo złożona i wzięliśmy tu w nawias cały zestaw czynników kulturowych, subtelnych “szturchnięć” w procesie edukacji, stereotypów czy lęków związanych z wejściem do zmaskulinizowanego zawodu. Nie zmienia to faktu, że statystycznie rzecz biorąc, wiele kobiet, które spokojnie mogłoby trafić do pracy w sektorze STEM, “odpływa” do innych ścieżek ze względu na inną, bardziej wyrównaną charakterystykę profilu umiejętności. Ryzyko, że stracimy talent formatu Skłodowskiej jest statystycznie większe, niż to, że stracimy talent na miarę Polaka, mężczyzny, który zdobył Nobla w naukach ścisłych…

…jak mu tam było? 😉

Źródło: historia.org.pl

Impakt rozdziałów, czyli zbiorówki kontratakują

Jednym z elementów wdrażanej właśnie reformy nauki i szkolnictwa wyższego jest modyfikacja formuły oceny jednostek naukowych. Zmian szczegółowych jest sporo, jednak uwagę zwraca przede wszystkim fakt, że zmienia się wyraźnie sposób, w jaki brane będą pod uwagę: autorstwo monografii, redakcja monografii i autorstwo rozdziału w monografii. Przedstawione w sierpniu i wrześniu projekty rozporządzeń z jednej strony selektywnie przesuwają limity na te elementy dorobku naukowego, z drugiej – zmieniają skalę ich punktacji. Przeskakując od razu do konkluzji – zwłaszcza w naukach społecznych i humanistycznych może to się okazać ważny „game changer”. Tylko czy zmiana ta będzie na lepsze czy na gorsze?

Kiedy rozdział wchodzi za mocno…

Zacznijmy od tego, że projekty rozporządzeń proponują, by w ramach ocenianego dorobku autorstwo monografii zwartych oraz redakcje monografii zbiorowych stanowiły nie więcej niż 20% (w porównaniu do dotychczasowych 40%; w naukach przyrodniczych i większości pozostałych limit ma wynieść 5%, ale tam takie publikacje mają zwykle niewielkie znaczenie). Co istotne §7 pkt.13 projektu Rozporządzenia w sprawie ewaluacji… nie wspomina o rozdziałach, więc ich liczba w ankiecie parametryzacyjnej będzie limitowana jedynie zapisem w §7 pkt.7. W praktyce oznacza to, że rozdziały będę mogły stanowić do 2/3 całego dorobku w dyscyplinie.

Monografie mają zostać podzielone na trzy klasy według nieznanej na razie klasyfikacji wydawców. W omawianych tu dziedzinach za autorstwo będzie przyznawane 20, 80 albo 300 punktów, za redakcję 5, 20 albo 150, a za autorstwo rozdziału – 5, 20 albo 75. Jako, że na pierwsze dwa elementy obowiązuje dość niski limit, to trzeci okazać się może kluczowy. Przypomnijmy jednocześnie, że za autorstwo artykułów w czasopismach objętych ministerialnym programem „Wsparcie dla czasopism naukowych” (ma on objąć nie więcej niż 500 najlepszych) przyznawane będzie 20 punktów, natomiast za autorstwo artykułów w czasopiśmie znajdującym się w drugim kwartylu cytowalności (wg Scopusa) – 70 punktów. Sprawia to, że rozdziały w książkach należących do ministerialnych wykazów staną się „funkcjonalnym odpowiednikiem” dobrych krajowych i zagranicznych czasopism.

Dane

Co jednak wiemy o ich realnym naukowym wpływie? Czy wydawnictwa da się „impaktować” podobnie jak czasopisma? Zerknijmy w dostępne dane. Gotowy zbiór przygotował w ramach swojego projektu zespół dra Daniela Torres-Salinasa (zob. Torres-Salinas et al. 2013; 2014; także: projekt EC3Metrics). Są to wskaźniki stworzone w oparciu o dane na temat cytowalności książek z bazy Thomson Reuters. Dane dotyczą okresu 2009-2013 i zostały przygotowane na podstawie prawie pół miliona rekordów (publikacji). Kompletność i trafność informacji nt. książek w bazie Thomson Reuters była przedmiotem dość wszechstronnej krytyki (m.in. dominacja angielskiego, nierówna reprezentacja dyscyplin), jednak sama wielkość bazy czyni ją w jakimś stopniu reprezentatywną. W oparciu o te dane hiszpański zespół stworzył listę 254 wydawnictw naukowych i określił wartości średniej cytowalności. Jednak wiele z tych wydawnictw dotyczyła znikoma liczba publikacji, dlatego dokonałem dalszego filtrowania danych, pozostawiając jedynie te wydawnictwa, w przypadku których liczba pozycji w bazie była wyższa niż 350, a dyspersja ich cytowalności pozwalała wnioskować, że średnia cytowalność jest istotnie wyższa od zera. W efekcie na placu boju zostało 68 wydawnictw, od wielkich komercyjnych graczy jak Routledge, przez mniejsze jak Karger Publishing, po wydawnictwa uniwersyteckie. Z pewnością nie jest to lista aktualna i wyczerpująca, ale traktuję ją jako próbkę dostatecznie wiarygodną, aby powiedzieć coś na temat wzorów dotyczących cytowalności książek.

Dobry i zły pieniądz?

Punkty na przedstawionym niżej wykresie to wydawnictwa naukowe. Błękitne to wydawnictwa uniwersyteckie, a granatowe to pozostałe. Wielkość punktów jest proporcjonalna do liczby pozycji (monografii zwartych i rozdziałów) w zbiorze Torres-Salinasa et consortes. Jak widać, nie obserwujemy wyraźnego wzoru, który sugerowałby, że wydawnictwo, które wydaje ważne i szeroko cytowane książki naukowe, wydaje także bardzo dobre zbiorówki. Korelacja cytowalności dwóch typów publikacji wynosi zaledwie 0,08 (ilustruje to dodana na wykresie linia regresji). Co typowe dla tego typu danych, na lekkie nachylenie linii pracują głównie obserwacje odstające (“lewary”). Największa przeciętna cytowalność książek osiągnęło Princton University Press, a jednak przeciętna cytowalność 5’608 rozdziałów w wydanych przez nich zbiorówkach to zaledwie 0,03. U komercyjnych gigantów też bywa bardzo różnie. Elsevier ma znacznie lepiej “widoczne” niż Springer książki, ale słabiej “widoczne” rozdziały. Z dwoma wyjątkami,  wydawnictwa cechują się też większą dyspersją cytowalności (SD), niż jej średnią wartością.

Cytowalność monografii i rozdziałów wg wydawnictw (opracowanie własne; źródło danych: Torres-Salinas et al. 2014)

Kluczowe jest być może to, że istnieje dramatyczna różnica między oddźwiękiem naukowym jaki mają książki, a tym, jaki mają rozdziały. Biorąc pod uwagę łączną liczbę kilkuset tysięcy pozycji uwzględnionych w bazie naukowców z Hiszpanii, do monografii odwoływano się przeciętnie 4,25 razy, a do rozdziału 0,22 razy (to dla wszystkich dyscyplin łącznie, w naukach społecznych i humanistycznych oba wskaźniki były niewątpliwie niższe). “Impakt” rozdziału był zatem przeciętnie prawie 20 razy mniejszy niż zwartej monografii.

Czy polska nauka zachoruje na nową odmianę punktozy?

Jeśli naukowa waga rozdziału jest 20 razy mniejsza niż monografii, to czy rozdziały będą również 20 razy mniej istotne w ocenie dorobku naukowego? Według proponowanych przez MNiSW regulacji za rozdział miałaby być przyznawana czterokrotnie niższa liczba punktów niż za monografię. Jednak realne znaczenie obu elementów wcale nie przedstawia się jak 1 do 4, przede wszystkim ze względu na wspomniane na wstępie limity. Skoro profil osiągnięć publikacyjnych może w odpowiednich okolicznościach wyglądać następująco: 20% książek zwartych (i redakcji), 47% rozdziałów, 33% artykułów, to dobrze punktowane rozdziały mogą się okazać kluczem do dobrego wyniku oceny. Warto także pamiętać, że “próg wejścia” do zagranicznych wydawnictw jest w przypadku rozdziałów znacznie niższy niż w przypadku zwartych książek (w analizowanych danych rozdziałów było 10 razy więcej niż książek). Łącznie ustawia to w pewnym stopniu “strategią wygrywającą” przyszłą parametryzację, choć wiele zależy jeszcze od tego, jak wyglądać będą wykazy KEN. W zależności od tego jak zostaną one sprofilowane, mogą bardziej lub mniej przypominać strukturę impaktów zastosowaną w przypadku artykułów w czasopismach.

ps. Wpis powstał w GESIS w Kolonii. Kiedy zapytałem niemieckich kolegów o rolę, jaką w ocenie dorobku przypisuje się w niemieckiej nauce rozdziałom w pracach zbiorowych, usłyszałem: (a) “Chapters? Nobody  cares about chapters!”; (b) “It doesn’t count, unless it’s either Oxford, Cambridge or one of the best US universities”. Takiej aktywności publikacyjnej nie uważa się za w pełni kompetytywną.

Jak dyplom wpływa na dochód?

Istnieją różne motywacje kontynuowania nauki na studiach wyższych, ale perspektywa podwyższenia dochodu jest z pewnością jedną z ważniejszych. Od kilku lat, dzięki programowi MNiSW Ekonomiczne Losy Absolwentów (ELA) mamy możliwość śledzenia tego, jak młodzi ludzie radzą sobie na rynku pracy po uzyskaniu dyplomu. Na tle innych badań dochodów, wyniki zawarte w zbiorze danych ELA są wyjątkowe, ponieważ pochodzą z rejestrów ZUS, a nie z badań sondażowych. Charakteryzują się więc znacznie większą dokładnością i pokryciem całej populacji. ELA zawiera kilkanaście wskaźników charakteryzujących aktywność zawodową po ukończeniu poszczególnych kierunków studiów, ale nas interesować tu będzie mediana dochodu uzyskiwanego rok po ukończeniu studiów. Z jednej strony okres 12 miesięcy to stosunkowo mało, aby absolwent ustabilizował swoją sytuację zawodową, ale z drugiej uchwycenie dochodu w tym właśnie momencie pokazuje położenie na rynku pracy, będące bezpośrednim następstwem studiów oraz – co wiemy z innych badań – jest wyraźnie skorelowane z dochodem uzyskiwanym w późniejszych etapach kariery. Dane analizowane poniżej dotyczą absolwentów z 2015 roku.

Co pokazują wykresy?

Na poniższym wykresie prezentujemy fragment tego zróżnicowania. Skupiliśmy się na najpowszechniej dostępnych kierunkach studiów oraz uczelniach z głównych ośrodków akademickich (w istocie z miast wojewódzkich oraz dodatkowo z Gliwic i Częstochowy). Ograniczyliśmy się też do absolwentów studiów dziennych drugiego stopnia lub jednolitych. Wszystko to miało na celu większe wystandaryzowanie (porównywalność) rezultatów.

Wartości przedstawione na wykresie pochodzą z prostego modelu regresji i pokazują o ile dochód jest większy (wartości z plusem) lub mniejszy (z minusem) od wartości referencyjnej. Tę ostatnią stanowił poziom dochodu uzyskiwany rok po zakończeniu dowolnych innych studiów drugiego stopnia (czyli kierunków innych niż, te wymienione na wykresie – w praktyce chodzi o kierunki rzadziej obecne na uczelniach). Wartość ta wynosi 2.442 zł brutto (mediana dochodu ze wszystkich źródeł). Nie wchodząc w statystyczne szczegóły trzeba dodać, że to są wartości uzyskane przy kontroli ośrodka akademickiego (więc niejako niezależne od premii za konkretną uczelnię i lokalizację miejsca pierwszej pracy).

Wykres 1. Przeciętna premia dochodowa za ukończenie kierunku

Zarabiać jak filolog ugrofiński

Pierwszą obserwacją płynącą z danych ELA jest ogromne zróżnicowanie dochodów absolwentów poszczególnych kierunków. Nie jest zaskoczeniem to, że w czołówce rankingu kierunków uporządkowanych pod względem medianowego dochodu znajdują się absolwenci nauk technicznych: informatycy, absolwenci kierunku automatyka i robotyka, czy mechanika i budowa maszyn. Zaskakuje raczej to, że tuż za nimi plasują się absolwenci (w zasadzie głównie absolwentki) pielęgniarstwa – znacznie wyżej niż kierunku lekarskiego, choć nie jest to porównanie w pełni rzetelne (wejście w zawód lekarski poprzedzone jest stażem i rezydenturą). Wysokie medianowe zarobki uzyskiwane tuż po studiach w zawodach związanych ze wspomnianymi kierunkami wiążą się z dużym bieżącym popytem na takie kwalifikacje. Gdybyśmy przyjrzeli się szczegółowo również pozostałym, rzadziej pojawiającym się w ofercie uczelni kierunkom, to znajdziemy wśród nich również inne, których absolwenci już na staracie kariery zarabiają przeciętnie ponad 5.000 zł (np. telekomunikacja, metody ilościowe w ekonomii). Rynek hojnie wynagradza również rzadkie, wąskie specjalizacje humanistyczne, takie jak niektóre filologie (ugrofińska na UW daje rok po jej zakończeniu przeciętnie 5.371 zł).

Dolna część wykresu zawiera głównie kierunki, które można określić jako „para-akademickie” czy „zawodowe”, np. kosmetologia, turystyka i rekreacja, fizjoterapia. Prowadzą one przeważnie do pracy w sektorze usług osobistych, która nie wiąże się z tak wysokimi zarobkami jak w zawodach specjalistycznych. Obok nich pojawiają się kierunki społeczne i humanistyczne, które z kolei oferują wiedzę mniej sprofilowaną zawodowo. Choćby z tej racji wejście na rynek pracy jest dla ich absolwentów względnie trudniejsze (zwłaszcza w wymiarze dochodu). Dodatkowo wiele z tych kierunków ma charakter masowy, więc wytwarzają dużą podaż przy względnie niskim popycie. Dane ELA pokazują również, że odsetek absolwentów, którzy mieli za sobą doświadczenie bezrobocia w rok po zyskaniu dyplomu w dużej mierze oddaje to, co widać na wykresie 1. Ci, który nie wpadli w bezrobocie, znaleźli zatrudnienie poniżej kwalifikacji. Czas spędzony na rynku pracy będzie zapewne działał na ich korzyść, jednak dodatkowe doświadczenie nie zamknie obserwowanej luki płacowej.

Nie tylko kierunek, ale także miasto

Wybór kierunku studiów silnie wpływa na dochód, ale siła dyplomu różni się również pomiędzy ośrodkami akademickimi. Również te zróżnicowania są spore i potwierdzają to, co o nierównościach dochodowych w Polsce wiadomo od dawna (wykres 2. – ze statystyczną kontrolą kierunków). Siła „nabywcza” dyplomów jest największa w przypadku politechnik i uniwersytetów w dużych miastach – Warszawie, Gdańsku, Krakowie czy Wrocławiu. Przeciętny dochód absolwenta spada wraz z peryferyjnością uczelni. Absolwenci uczelni kieleckich, białostockich, czy rzeszowskich zarabiają (po tych samych kierunkach) kilkaset złotych mniej, niż studenci z dyplomem uzyskanym w dużych warszawskich uczelniach. Na przykład absolwent informatyki w Warszawie dostanie przeciętnie 5.800 zł brutto, a z Białegostoku 4.500 zł. Nie ma wątpliwości, że za różnice te odpowiada nie tylko jakość edukacji, ale również specyfika lokalnych rynków pracy. Relacja pomiędzy studiami a pracą nie sprowadza się jedynie do faktu, że absolwenci uczelni w mieście A najczęściej podejmują pracę w mieście A. Znaczenie mogą mieć również takie czynniki jak rozeznanie w ofertach pracy, czy doświadczenia zawodowe zdobyte jeszcze w czasie nauki (np. staże). Gdybyśmy chcieli rzetelnie orzekać o różnicy kompetencji stojącej za dyplomami tego samego kierunku w różnych ośrodkach, powinniśmy porównywać osoby, które znalazły się na jakimś „trzecim”, zewnętrznym rynku pracy (np. za granicą).

Wykres 2. Miasta akademickie wg przeciętnej premii dochodowej absolwentów

Podsumowując

ELA dostarcza niezwykle cennych informacji na temat położenia absolwentów i wiedzę tę można wykorzystać do reformowania niektórych polityk publicznych. Wydaje się, że szczególna troska powinna być skierowania do humanistów i absolwentów nauk społecznych. Zapotrzebowanie na nich niewątpliwie istnieje, ale (a) jest w niektórych “tradycyjnych” specjalnościach mniejsze niż podaż, (b) wymaga nieco innych kompetencji, niż te obecnie oferowane. Nie chodzi  o zamienienie uniwersytetów w szkoły zawodowe, ale o to, aby studia humanistyczne i społeczne nie kształtowały absolwenta zgodnie z kanonami akademickimi sprzed 20 czy 30 lat. Biegłość w językach obcych, obeznanie z technologiami informatycznymi, podstawy programowania, kompetencje organizacyjne – to są rzeczy niezbędne do dobrego odnalezienia się na współczesnym rynku pracy.

Infografika “Społeczeństwo obywatelskie czy koalicja politycznych plemion?”

Czy polskie społeczeństwo jest koalicją zwaśnionych plemion czy raczej deliberującą wspólnotą obywatelską? Odpowiedzi na to pytanie szukaliśmy, tworząc wspólnie z Kubą Wysmułkiem infografikę, która podsumowuje wybrane wyniki kończącego się właśnie projektu “Ludzie w sieciach” (realizowany w ISP PAN ze środków NCN).

(kilknij, aby zobaczyć w pełnej rozdzielczości)

“Ludzie w sieciach”

Dwa demograficzne mity

The Economist opublikował niedawno daily chart, którego tytuł w kontekście panujących nastrojów społecznych brzmi jak prowokacja: Why Europe needs more migrants. Każdy kto zna “Ekonomistę” wie jednak, że to pismo reprezentujące trzeźwy, ekonomiczny racjonalizm w opozycji do wszelkich ideologicznych idiosynkrazji, więc jeśli prowokuje, to przede wszystkim do myślenia.

Choć o sytuacji demograficznej już pisaliśmy, i to dosyć obszernie, na moment wracam więc do tego tematu. Trudno oprzeć się bowiem wrażeniu, że ktokolwiek się nim zajmuje w debacie publicznej – od rządzących po Make Life Harder – myślenie to jest obciążone: (a) fiksacją na dzietności, (b) marginalizacją ekonomicznej roli imigracji. Zrekapituluję krótko te dwa błędne mniemania.

“Mit dzietności” zakłada, że (1) wyższa dzietność może samodzielnie rozwiązać problemy demograficzne współczesnej Polski, a także, że (2) zapewnienie zastępowalności pokoleniowej jest dziś w Polsce realne. Aby najprościej wyjaśnić na czym polega mylność tych przekonań zacznijmy od możliwie najprostszej ilustracji – sztafety pokoleń. Na wykresie poniżej przedstawione zostały liczebności 10-letnich kohort wiekowych współczesnych Polek (dane GUS z VI 2017). Ograniczymy się do kobiet, ponieważ to właśnie ich bezpośrednio dotyczą statystyki dzietności. Przeciętny wiek urodzenia dziecka to obecnie 29 lat. Przyjmując kilka interpretacyjnych uproszczeń możemy więc spojrzeć na te kohorty jako na sekwencję grup matek i córek oddzielonych od siebie interwałem 30 lat. Takiej interpretacji można postawić szereg słusznych zastrzeżeń1, ale mimo wszystko będzie to wystarczające przybliżenie realnych prawidłowości.

Wielkość kohort demograficznych w populacji współczesnych Polek (stan na 30 VI 2017 wg GUS)

Do oznaczenia na wykresie poszczególnych “sztafet pokoleniowych” użyłem osobnych palet kolorystycznych. Kobiety w wieku 60-69 lat to “kohorta matek” dla kobiet w wieku 30-39 lat, te z kolei to “statystyczne matki” dziewczynek w wieku 0-9 lat. Analogiczną relację możemy zdefiniować dla dzisiejszych pięćdziesięcio- i dwudziestolatek, a także dla czterdziesto- i nastolatek.

Co widzimy na wykresie? Jeśli porównamy kohortę 60-69 z ich “córkami”, to widać, że kobiety urodzone tuż po II wojnie światowej wydały na świat przeciętnie więcej niż jedną córkę. Nie zmienia tego nawet wzięcie pod uwagę rosnącej śmiertelności kobiet po 50-tce – owe “ubytki” skompensowane są szarą “czapką” na dwóch ostatnich słupkach (śmiertelność młodszych kobiet jest niska, została więc pominięta). Dla kolejnych grup wiekowych ta tendencja wyraźnie się zmienia. Córki kobiet w wieku 50-59 lat, czyli dzisiejsze 20-latki, są mniej liczne niż ich matki. Dramatyczny spadek zaczyna się jednak dopiero w kolejnych grupach. Sukcesję ponad 3 milionom dzisiejszych 30-latek zapewnia zaledwie 2 miliony dziewczynek poniżej 10 roku życia.

Co z tego wynika? Po pierwsze trzeba rozumieć, że żaden ze słupków nie powiększy się już samym ruchem naturalnym. Dzisiejsza kohorta nastolatek nie zrobi się większa niż 2 miliony. Niezależnie więc od wskaźnika liczby urodzeń, nie zwiększy się liczba przyszłych matek. Nawet gdyby trend niskiej dzietności został kompletnie zatrzymany, nie ma powrotu do liczebności Polek z wyżu lat 1980-ych.

Ale czy ten trend można zatrzymać? Współczynnik dzietności (przeciętna liczba dzieci przypadających na kobietę w wieku rozrodczym) wynosi w Polsce niewiele ponad 1,3 (czyli statystycznie każda matka ma ok. 2/3 córki). To bardzo mało, ale w Europie jedynie dwa kraje balansują na poziomie odtwarzalności pokoleń, czyli mają ten współczynnik na poziomie około 2, są to Francja i Irlandia. Przypomnijmy jednak – jest to poziom odtwarzalności, a nie przyrostu, więc dylemat dotyczy samego utrzymania liczebności tych najmniej licznych kohort (sic!). Co więcej, takiej energii w płodzeniu dzieci nie obserwujemy nigdzie na wschód od Renu, a my wypadamy pod tym względem blado nawet na tle samych sąsiadów (zob. interaktywny wykres na Google).

Aby osiągnąć przeciętną dzietność na poziomie 2 – której Polska w ogóle nie notowała od 1991 roku – kobiety musiałyby rodzić w wyraźnie młodszym wieku i w związku z tym masowo rezygnować z innych życiowych planów. Nie chodzi nawet o realizację marzeń o karierze na szczytach władzy i bogactwa, czy o podróży dookoła świata, ale o rzeczy znacznie bardziej rudymentarne, takie jak studia. Przypomnijmy, że współczynnik skolaryzacji brutto na poziomie szkolnictwa wyższego wynosił na początku lat 1990-ych niewiele ponad 10%, ale w 2010 roku przekroczył 50%. Już sama masowość studiów wyższych przesuwa większość decyzji prokreacyjnych na okres po 25. roku życia. Do pewnych rzeczy po prostu nie ma powrotu, chyba, że w scenariuszu Handmaid’s Tale.

Warto także pamiętać, że programy child benefit, analogiczne do 500+, posiada większość państw europejskich, więc ze względu na konwergencję tak instytucji, jak stylów życia względnie bezpieczne wydaje się założenie, że dzietność w Polsce może w nadchodzących latach wzrosnąć, ale co najwyżej do poziomu 1,5-2,0. W najbardziej optymistycznym z tych scenariuszy (i biorąc na razie w nawias migracje) za 40 lat wykres “sztafety matek i córek” wyglądałby mniej więcej tak jak na wykresie poniżej2. Czarne obrysy oddają wielkość kohort z pierwszego wykresu, czyli tych dzisiejszych. Globalnie oznacza to spadek populacji o około 28% (przypomnijmy – to wersja optymistyczna!). Ale – i to jest szczególnie uderzające – w wersji „pesymistycznej” (czyli przy współczynniku dzietności na obecnym poziomie 1,3), sprawa przedstawia się w zasadzie niewiele gorzej – spadek wyniesie 33%. Jak widać optymizm i pesymizm w sprawie dzietności niewiele się różnią – konik i tak już uciekł. Wyższy współczynnik urodzeń w ogólnym rozrachunku może nieco poprawić sytuację demograficzną, ale fiksowanie się na dzietności jako rozwiązaniu problemu starzenia się społeczeństwa jest nieracjonalne.

“Sztafeta demograficzna” z poprzedniego wykresu za 40 lat przy założeniu o rosnącej dzietności.

Przejdźmy zatem do kwestii imigracji. W dobie kryzysu migracyjnego jest to sprawa drażliwa, ponieważ została spleciona z gorącymi wątkami politycznymi, w tym z lękami o bezpieczeństwo i tożsamość. Jednak niezależnie od towarzyszących jej emocji warto patrzeć na nią trzeźwo – system emerytalny potrzebuje czynnych zawodowo, a rozwijająca się gospodarka – rąk do pracy. Jest jasne, że firmy będą poszukiwały pracowników nawet jeśli rodzima podaż się wyczerpie. Presja popytu na pracownika odczuwana jest na razie głównie w postaci rekordowo niskiego poziomu bezrobocia, ale gospodarka już od dawna “zasysa” też pracowników z zagranicy.

Kwestię emigracji i imigracji zarobkowej, jak wszystkie inne zjawiska ekonomiczne, wypada rozpatrywać w kategoriach podaży i popytu. Patrząc na dane GUS dotyczące ruchów ludnościowych do i z Polski widzimy, że wciąż więcej osób wyjeżdża, niż przyjeżdża. Poniższy wykres pokazuje migracje na stałe, czyli (wg GUS) na co najmniej 12 miesięcy. Czarna ramka pokazuje ubytki ludnościowe, zaś czerwone wypełnienie – stopień ich bieżącego uzupełniania przez przybyszy z zagranicy. Są to jedynie przybliżenia i nie uwzględniają wszystkich rodzajów przepływów ludnościowych (o tym za chwilę), jednak ta wystandaryzowana miara daje pewne pojęcie o atrakcyjności migracyjnej naszego kraju. W ostatnich latach wciąż więcej ludzi długotrwale opuszczało Polskę, niż do niej na stałe przybywało, choć widać jednocześnie trend zmniejszania się tej różnicy. W odróżnieniu od kwestii przyrostu naturalnego, tu państwo ma realny i dużo bardziej znaczący wpływ na konsekwencje demograficzne – oznacza to, że w odróżnieniu od wykresu ilustrującego odtwarzalność pokoleniową, tu dużo trudniej przewidzieć dalszy trend bez wiedzy o konkretnych decyzjach politycznych. Jednak ze względu na wspomniane kwestie popytowo-podażowe, instytucjonalny wpływ na bilans migracyjny również nie jest nieograniczony.

Stosunek emigracji (czarna ramka) do imigracji (czerwone wypełnienie), dane GUS.

Tu dochodzimy do mitu nr 2. Jest nim przekonanie, że polityka imigracyjna może sprowadzać się do zamknięcia drzwi na osoby spoza Unii Europejskiej (czy szerzej rozumianego Zachodu). Jest tak, ponieważ Polska wraz z Chorwacją, Rumunią i Bułgarią zamyka stawkę, jeśli idzie o poziom życia szeroko rozumianego Zachodu. Sami imigranci również dokonują wyborów, więc obie strony potrafią być swoiście „wybredne”. Jedynie kraje najbardziej zamożne, takie jak Wielka Brytania, USA czy Niemcy mogą regulować napływ imigrantów jedynie przez selekcję negatywną.

Jedna z lansowanych obecnie koncepcji zakłada, że imigrację można skutecznie zastąpić reemigracją i repatriacją, a liczba emigrantów z Polski i osób polskiego pochodzenia jest do tego wystarczająca. Jednak największe zagraniczne społeczności polskie są na Zachodzie (dwa największe ośrodki to USA i Niemcy), więc jest to równoznaczne z oczekiwaniem porzucenia przez ludzi lepiej płatnej pracy i lepszych perspektyw życiowych, jakie oferują im te kraje. Na wschód od Polski największym ośrodkiem jest natomiast Białoruś, ale zamieszkuje tam ok. 300 tys. osób deklarujących polskie pochodzenie, więc nawet przyciągnięcie całej mniejszości polskiej z terenu byłego ZSRR – biorąc w nawias realne możliwości i koszty – miałaby marginalne skutki ekonomiczne (dodajmy, że w okresie 1997-2016 Polska wydała 5908 formalnych wiz repatriacyjnych). Być może niektórzy dopatrują się także szansy w negatywnym rezultacie negocjacji dotyczących Brexitu. Zostawmy jednak różnego rodzaju złudzenia i przyjrzyjmy się faktom.

Realnie rzecz biorąc, doraźne rozwiązanie braku dodatkowych rąk do pracy trafiło się Polsce wyjątkowym zbiegiem okoliczności. To czego nie widzimy na powyższym wykresie to liczna rzesza pracowników przyjeżdżających na krótki okres. Liczbę formalnie wydanych nowych zezwoleń na pracę ilustruje kolejny wykres (poniżej), a trzeba mieć na względzie, że jest ona dużo niższa niż realna liczba pracujących w Polsce Ukraińców3. Począwszy przynajmniej od 2014 roku napływ siły roboczej do Polski jest zatem realnie większy niż odpływ, ponieważ podaż pracy skutecznie „suplementowana” jest masowymi przyjazdami krótkookresowymi z Ukrainy (ponad 80%). Warto w tym kontekście postawić pytanie: kto zastąpiłby tych pracowników, gdyby na Ukrainie panował pokój i kwitła gospodarka?

Liczba cudzoziemców (w tys.), którzy otrzymali pozwolenie na pracę w Polsce, dane GUS.

Dla kogo, poza mieszkańcami pogrążonej w kryzysie i wojnie domowej Ukrainy, Polska jest dziś atrakcyjnym kierunkiem emigracji? Kraje, z których napływ ludzi w ostatnich pięciu latach nasilał się i wynosił więcej niż 1500 osób to: Białoruś, Mołdawia oraz Indie. Wyraźnie osłabł natomiast napływ z Chin (prawie sześciokrotnie w ostatnich 6 latach). Wydaje się jasne, że różnica stopnia rozwoju między krajami musi być wystarczająca, by łączny, relatywny koszt emigracji (w tym ten psychologiczny) był mniejszy niż względne korzyści potencjalnego imigranta. Białoruś ma niższe niż Polska PKB per capita (również to liczone w sile nabywczej), ale leży blisko, więc bezpiecznie można założyć, że wszystkie kraje lepiej od niej rozwinięte nie staną się źródłem napływu pracowników do Polski. Na tej zasadzie możemy bezspornie wykluczyć kraje takie jak Gabon, Meksyk czy Iran. Do tej grupy należy też zapewne Botswana, Tajlandia, Chiny, Brazylia czy Algieria. Jednocześnie mieszkańcy krajów bardziej oddalonych od Polski geograficznie i kulturowo niż Ukraina i Białoruś, ponoszą niewątpliwie znacznie większe koszty takiej migracji.

Jeśli w Polsce istnieją silne idiosynkrazje dotyczące kierunków migracji i możliwości integracji cudzoziemców (a debata publiczna jasno wskazuje, że tak jest), warto postawić klarowne pytanie o to, jak owe preferencje przekładają się na konkretne polityki publiczne. A może liczymy jedynie na kryzysy w nieodległym otoczeniu międzynarodowym?


1. Mediana wieku urodzeń stale zmienia się (rośnie), a jej wariancja jest oczywiście spora, więc część dziewczynek z grupy 0-9 jest w istocie córkami kobiet należących do kohorty 10-19, a inna część – kohorty 50-59. Jednak takie “przesunięcia” i nieregularności dotyczą wszystkich kohort, więc ich efekty w większości znoszą się. Zatem choć nie mamy tu substancjalnie trafnego opisu rzeczywistości, to oddaje on faktycznie wpisane w nią trendy.

2. Zakładam tu stopniowe, liniowe dochodzenie dzietności do poziomu 2.0.

3. Pozwolenia są przedłużane na podstawie oświadczenia pracodawcy, a tych wg UDSC było w 2016 roku 1,26 mln – ta liczba może być z kolei zawyżona w stosunku do realnie pracujących. ZUS podaje liczbę 270 tys. zarejestrowanych Ukraińców.

Podstawowe nierówności – wyniki białostockich szkół

Można przewidywać, że za jakiś czas w debacie publicznej głośniejszy stanie się wątek nierówności edukacyjnych w tych obszarach, gdzie dziś są one względnie słabo dostrzegane. Jednym z nich są zróżnicowania na poziomie podstawowym. Sprawa wydaje się ciekawa zarówno akademicko, jak praktycznie, ponieważ wiąże się ze strategiami podejmowania decyzji przez rodziców. Na tym etapie są oni wyłącznymi decydentami w zakresie losów edukacyjnych dzieci, lecz świadomość konsekwencji dokonywanych wyborów jest różna. Rodzice często podejmują decyzje w oparciu o swoje własne doświadczenia szkolne, a nie o informacje dotyczące stanu bieżącego. W ostatnich 20-30 latach wiele się jednak zmieniło, np. rozwinął się sektor szkół niepublicznych. Przyjrzeliśmy się tej kwestii w naszym lokalnym kontekście – podstawówkom w Białymstoku, by zilustrować czym obecnie charakteryzuje się ten sektor kształcenia.

W przypadku szkół podstawowych nie istnieją wskaźniki edukacyjnej wartości dodanej, możemy zatem przyjrzeć się jedynie wynikom testu szóstoklasisty – czyli efektom szkolnym brutto. Oznacza to, że patrzymy na generalne skutki uczenia się w danej szkole, nie rozróżniając tego na ile są one pochodną selekcji uczniów na wejściu, a na ile jakości nauczania (zwykle jednego i drugiego). Dane wykorzystane we wpisie pochodzą ze strony Okręgowej Komisji Egzaminacyjnej w Łomży. Spójrzmy jak wyglądały wyniki młodych białostoczan w roku 2016.

Na wykresie poniżej widać średnie wyniki łączne z języka polskiego i matematyki (w procentach) dla poszczególnych szkół (kolorowe punkty). Pominęliśmy tu szkoły, w których do sprawdzianu przystąpiło mniej niż 5 uczniów. Przedziały wokół średnich, oznaczone czarnymi, poziomymi odcinaki, to odchylenia standardowe, mówiące o tym, czy uczniowie w danej szkole mieli zbliżone wyniki, czy nie. Duże odchylenie (dłuższe linie) wskazuje, że uczniowie zaprezentowali bardziej zróżnicowany poziom przygotowania. Małe odchylenie wskazuje, że uczniowie w konkretnej szkole poradzili sobie podobnie (podobnie słabo lub podobnie dobrze). Statystyka odchylenia standardowego jest niezależna od samej liczby uczniów, a w zakresie +/- jedno odchylenie mieści się około 2/3 wszystkich obserwacji (przedział mówi więc zwykle, gdzie lokowały się wyniki większości uczniów danej szkoły).

Pierwsze spostrzeżenie, jakie nasuwa wykres, dotyczy dużej międzyszkolnej rozpiętości wyników. O ile szkoły najlepsze mieszczą się w całości w górnej ćwiartce wykresu (75-100), o tyle te słabsze górną ćwiartkę ledwo dotykają. W skrajnych przypadkach oznacza to, że najgorsi uczniowie jednej szkoły byliby najlepszymi uczniami drugiej. Taki poziom nierówności można ocenić jako głęboki, jako strukturalne “pękanie” szkolnictwa.

Po drugie, podzieliliśmy szkoły na publiczne i niepubliczne (prywatne i prowadzone przez niezależne towarzystwa oświatowe). W pierwszej szóstce białostockich szkół nie znalazła się ani jedna szkoła publiczna. Najwyższe pozycje należą do podstawówek prowadzonych przez PTO i STO, a więc szkół społecznych. Zdarzają się szkoły niepubliczne, w których uczniowie osiągnęli wyniki niższe niż średnia miejska (68%), ale jest ich niewiele. Warto także mieć na względzie, że wśród szkół nieobecnych w zestawieniu, czyli tych, które miały niewielką liczbę szóstoklasistów albo w ogóle ich nie miały (szkoły nowe), były zarówno szkoły prywatne jak publiczne, ale nie ma wystarczających danych by rzetelnie powiedzieć coś o ich rezultatach.

Trzecia rzecz to hierarchia szkół państwowych. O ile w przypadku szkół niepublicznych rolę w wynikach uczniów odgrywa status materialny rodziców, to tutaj teoretycznie wpływ tego czynnika nie powinien być istotny. Kluczową rolę odgrywa bowiem w założeniu rejonizacja szkół. Ma ona jednak paradoksalne konsekwencje. Na szkoły nałożony jest obowiązek przyjęcia w pierwszej kolejności uczniów z rejonu, a jeśli zostaną wolne miejsca, mogą tam się także uczyć inne dzieci. Rejony i zasady rekrutacji są ustalane przez władze miejskie. Wiadomo jednak, że w mieście istnieją gorsze i lepsze dzielnice, jedne skupiają zamożniejszych, lepiej wykształconych ludzi, inne uboższych, słabiej wykształconych. Jest to konsekwencja m.in. coraz silniej działającej w Polsce renty gruntowej, czyli różnicy w cenie mieszkań w różnych lokalizacjach, ale także innych, społecznych procesów segregacji (np. dziedziczenia struktury osiedli urzędniczych, sięgających nie tylko do czasów PRL, ale także okresu międzywojennego czy przeprowadzka klasy średniej do domów w suburbiach). W efekcie rejonizacji podziały te nakładają się na selekcje do szkół. W podstawówkach ulokowanych w dzielnicach bogatszych uczą się często dzieci rodziców o względnie wyższym statusie społecznym, a to praktycznie zawsze jest czynnik skorelowany z wynikami egzaminów. Najlepsze szkoły publiczne w Białymstoku ulokowane są albo w ścisłym centrum albo na osiedlach domów jednorodzinnych. Przykłady stanowią z jednej strony: SP 1 i SP 6, z drugiej SP 16 i SP 28.

Po czwarte, aby lepiej zilustrować skąd się biorą międzyszkolne różnice warto także zwrócić uwagę na jeszcze jedną statystykę opublikowaną przez OKE. Chodzi o odsetek uczniów, którzy uzyskali niskie i tych, którzy uzyskali wysokie wyniki (obie kategorie zdefiniowało samo OKE) – przedstawiamy je na dwóch wykresach poniżej. Wysoka pozycja rankingowa szkół prowadzonych przez towarzystwa oświatowe to konsekwencja tego, że bezwzględna większość ich uczniów uzyskuje wysokie wyniki, a nie ma tam uczniów słabych. Jest to w jakiejś mierze pochodną “efektu rówieśnika” (peer effect), czyli wzajemnego wpływu uczniów.

W szkołach publicznych względna większość uczniów zwykle nie uzyskuje ani wyników niskich, ani wysokich – tylko średnie. Jednak i tu różnice są zaskakująco duże – w najwyżej sklasyfikowanych państwowych podstawówkach jest około pięć razy więcej wyników wysokich, niż w podstawówkach sklasyfikowanych najniżej. Pomijamy tu zresztą szczególny przypadek, jaki stanowi SP 30, która jest placówką dedykowaną m.in. dla osób zaniedbanych środowiskowo, z trudnościami w uczeniu się, będących w sytuacjach kryzysowych lub traumatycznych. Akurat ten konkretny przykład dobitnie pokazuje, że pozycja szkoły jest w znacznej mierze konsekwencją szeroko rozumianej rekrutacji, a nie tylko jakości nauczania (nie jest “winą” szkoły, że znalazła się tak nisko w zestawieniu). Tych dwóch spraw nie da się rozdzielić w oparciu o wskaźniki brutto.

Konsekwencje dla dzieci uczących się w tych szkołach są często większe, niż zdaje sobie sprawę wielu rodziców. Zły start na etapie podstawowym w znacznej mierze decyduje o dalszych losach szkolnych. Jednak pole wyboru w praktyce ograniczone jest do szkoły znajdującej się najbliżej domu. Jest to zresztą zupełnie naturalne – chodzi przecież także o bezpieczeństwo i wygodę. Jednak w ten sposób rodzice i instytucje edukacyjne reprodukują lub wręcz pogłębiają realne różnice szans między podopiecznymi. Nie jest przecież tak, że w podstawówkach ze słabymi wynikami nie ma dzieci zdolnych czy dobrych nauczycieli. Są to jednak dzieci i nauczyciele, którzy muszą sobie niejednokrotnie radzić z większą liczbą bardzo rozmaitych utrudnień (od środowiskowych po materialne). Co więcej, obok przebiegającej w zróżnicowany sposób selekcji uczniów, odbywa się także cicha autoselekcja nauczycieli, którzy w swojej karierze zawodowej zainteresowani są przecież pracą w lepszych szkołach czy za większe wynagrodzenie.

System szkolny, który nie jest zorientowany na aktywne przeciwdziałanie “strukturalnemu pękaniu” oświaty na poziomie podstawowym, niesiony jest dryfem zjawisk pozostających poza sferą jego kontroli. Podobnie dzieje się przecież np. w przypadku systemu ochrony zdrowia. W kontekście wdrażanej właśnie reformy edukacyjnej warto też zauważyć, że wskutek likwidacji gimnazjów dzieci pozostaną w swoich podstawówkach na dłużej i rzadziej poddawane będą “mieszaniu” z innymi uczniami. Tego, czy nierówności edukacyjne w konsekwencji realnie wzrosną, dowiemy się najwcześniej za kilka lat.