
Dyrektor Centrum Modelowania Meteorologicznego IMGW-PIB © IMGW-PIB; prawa zastrzeżone
Teraz Środowisko: Marnotrawstwem naszych czasów jest mnogość informacji, z których nie korzystamy. Jakimi danymi i prognozami klimatycznymi dysponujemy w Polsce i które z nich są faktycznie w użytku?
Mariusz Figurski: Mamy ogrom danych. Największym zbiorem dysponuje Instytut Meteorologii i Gospodarki Wodnej, bo pomiary pochodzą z kilkuset stacji i niejednokrotnie sięgają XIX w. Za sprawdzone uznaje się dane gromadzone po II wojnie światowej i to one są głównie wykorzystywane w badaniach klimatycznych.
Kolejną „biblioteką” danych jest Polska Akademia Nauk, obejmująca wiele instytutów od kilkudziesięciu lat analizujących zjawiska pogodowe - także te ekstremalne - oraz inne elementy klimatu. Mamy również dane spoza kraju - z Europejskiej Agencji Środowiska (ang. EEA, European Environment Agency), a także z Międzyrządowego zespołu ds. zmian klimatu (ang. IPCC, Intergovernmental Panel for Climate Change), które są najbardziej wiarygodnym źródłem tego, co dzieje się z klimatem.
Jako IMGW jesteśmy członkiem Światowej Organizacji Meteorologicznej (ang. WMO, World Meteorological Organisation) i czynnie uczestniczymy tam w badaniach. Instytut prowadzi i rozbudowuje sieć pomiarową. Mamy dziś setki stacji pomiarowych, celem ograniczenia kosztów przechodzimy na pomiary zdalne i telemetryczne; rozwijamy sieci telekomunikacyjne i narzędzia informatyczne do obsługi tych systemów. Te wszystkie informacje pozwalają nam prześledzić co działo się w ostatnich dziesięcioleciach. A na ich podstawie są tworzone i sprawdzane modele klimatyczne.
Dalej, Państwowy Instytut Geologiczny (PIG) prowadzi oceny zmian klimatu z okresu sprzed instrumentalnych pomiarów; wykorzystuje metody pośrednie, badanie rdzeni lodowych, izotopów tlenu, opracowuje strategie adaptacyjne. Centrum badawcze lasów i drewna bada z kolei wpływ zmiany klimatu na lasy - śmiertelność drzew i zagrożenie szkodnikami. To bardzo istotne, bo nie można podchodzić do procesów adaptacyjnych bez pełnej informacji, łączącej dane z wielu źródeł.
Istotne są też dane z sieci prywatnych, których w Polsce jest całkiem sporo (ok. 2 tys. stacji), a zainteresowanie rejestrowanymi przez nie parametrami atmosferycznymi jest bardzo duże.
Czytaj też: Nawałnice zaskoczyły drogowców? IPCC o ekstremalnej pogodzie ostrzega od lat
TŚ: Jakie widzi Pan wyzwania w wykorzystaniu wymienionych danych?
MF: Mamy w Polsce problem z łączeniem tych wszystkich zasobów. Brakuje centralnego repozytorium danych, zintegrowanego systemu, który zawierałby źródłowe dane klimatyczne w jednym miejscu. Wobec tego w IMGW, przed stworzeniem modelu, zbieramy i weryfikujemy informacje wejściowe. Jeśli pochodzą z różnych źródeł, musimy sprawdzić, czy przeszły proces weryfikacji.
Przykładowo w programie Copernicus zawarto dane z modeli numerycznych, do których można uzyskać dostęp. Są one jednak ogólne, dotyczą całej Europy i – nawet jeśli zawierają dane dotyczące naszego regionu – niekoniecznie są dostępne w odpowiednio dużej rozdzielczości.
Naukowo interesują mnie interakcje między poszczególnymi danymi czy wymuszeniami fizycznymi. O ile poszczególne dane są wykorzystywane dobrze, o tyle używa się ich w sposób rozłączny. Badacze analizują i przetwarzają informacje stosunkowo wąsko, w zakresie własnych kompetencji. Tymczasem, przy tworzeniu modeli klimatu trzeba patrzeć w sposób holistyczny – integrując modele atmosfery, lądu, wody i lodu. Żeby dobrze opisywać i prognozować zjawiska, musimy mieć dane z wszystkich elementów, a dostęp do nich nie jest prosty. Stąd jestem zwolennikiem integracji środowiska, tak by nie tylko pozyskiwać, ale i wspólnie przetwarzać dane. Ogrom zjawisk ekstremalnych jest tak złożony, że każda pomoc stowarzyszeń czy pasjonatów jest bezcenna. Tutaj można przywołać dobry przykład naszego Instytutu, który podpisał porozumienie o współpracy ze Stowarzyszeniem Łowców Burz, którzy wspomagają nas bezpośrednimi obserwacjami zjawisk ekstremalnych, są na pierwszej linii „frontu”.
TŚ: Na czym konkretnie polega tworzenie modeli klimatycznych? Jakim operujemy tutaj horyzontem czasowym?
MF: O klimacie mówimy zwykle w okresie 30-letnim. Taki rekomenduje WMO. Dla jasności, tworzy się modele numeryczne pogody i klimatu. Bazują one na tych samych układach równań. Jeśli chodzi o opis fizyczny zjawisk, pewne interakcje i wymuszenia bazują na tych samych prawach fizyki. Modele analizują siły jakie oddziałują na cząstki powietrza. Uwzględnia się różnice ciśnienia, siły bezwładności, Coriolisa, grawitacji czy tarcia. Te ostatnie są bardzo ważne, bo mówią o interakcji między podłożem, powierzchnią ziemi a sąsiadującymi z nimi cząstkami powietrza. Inaczej wyglądają oddziaływania na terenach zielonych, a inaczej na zabetonowanych, czego każdy z nas doświadcza na co dzień.
Dalej mamy równanie transferu promieniowania, opisujące oddziaływanie promieniowania słonecznego z atmosferą i powierzchnią Ziemi. Tu mamy pochłanianie, emisję, odbicie - wszystkie mają istotne znaczenie, jeśli chodzi o badanie efektu cieplarnianego.
Pogoda jest lokalna, tu i teraz. Obejmuje temperaturę, opady, wspomniane ciśnienie, wilgotność powietrza czy zachmurzenie. Wprowadzana jest do równań jako warunki początkowe. Na wejściu pomiary zawsze są obarczone błędem, stąd z czasem model pogodowy może się „gubić”. Modele numeryczne działają do 3-4 dni, gdy mają sprawdzalność na poziomie 80-90%. Po 5-7 dniach pokazują coraz mniej prawdopodobną prognozę. Dlaczego? Bo są deterministyczne - danemu zdarzeniu przypisujemy konkretny stan. To kwintesencja numerycznych modeli pogodowych. Zakładamy w nich, że ilość promieniowania i zawartość energii w oceanie oraz koncentracja CO2 nie zmieniają się w okresie prognozowania. I faktycznie, w ciągu kilku dni są to parametry względnie stałe.
TŚ: W przypadku modeli klimatu nie interesuje nas jaka będzie szczegółowa pogoda danego dnia, bierzemy z kolei pod uwagę wspomniane parametry.
MF: Otóż to. Klimat to średnia pogoda w dłuższym, wieloletnim okresie czasu. Pytamy tu np. jakie warunki będą średnio panować w kwietniu od roku 2026 do 2028. Nie interesuje nas konkretny moment, a średnia; nie parametry początkowe, a ich zmiana, którą uśredniamy.
To, co nie było brane pod uwagę w przypadku pogody, w modelach klimatu wychodzi na pierwszy plan. Wyzwaniem jest ustalenie warunków brzegowych – badamy, symulujemy. Przykładowo zakładamy, że koncentracja dwutlenku węgla (CO2) zwiększy się o 10% i sprawdzamy jak wpłynie ona na warunki klimatyczne.
Owszem, klimat to perspektywa globalna, ale jeśli chcemy badać zmiany na terenie Polski, nie możemy działać na małej rozdzielczości 100 km, jaką dają nam globalne modele klimatu.
Modelowanie opiera się na podzieleniu ziemi na siatkę geograficzną, w której węzłach liczymy poszczególne parametry. Dzieje się tak ze względu na moc obliczeniową komputerów. Na marginesie, z listy top 500 największych superkomputerów na świecie, w pierwszej 20-tce przynajmniej 1/3 „mieli” pogodę i klimat. Podchodzi się do tego na świecie bardzo poważnie. W Polsce nie ma takiego zrozumienia. Krajowe podejście jest takie, że globalne modele będzie można wykorzystać w adaptacji do zmian klimatu. Nic bardziej mylnego - do tego potrzebna jest dużo większa rozdzielczość, której obecnie w naszym kraju brakuje.
Wracając do modelowania – uwzględniamy emisje różnych gazów cieplarnianych (CO2, CH4, podtlenek azotu czy gazy fluorowane) i symulujemy co będzie się działo z atmosferą przy zmianie ich koncentracji. Dlatego opracowane są scenariusze SSP, tzw. Wspólne Ścieżki Społeczno-Ekonomiczne mówiące o zmianach koncentracji CO2 do 2100 roku, zaakceptowane przez IPCC. Te potencjalne ścieżki zostały porównane w ramach zakończonego projektu CMIP6, w ramach którego opracowano globalne symulacje klimatycznego różnymi modelami. W Polsce wykorzystuje się jeszcze dane oparte na wynikach projektu poprzedniego, CMIP5, sprzed wielu lat. W międzyczasie sporo się jednak zmieniło. Nawet w ostatnich miesiącach widzimy, że średnia temperatura wzrasta względem ostatnich 20-30 lat.
Kluczowa jest zatem bieżąca analiza scenariuszy, którą trzeba przeprowadzić - na wiele rąk. Nie uruchamia się jednego modelu klimatycznego dla wyciągnięcia dalekosiężnych wniosków; byłby to największy błąd – modele zawsze się mylą i nigdy nie dadzą nam 100% pewności. Dokładność modeli klimatycznych szacuje się na poziomie 90%. Żeby uwiarygodnić modele ich wyniki porównuje się z obserwacjami w okresie historycznym, obecnie od 1950 do 2015 r., sprawdzając jak dany model zachowuje się w stosunku do danych, które posiadamy, co pozwala na jego kalibrację.
Czytaj też: 30 lat Europejskiej Agencji Środowiska. Przegląd raportów
TŚ: Jakie scenariusze zmian klimatu są możliwe?
MF: Rozpatruje się pięć scenariuszy: ograniczenia emisji SSP1-1.9 i SSP2-2.6, pośredni SSP2-4.5 oraz bardzo wysokich emisji SSP3-7.0 i SSP5-8.5. Im wyższy numer przed myślnikiem tym mniej zrównoważony rozwój gospodarczy. Pierwszy i drugi scenariusz to dla mnie scenariusz „zielony” – politycy i biznes wreszcie muszą zrozumieć, że to ludzie będą pierwszymi ofiarami destrukcji systemu klimatycznego. Cyfry w nazwach to szacunkowe wartości wymuszenia radiacyjnego przez gazy cieplarniane w 2100 r., względem roku 1750, podane w watach na metr kwadratowy, czyli wartość dodatkowej energii dostarczonej do atmosfery na skutek emisji antropogenicznych.
Około 20 modeli klimatycznych jest uruchamianych na kilka przebiegów – dla różnych scenariuszy, przez różne ośrodki naukowe. Z tego powstają wiązki wyników. Analizujemy wiązki pod kątem statystycznym, określając prawdopodobieństwo zaistnienia wskazanego stanu np. dla roku 2050, jeśli nie będziemy chronić naszego środowiska naturalnego (realizując scenariusz SSP3-7.0 czy SSP5-8.5). Te informacje są bardzo cenne, bo mają praktyczne przełożenie na społeczeństwo i gospodarkę.
TŚ: Do tego jeszcze wrócimy. Wspomniał Pan, że obecny kierunek to zwiększanie rozdzielczości modeli?
MF: Obecnie, na poziomie oczek siatki geograficznej, rozdzielczość modeli osiąga 25, a nawet 12 km. Natomiast zróżnicowanie zmian klimatu w obszarze górskim i wyżynnych zobaczymy dopiero w większej rozdzielczości. Także z powodu ekstremalnych zjawisk pogodowych myśli się o gęstszej siatce. Postawiliśmy sobie pytanie: „czy jesteśmy w stanie uchwycić te zjawiska modelami klimatycznymi, nie tylko pogodowymi?”. Pierwsze testy, które wykonaliśmy, dały pozytywne wyniki, ale należy je powtórzyć i poddać dokładnym analizom.
Wykonanie symulacji w odpowiedniej rozdzielczości przestrzennej i dla odpowiednio dużej domeny możliwe jest jedynie z wykorzystaniem superkomputerów i odpowiednich zasobów dyskowych i obliczeniowych. Pomimo rosnących zasobów obliczeniowych, nie jest możliwe wykonanie wymaganej wiązki symulacji przez jedną instytucję czy centrum obliczeniowe, podobnie jak w przypadku globalnych symulacji klimatycznych. Pracujemy w ramach CORDEX, organizacji międzynarodowej zrzeszającej instytucje prowadzące symulacje klimatyczne na całym świecie w oparciu o aktualne wyniki modeli globalnych, czyli wspomniany CMIP6. Także w Europie trwają takie symulacje, uczestniczę w nich z dr. Adamem Jaczewskim w ramach inicjatywy EURO-CORDEX. Podjęliśmy też decyzję, by przeprowadzić symulacje jeszcze wyższej – 3 km rozdzielczości dla obszaru naszego kraju, jeśli uzyskamy dostęp do wystarczającej mocy obliczeniowej w centrach superkomputerowych. Zagadnieniem, którym w tym kontekście będziemy się zajmować to downscaling dynamiczny, który odnosi się do wykorzystania regionalnych symulacji o wysokiej rozdzielczości w celu dynamicznej ekstrapolacji efektów procesów klimatycznych na dużą skalę do interesujących skal regionalnych lub lokalnych. W oparciu już o takie rozdzielczości będą w niedalekiej przyszłości aktualizowane plany adaptacji np. w Niemczech. Szkoda, że obecnie zainteresowanie tymi zagadnieniami w Polsce jest niewielkie. Co prawda pewne rozwiązania zostały w Polsce wdrożone przez Instytut Ochrony Środowiska, ale dotyczyły głównie wykorzystania wyników z modeli poprzedniej edycji programu EURO-CORDEX opracowane przez zespoły zagraniczne, które wykorzystywały modele klimatyczne z dynamicznym downscalingiem.
Czytaj też: Czy polityka klimatyczna jest skuteczna? Nowe badanie i pozew przeciw KE
Jako szósty co do wielkości kraj europejski nie mamy własnych implementacji modeli klimatycznych. Tymczasem analizy pozwalają uzyskać np. informacje, czy zasoby wody pitnej wystarczą, by zabezpieczyć potrzeby Europejczyków. Wnioski wypływają z siatki zależności. Grubość śniegu i poziom opadów w dolinach alpejskich to nie tylko kwestia ryzyka lawinowego, ale wpływ na zaopatrzenie w wodę pitną od Morza Północnego po Adriatyk. Inny przykład: prądy oceaniczne, które nie są do końca uwzględniane, mogą wpływać na stada ryb.
Inne zalety wysokiej rozdzielczości to zrozumienie procesów klimatycznych, także w kontekście adaptacji i operowanie dokładnymi danymi na poziomie regionalnym czy lokalnym.
TŚ: Dane z modelowania można zastosować w miejskich planach adaptacji do zmian klimatu?
MF: Z dr. Jaczewskim staramy się o to, by te dane wykorzystywać przy tworzeniu MPA i innych dokumentów. Współpraca w ramach CORDEX daje nam możliwość zweryfikowania naszych wyników z innymi zespołami. CORDEX działa od 20 lat, a my od dwóch jesteśmy zaangażowani, jako pierwszy z Polski, dwuosobowy team. Nie ma na to przedsięwzięcie centralnego finansowania.
Dane będą dostępne po zakończeniu całej akcji symulacji za 3-4 lata. Nasz mikrozespół pozna je w przyszłym roku. Nieco dłużej trzeba będzie poczekać na modele wysokorozdzielcze.
Jest to szczególnie istotne w światle planowanego rozszerzenia obowiązku przygotowywania planów adaptacji przez miasta powyżej 20 tys. mieszkańców.
Czytaj też: Miejskie plany adaptacji obowiązkowe dla mniejszych miast. Projekt ustawy w RCL
TŚ: Jakie są możliwe zastosowania praktyczne modeli?
MF: Modele klimatyczne są, były i będą wykorzystywane do planowania. Można, a nawet należy, uznać je za podstawę planowania rozwoju gospodarczego Polski. Ważniejsze dla nas sektory to transport (wpływ na infrastrukturę transportową) czy energetyka (wpływ na dostępność wody do chłodzenia elektrowni jądrowych; ekstremalne temperatury oznaczają konieczność większego zużycia energii niż dotychczas, co już widać w aglomeracjach miejskich). Innym sektorem są ubezpieczenia. Firmy ubezpieczeniowe wykorzystują modele klimatyczne do ustalania składek ubezpieczeniowych. Regiony częściej nawiedzane przez zjawiska ekstremalne, jak np. środkowa Polska, woj. lubelskie, będą uznawane za objęte wyższym ryzykiem. Patrząc z innej strony, modele mogą umożliwić rozwój nowych produktów turystycznych, przewidujących atrakcyjność turystyczną wybranych lokalizacji przez cały rok. Okres wakacyjny nad Bałtykiem będzie mniej uciążliwy temperaturowo niż nad Adriatykiem.
Modele klimatyczne pozwalają też optymalizować plony i hodowlę zwierząt. Jesteśmy w stanie zidentyfikować obszary już dziś narażone na stepowienie, poddane presji ze względu na deficyty wodne. Informacje o przyszłych zjawiskach ekstremalnych, w tym suszach, są bezcenne.
To jednak nie wszystko. Numeryczne modele klimatu idealnie nadają się do przewidywania kierunków przenoszenia chorób zależnych od klimatu. Podwyższenie temperatury i zatarcie między różnymi porami roku w Polsce, prowokuje występowanie nieznanych wcześniej insektów pochodzących z Europy południowej. Modele pozwalają na planowanie rozwoju ekonomicznego państwa - m.in. na podstawie tego, jak będziemy przewidywali i analizowali wzrost temperatury i zmiany koncentracji CO2. Badania naukowców z Zurichu pokazują wymierne straty w światowym PKB – sięgające nawet 19% - przy wzroście średniej temperatury o 2 st. Celsjusza. Zastosowań danych jest ogrom.
Czytaj też: Eurostat o spadku emisji gazów cieplarnianych w UE. Polska łączy redukcję ze wzrostem PKB
To I część rozmowy. Zapraszamy do lektury kontynuacji: KPEiK bazujący na modelach klimatycznych? Dziś to wizja naukowca, jutro – gospodarcza konieczność

Redaktor naczelna, sozolog