Nauka

Jak mierzy się i weryfikuje globalne rekordy temperatur?

Od stacji meteorologicznych i boi oceanicznych po satelity i algorytmy statystyczne – śledzenie temperatury Ziemi to złożony, wielowarstwowy proces, w który zaangażowane są tysiące instrumentów i cztery niezależne zespoły naukowe.

R
Redakcia
4 min czytania
Udostępnij
Jak mierzy się i weryfikuje globalne rekordy temperatur?

Dlaczego pomiar temperatury Ziemi jest trudniejszy, niż się wydaje?

Kiedy naukowcy ogłaszają, że dany miesiąc lub rok pobił rekord temperatury, twierdzenie to opiera się na rozległym, globalnym systemie pomiarowym budowanym przez ponad sto lat. Zrozumienie, jak ten system działa – i jak badacze chronią się przed błędami – jest niezbędne do oceny każdego nagłówka dotyczącego klimatu.

Globalne śledzenie temperatury rozpoczęło się na dobre około 1880 roku, kiedy to powszechnie zaczęto stosować standardowe osłony termometryczne znane jako ekrany Stevensona. Te żaluzjowe drewniane skrzynki chronią instrumenty przed bezpośrednim działaniem promieni słonecznych i opadów, jednocześnie umożliwiając swobodny przepływ powietrza, zapewniając, że odczyty odzwierciedlają rzeczywistą temperaturę powietrza, a nie ciepło promieniowania.

Sieci obserwacyjne

Obecnie dane o temperaturze pochodzą z trzech głównych źródeł: lądowych stacji meteorologicznych, czujników oceanicznych i satelitów. Na lądzie podstawą jest Global Historical Climatology Network (GHCN), która agreguje odczyty z około 27 000 stacji na całym świecie. W samych Stanach Zjednoczonych ponad 11 000 stacji w ramach programu Cooperative Observers Program (COOP) NOAA rejestruje dzienne temperatury maksymalne i minimalne, a 144 stacje U.S. Climate Reference Network (USCRN) dostarczają automatyczne odczyty o wysokiej precyzji co pięć minut.

Nad oceanami – które pokrywają około 70 procent powierzchni Ziemi – temperatury powierzchni morza pochodzą z czujników wlotu silników statków, dryfujących i zakotwiczonych boi oraz satelitarnych instrumentów na podczerwień i mikrofalowych. Odczyty te są kompilowane w zbiory danych, takie jak Extended Reconstructed Sea Surface Temperature (ERSST) NOAA, który łączy obserwacje sięgające lat 50. XIX wieku.

Od surowych danych do globalnej liczby

Surowe odczyty ze stacji nie mogą być po prostu uśredniane. Stacje są otwierane i zamykane, instrumenty są wymieniane, miasta rozrastają się wokół niegdyś wiejskich terenów, a czasy obserwacji ulegają zmianie. Aby poradzić sobie z tymi problemami, agencje stosują proces zwany homogenizacją – korekty statystyczne, które wykrywają i korygują sztuczne nieciągłości w zapisie stacji.

Na przykład Goddard Institute for Space Studies (GISS) NASA porównuje stacje miejskie z pobliskimi stacjami wiejskimi i dostosowuje trendy miejskie, aby zminimalizować efekt miejskiej wyspy ciepła. Stacje są klasyfikowane jako miejskie lub wiejskie na podstawie pomiaru promieniowania światła nocnego z satelity. GHCN NOAA stosuje własny algorytm parowy, porównując każdą stację z jej sąsiadami w celu zidentyfikowania nagłych zmian spowodowanych zmianami sprzętu lub relokacją stacji.

Berkeley Earth przyjmuje inne podejście: zamiast korygować wątpliwe dane, obniża wagę niewiarygodnych segmentów, korzystając z ponad 36 000 stacji – od dwóch do ośmiu razy więcej niż inne główne zbiory danych dla każdego danego miesiąca po 1880 roku. Ich analiza potwierdziła, że ogrzewanie miejskie, choć lokalnie znaczące, ma znikomy wpływ na globalną średnią lądową.

Cztery niezależne zespoły, jedna spójna odpowiedź

Cztery główne grupy niezależnie obliczają globalną temperaturę: NCEI NOAA, NASA GISS, UK Met Office/University of East Anglia (HadCRUT) i Berkeley Earth. Każda z nich wykorzystuje różne selekcje surowych danych, metody statystyczne i techniki interpolacji przestrzennej. Jednak ich wyniki konsekwentnie zgadzają się z dokładnością do kilku setnych stopnia Celsjusza – co stanowi potężną kontrolę krzyżową, że sygnał ocieplenia jest rzeczywisty, a nie artefaktem jakiejkolwiek pojedynczej metodologii.

Wszystkie cztery wyrażają temperatury jako anomalie – odchylenia od średniej bazowej, zazwyczaj średniej z XX wieku. Takie podejście omija problem porównywania temperatur bezwzględnych między stacjami na różnych wysokościach, szerokościach geograficznych i w różnych lokalnych klimatach. Stacja w górach i stacja na poziomie morza mogą odczytywać bardzo różne temperatury bezwzględne, ale obie mogą wiarygodnie raportować, czy warunki są cieplejsze, czy chłodniejsze niż ich własna historyczna norma.

Kontrola jakości i niepewność

Każdy zbiór danych przechodzi rygorystyczną kontrolę jakości. Meteorolodzy NOAA przeprowadzają automatyczne kontrole napływających danych, oznaczając wzorce sugerujące wadliwe działanie sprzętu lub błędy systematyczne. Stacje USCRN są kalibrowane corocznie, a starzejące się czujniki są rutynowo wymieniane, a ich wydajność jest monitorowana codziennie. Stacje z danymi z mniej niż 20 lat są zazwyczaj odrzucane z analiz długoterminowych.

Naukowcy kwantyfikują również granice niepewności dla swoich szacunków, uwzględniając błąd pomiaru, luki przestrzenne w pokryciu (szczególnie w Arktyce i częściach Afryki) oraz systematyczne odchylenia wynikające z przejść technologicznych – takie jak przejście od termometrów rtęciowych do czujników elektronicznych lub od odczytów oceanicznych opartych na statkach do sieci boi.

Dlaczego to ma znaczenie

Globalny zapis temperatury jest fundamentem, na którym opiera się nauka o klimacie, decyzje polityczne i porozumienia międzynarodowe. Jego wiarygodność zależy nie od pojedynczej stacji lub metody, ale od zbieżności niezależnych analiz opartych na setkach tysięcy obserwacji obejmujących ponad sto lat. Kiedy ogłaszany jest nowy rekord, odzwierciedla on cały ten system – system zaprojektowany do wychwytywania błędów, korygowania odchyleń i dostarczania liczby, której świat może zaufać.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły