Wissenschaft

Wie globale Temperaturaufzeichnungen gemessen und verifiziert werden

Von Wetterstationen und Ozeanbojen bis hin zu Satelliten und statistischen Algorithmen – die Erfassung der Erdtemperatur ist ein komplexer, vielschichtiger Prozess, an dem Tausende von Instrumenten und vier unabhängige wissenschaftliche Teams beteiligt sind.

R
Redakcia
4 Min. Lesezeit
Teilen
Wie globale Temperaturaufzeichnungen gemessen und verifiziert werden

Warum die Messung der Erdtemperatur schwieriger ist, als es klingt

Wenn Wissenschaftler bekannt geben, dass ein Monat oder ein Jahr einen Temperaturrekord gebrochen hat, stützt sich diese Behauptung auf ein riesiges, den Globus umspannendes Messsystem, das über mehr als ein Jahrhundert aufgebaut wurde. Um Klimaschlagzeilen richtig einordnen zu können, ist es wichtig zu verstehen, wie dieses System funktioniert – und wie Forscher sich vor Fehlern schützen.

Die globale Temperaturerfassung begann ernsthaft um 1880, als standardisierte Thermometerhütten, sogenannte Stevenson-Schirme, weit verbreitet wurden. Diese Jalousiekästen aus Holz schützen die Instrumente vor direkter Sonneneinstrahlung und Niederschlag und ermöglichen gleichzeitig eine freie Luftzirkulation, wodurch sichergestellt wird, dass die Messwerte die tatsächliche Lufttemperatur und nicht die Strahlungswärme widerspiegeln.

Die Beobachtungsnetzwerke

Heute stammen Temperaturdaten aus drei Hauptquellen: Landwetterstationen, Ozeansensoren und Satelliten. An Land ist das Rückgrat das Global Historical Climatology Network (GHCN), das Messwerte von rund 27.000 Stationen weltweit zusammenfasst. Allein in den Vereinigten Staaten erfassen mehr als 11.000 Stationen des Cooperative Observers Program (COOP) der NOAA die täglichen Höchst- und Tiefsttemperaturen, während die 144 Stationen des U.S. Climate Reference Network (USCRN) alle fünf Minuten hochpräzise automatisierte Messwerte liefern.

Über den Ozeanen – die etwa 70 Prozent der Erdoberfläche bedecken – stammen die Meeresoberflächentemperaturen von Sensoren in Schiffsmaschinenräumen, treibenden und verankerten Bojen sowie satellitengestützten Infrarot- und Mikrowelleninstrumenten. Diese Messwerte werden in Datensätzen wie dem Extended Reconstructed Sea Surface Temperature (ERSST) der NOAA zusammengeführt, der Beobachtungen bis in die 1850er Jahre zurückverfolgt.

Von Rohdaten zu einer globalen Zahl

Rohe Stationsmesswerte können nicht einfach gemittelt werden. Stationen werden eröffnet und geschlossen, Instrumente werden ausgetauscht, Städte wachsen um einst ländliche Standorte herum, und die Beobachtungszeiten verschieben sich. Um diese Probleme zu bewältigen, wenden die Behörden ein Verfahren an, das als Homogenisierung bezeichnet wird – statistische Anpassungen, die künstliche Diskontinuitäten in den Aufzeichnungen einer Station erkennen und korrigieren.

Das Goddard Institute for Space Studies (GISS) der NASA vergleicht beispielsweise städtische Stationen mit nahegelegenen ländlichen Stationen und passt städtische Trends an, um den städtischen Wärmeinseleffekt zu minimieren. Stationen werden anhand der satellitengestützten Messung der nächtlichen Lichtstrahlung als städtisch oder ländlich eingestuft. Das GHCN der NOAA wendet seinen eigenen paarweisen Algorithmus an, der jede Station mit ihren Nachbarn vergleicht, um plötzliche Verschiebungen zu identifizieren, die durch Geräteänderungen oder Stationsverlagerungen verursacht werden.

Berkeley Earth verfolgt einen anderen Ansatz: Anstatt fragwürdige Daten anzupassen, werden unzuverlässige Segmente heruntergewichtet, wobei auf über 36.000 Stationen zurückgegriffen wird – zwei- bis achtmal mehr als bei anderen wichtigen Datensätzen für jeden Monat nach 1880. Ihre Analyse bestätigte, dass die städtische Erwärmung zwar lokal von Bedeutung ist, aber einen vernachlässigbaren Einfluss auf den globalen Landdurchschnitt hat.

Vier unabhängige Teams, eine übereinstimmende Antwort

Vier Hauptgruppen berechnen unabhängig voneinander die globale Temperatur: NCEI der NOAA, NASA GISS, das UK Met Office/University of East Anglia (HadCRUT) und Berkeley Earth. Jede Gruppe verwendet unterschiedliche Rohdatenauswahlen, statistische Methoden und räumliche Interpolationstechniken. Dennoch stimmen ihre Ergebnisse durchweg bis auf wenige Hundertstel Grad Celsius überein – eine aussagekräftige Gegenprüfung, die zeigt, dass das Erwärmungssignal real ist und nicht auf einem Artefakt einer einzelnen Methodik beruht.

Alle vier drücken Temperaturen als Anomalien aus – Abweichungen von einem Basisdurchschnitt, typischerweise dem Mittelwert des 20. Jahrhunderts. Dieser Ansatz umgeht das Problem des Vergleichs absoluter Temperaturen zwischen Stationen in unterschiedlichen Höhen, Breitengraden und lokalen Klimazonen. Eine Station in den Bergen und eine auf Meereshöhe können sehr unterschiedliche absolute Temperaturen messen, aber beide können zuverlässig berichten, ob die Bedingungen wärmer oder kühler sind als ihre eigene historische Norm.

Qualitätskontrolle und Unsicherheit

Jeder Datensatz wird einer strengen Qualitätskontrolle unterzogen. Meteorologen der NOAA führen automatisierte Überprüfungen der eingehenden Daten durch und kennzeichnen Muster, die auf defekte Geräte oder systematische Fehler hindeuten. USCRN-Stationen werden jährlich kalibriert, wobei alternde Sensoren routinemäßig ausgetauscht und die Leistung täglich überwacht wird. Stationen mit weniger als 20 Jahren Daten werden in der Regel aus langfristigen Analysen ausgeschlossen.

Wissenschaftler quantifizieren auch Unsicherheitsbereiche für ihre Schätzungen und berücksichtigen dabei Messfehler, räumliche Lücken in der Abdeckung (insbesondere in der Arktis und Teilen Afrikas) und systematische Verzerrungen durch technologische Übergänge – wie z. B. die Umstellung von Quecksilberthermometern auf elektronische Sensoren oder von schiffsgestützten Ozeanmessungen auf Bojennetzwerke.

Warum es wichtig ist

Die globale Temperaturaufzeichnung ist das Fundament, auf dem Klimawissenschaft, politische Entscheidungen und internationale Abkommen beruhen. Ihre Zuverlässigkeit hängt nicht von einer einzelnen Station oder Methode ab, sondern von der Konvergenz unabhängiger Analysen, die auf Hunderttausenden von Beobachtungen über mehr als ein Jahrhundert beruhen. Wenn ein neuer Rekord bekannt gegeben wird, spiegelt er dieses gesamte System wider – ein System, das darauf ausgelegt ist, Fehler zu erkennen, Verzerrungen zu korrigieren und eine Zahl zu liefern, der die Welt vertrauen kann.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel