Cómo se miden y verifican los registros de temperatura global
Desde estaciones meteorológicas y boyas oceánicas hasta satélites y algoritmos estadísticos, el seguimiento de la temperatura de la Tierra es un proceso complejo y multicapa que involucra a miles de instrumentos y cuatro equipos científicos independientes.
Por qué medir la temperatura de la Tierra es más difícil de lo que parece
Cuando los científicos anuncian que un mes o un año ha batido un récord de temperatura, la afirmación se basa en un vasto sistema de medición que abarca todo el mundo y que se ha construido a lo largo de más de un siglo. Comprender cómo funciona ese sistema, y cómo los investigadores se protegen contra los errores, es esencial para evaluar cualquier titular sobre el clima.
El seguimiento de la temperatura global comenzó en serio alrededor de 1880, cuando se generalizó el uso de refugios de termómetros estandarizados conocidos como casetas Stevenson. Estas cajas de madera con persianas protegen los instrumentos de la luz solar directa y la precipitación, al tiempo que permiten que el aire fluya libremente, lo que garantiza que las lecturas reflejen la temperatura real del aire en lugar del calor radiante.
Las redes de observación
Hoy en día, los datos de temperatura fluyen de tres fuentes principales: estaciones meteorológicas terrestres, sensores oceánicos y satélites. En tierra, la columna vertebral es la Red Global de Climatología Histórica (GHCN), que agrega lecturas de aproximadamente 27.000 estaciones en todo el mundo. Solo en los Estados Unidos, más de 11.000 estaciones del Programa de Observadores Cooperativos (COOP) de la NOAA registran las temperaturas máximas y mínimas diarias, mientras que las 144 estaciones de la Red de Referencia Climática de los Estados Unidos (USCRN) proporcionan lecturas automatizadas de alta precisión cada cinco minutos.
Sobre los océanos, que cubren aproximadamente el 70 por ciento de la superficie de la Tierra, las temperaturas de la superficie del mar provienen de sensores de admisión de motores de barcos, boyas a la deriva y amarradas, e instrumentos infrarrojos y de microondas basados en satélites. Estas lecturas se compilan en conjuntos de datos como la Temperatura Reconstruida Extendida de la Superficie del Mar (ERSST) de la NOAA, que reúne observaciones que se remontan a la década de 1850.
De los datos brutos a un número global
Las lecturas brutas de las estaciones no pueden simplemente promediarse. Las estaciones se abren y se cierran, los instrumentos se reemplazan, las ciudades crecen alrededor de sitios que antes eran rurales y los tiempos de observación cambian. Para abordar estos problemas, las agencias aplican un proceso llamado homogeneización: ajustes estadísticos que detectan y corrigen las discontinuidades artificiales en el registro de una estación.
El Instituto Goddard de Estudios Espaciales (GISS) de la NASA, por ejemplo, compara las estaciones urbanas con las rurales cercanas y ajusta las tendencias urbanas para minimizar el efecto isla de calor urbana. Las estaciones se clasifican como urbanas o rurales utilizando la radiancia de la luz nocturna medida por satélite. La GHCN de la NOAA aplica su propio algoritmo por pares, comparando cada estación con sus vecinas para identificar cambios repentinos causados por cambios de equipo o reubicaciones de estaciones.
Berkeley Earth adopta un enfoque diferente: en lugar de ajustar los datos cuestionables, reduce la ponderación de los segmentos no fiables, basándose en más de 36.000 estaciones, entre dos y ocho veces más que otros conjuntos de datos importantes para cualquier mes posterior a 1880. Su análisis confirmó que el calentamiento urbano, aunque localmente significativo, tiene un efecto insignificante en el promedio global de la tierra.
Cuatro equipos independientes, una respuesta coherente
Cuatro grupos principales calculan la temperatura global de forma independiente: NCEI de la NOAA, GISS de la NASA, la Oficina Meteorológica del Reino Unido/Universidad de East Anglia (HadCRUT) y Berkeley Earth. Cada uno utiliza diferentes selecciones de datos brutos, métodos estadísticos y técnicas de interpolación espacial. Sin embargo, sus resultados coinciden sistemáticamente con una diferencia de unas pocas centésimas de grado Celsius, una poderosa verificación cruzada de que la señal de calentamiento es real y no un artefacto de una sola metodología.
Los cuatro expresan las temperaturas como anomalías: desviaciones de un promedio de referencia, normalmente la media del siglo XX. Este enfoque evita el problema de comparar temperaturas absolutas entre estaciones a diferentes altitudes, latitudes y climas locales. Una estación en las montañas y otra al nivel del mar pueden registrar temperaturas absolutas muy diferentes, pero ambas pueden informar de forma fiable si las condiciones son más cálidas o más frías que su propia norma histórica.
Control de calidad e incertidumbre
Cada conjunto de datos se somete a un riguroso control de calidad. Los meteorólogos de la NOAA ejecutan comprobaciones automatizadas de los datos entrantes, señalando patrones que sugieren un mal funcionamiento del equipo o errores sistemáticos. Las estaciones USCRN se calibran anualmente, los sensores envejecidos se reemplazan rutinariamente y el rendimiento se supervisa diariamente. Las estaciones con menos de 20 años de datos suelen descartarse de los análisis a largo plazo.
Los científicos también cuantifican los límites de incertidumbre para sus estimaciones, teniendo en cuenta el error de medición, las lagunas espaciales en la cobertura (especialmente en el Ártico y partes de África) y los sesgos sistemáticos de las transiciones tecnológicas, como el cambio de los termómetros de mercurio a los sensores electrónicos, o de las lecturas oceánicas basadas en barcos a las redes de boyas.
Por qué es importante
El registro de la temperatura global es la base sobre la que descansan la ciencia del clima, las decisiones políticas y los acuerdos internacionales. Su fiabilidad no depende de una sola estación o método, sino de la convergencia de análisis independientes que se basan en cientos de miles de observaciones que abarcan más de un siglo. Cuando se anuncia un nuevo récord, refleja todo este sistema, uno diseñado para detectar errores, corregir sesgos y ofrecer un número en el que el mundo pueda confiar.