Ciencia

Cómo funciona la crisis de replicación y por qué sacude a la ciencia

La mitad de los hallazgos en ciencias sociales no pueden ser reproducidos por investigadores independientes, lo que expone profundos problemas estructurales en la forma en que se publican, financian e incentivan los estudios, e impulsa reformas que podrían remodelar la empresa científica.

R
Redakcia
4 min de lectura
Compartir
Cómo funciona la crisis de replicación y por qué sacude a la ciencia

El problema detrás de los titulares

Se supone que la ciencia se autocorrige. Un investigador publica un hallazgo, otros científicos repiten el experimento y el resultado se mantiene o no. En la práctica, sin embargo, este circuito de retroalimentación lleva años fallando. La crisis de replicación —también llamada crisis de reproducibilidad— se refiere a la incapacidad generalizada de los investigadores independientes para reproducir los resultados científicos publicados. Afecta a la psicología, la medicina, la economía y casi todas las disciplinas empíricas.

La escala es asombrosa. Un esfuerzo histórico de 2015 por parte de la Open Science Collaboration intentó replicar 100 estudios de psicología publicados. Aunque el 97% de los originales informaron resultados estadísticamente significativos, solo el 36% se mantuvo tras la replicación. En biología del cáncer, científicos de la empresa farmacéutica Amgen intentaron confirmar 53 artículos preclínicos de referencia y solo lo lograron con seis, una tasa de fracaso del 89%.

Una nueva prueba masiva

El esfuerzo más completo hasta la fecha, el proyecto SCORE (Systematizing Confidence in Open Research and Evidence), se publicó en Nature en abril de 2026. Financiado por la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU. con casi 8 millones de dólares, el programa de siete años reclutó a 865 investigadores para analizar aproximadamente 3.900 artículos de ciencias sociales publicados entre 2009 y 2018 en 62 revistas que abarcan economía, psicología, ciencias políticas, educación y más.

Los resultados fueron aleccionadores. De 274 afirmaciones sometidas a replicación directa, solo el 55,1% produjo resultados estadísticamente significativos en la dirección original. A nivel de artículo, solo el 49,3% se replicó con éxito. Las tasas de replicación variaron modestamente entre las disciplinas —desde el 42,5% en algunos campos hasta el 63,1% en otros—, pero ninguna disciplina se libró. Peor aún, incluso los estudios que sí se replicaron mostraron tamaños del efecto inferiores a la mitad de lo que se había informado originalmente.

Por qué fallan tantos estudios

Varias fuerzas estructurales impulsan la crisis:

  • Sesgo de publicación. Históricamente, las revistas han preferido los hallazgos novedosos y positivos. Un estudio que encuentra un efecto dramático se publica; un estudio que no encuentra nada languidece en el "cajón de los archivos". Esto crea una literatura sesgada hacia resultados llamativos pero frágiles.
  • Baja potencia estadística. Muchos estudios utilizan tamaños de muestra demasiado pequeños para detectar de forma fiable los efectos reales. Las estimaciones sugieren que la potencia estadística media en psicología ronda el 35%, lo que significa que la mayoría de los estudios tienen poca potencia desde el principio.
  • Grados de libertad del investigador. En cada etapa —desde la formación de la hipótesis hasta el análisis de los datos— los científicos se enfrentan a decisiones que no están totalmente limitadas por las mejores prácticas. Las decisiones flexibles sobre qué datos excluir, qué variables probar y cuándo dejar de recopilar datos pueden inflar las tasas de falsos positivos, a veces sin intención.
  • Incentivos de publicar o perecer. El avance profesional depende de la publicación frecuente en revistas de alto impacto, lo que recompensa la velocidad y la novedad por encima del rigor y la replicación.

Qué predice realmente la reproducibilidad

El proyecto SCORE descubrió un factor que se correlacionaba fuertemente con la posibilidad de reproducir un estudio: la disponibilidad de los datos. Solo alrededor de un tercio de los artículos de la muestra habían hecho que sus datos subyacentes y su código informático fueran fácilmente accesibles. Los que lo hicieron tenían significativamente más probabilidades de replicarse. La transparencia, resulta, es el mejor predictor de la fiabilidad.

Reformas que están echando raíces

La crisis ya ha comenzado a remodelar la práctica científica. Los informes registrados —un formato de publicación en el que los investigadores presentan sus métodos y planes de análisis para la revisión por pares antes de recopilar los datos— ahora son ofrecidos por cientos de revistas. Debido a que la publicación está garantizada independientemente del resultado, esto elimina el incentivo de perseguir resultados positivos.

Las prácticas de ciencia abierta también se están extendiendo. Los principales financiadores, como los Institutos Nacionales de Salud de EE. UU. y el Consejo Europeo de Investigación, exigen cada vez más el intercambio de datos. Herramientas como StatCheck escanean automáticamente los artículos en busca de inconsistencias estadísticas. Las comunidades de base, incluido el Center for Open Science, proporcionan formación e infraestructura para la investigación transparente.

Estas reformas no son una panacea. Cambiar las estructuras de incentivos —cómo los comités de contratación evalúan a los candidatos, cómo se conceden las subvenciones— sigue siendo lento. Pero la dirección del viaje es clara: la ciencia está aprendiendo a comprobar su propio trabajo, una replicación a la vez.

Este artículo también está disponible en otros idiomas:

Artículos relacionados