Cuando una tormenta descarga grandes cantidades de agua sobre una cuenca hidrográfica, ¿cómo podemos predecir cuánta agua llegará al río, con qué rapidez y qué caudal alcanzará? Esta es la pregunta fundamental que aborda la modelización hidrológica, la disciplina científica que transforma los datos de lluvia en predicciones de caudales y niveles de agua. Detrás de cada alerta de crecida hay modelos matemáticos que simulan el complejo recorrido del agua desde que cae como lluvia hasta que fluye por los cauces. Este artículo explica los conceptos clave de esta ciencia de forma accesible.

El problema básico: la transformación lluvia-escorrentía

No toda la lluvia que cae sobre una cuenca acaba en el río. Una parte se infiltra en el suelo, otra es interceptada por la vegetación, otra llena pequeñas depresiones del terreno (retención superficial) y otra se evapora directamente. Solo la fracción que no es absorbida por ninguno de estos procesos se convierte en escorrentía superficial y fluye ladera abajo hacia los arroyos y ríos.

La relación entre la lluvia caída y el caudal resultante en un punto del río se conoce como transformación lluvia-escorrentía, y es el núcleo de la modelización hidrológica. Esta transformación depende de múltiples factores: el tipo de suelo (arcilloso, arenoso, rocoso), la cobertura vegetal, la pendiente del terreno, la humedad previa del suelo, la intensidad y duración de la lluvia, y el grado de urbanización de la cuenca.

Modelos agregados frente a modelos distribuidos

Existen dos grandes filosofías en la modelización hidrológica, que difieren en cómo representan la variabilidad espacial de la cuenca:

Modelos agregados (o globales): Tratan la cuenca como una unidad homogénea, caracterizada por parámetros medios. La lluvia se considera uniforme sobre toda la cuenca, y la respuesta se calcula globalmente. Son más sencillos, requieren menos datos y son computacionalmente rápidos, pero pierden la información sobre dónde exactamente llueve más o dónde el suelo es más permeable.

Modelos distribuidos: Dividen la cuenca en celdas o subcuencas, cada una con sus propias características de suelo, vegetación, pendiente y precipitación. Calculan la escorrentía celda a celda y propagan el flujo a través de la red de drenaje. Son más realistas pero requieren mucha más información (modelos digitales de elevación, mapas de suelos, datos de lluvia en rejilla) y mayor capacidad de cálculo.

Modelos semidistribuidos: En la práctica, muchos modelos operativos utilizan un enfoque intermedio: dividen la cuenca en subcuencas (unidades de tamaño medio), cada una modelizada de forma agregada, y luego propagan los caudales resultantes a través de la red fluvial. Este enfoque ofrece un buen equilibrio entre realismo y operatividad. El modelo HEC-HMS, muy utilizado en España, funciona de esta manera.

El método SCS-CN: estimando cuánta lluvia se convierte en escorrentía

Uno de los métodos más utilizados mundialmente para estimar la lluvia neta (la parte de la lluvia que genera escorrentía) es el método del Número de Curva del Servicio de Conservación de Suelos (SCS-CN), desarrollado por el Departamento de Agricultura de Estados Unidos en la década de 1950 y todavía vigente en la práctica profesional.

El método se basa en un parámetro adimensional llamado Número de Curva (CN), que varía entre 0 y 100 y refleja el potencial de escorrentía de la cuenca. Un CN alto (cercano a 100) indica una cuenca muy impermeable donde casi toda la lluvia se convierte en escorrentía; un CN bajo indica alta capacidad de infiltración.

El CN depende de tres factores principales:

  • Grupo hidrológico del suelo: Los suelos se clasifican en cuatro grupos (A, B, C, D) según su tasa de infiltración. El grupo A (arenas profundas) infiltra mucho; el grupo D (arcillas impermeables) infiltra muy poco.
  • Uso del suelo y cobertura vegetal: Un bosque denso genera mucha menos escorrentía que un aparcamiento asfaltado sobre el mismo tipo de suelo.
  • Condición de humedad antecedente: Un suelo ya saturado por lluvias previas genera mucha más escorrentía que un suelo seco. El método contempla tres condiciones de humedad previa (I: seco, II: normal, III: húmedo).

La ecuación fundamental del método SCS es:

Q = (P - Ia)² / (P - Ia + S)

Donde Q es la escorrentía acumulada, P es la precipitación acumulada, Ia son las abstracciones iniciales (generalmente estimadas como 0,2·S) y S es el potencial máximo de retención, calculado a partir del CN como S = (25.400/CN) - 254 (en milímetros).

Ejemplo práctico: Una cuenca forestal sobre suelo arenoso podría tener un CN de 55, lo que significa que una lluvia de 100 mm generaría unos 18 mm de escorrentía. La misma lluvia sobre una zona urbana impermeabilizada (CN = 98) generaría 94 mm de escorrentía. La urbanización multiplica la escorrentía por un factor 5 o más.

El hidrograma unitario de Clark: cuándo llega el agua

El método SCS-CN nos dice cuánta lluvia se convierte en escorrentía, pero no cuándo esa escorrentía llega al punto de control del río. Para esto necesitamos un hidrograma unitario, un modelo que describe cómo se distribuye temporalmente la respuesta de la cuenca a un pulso de lluvia.

El hidrograma unitario de Clark es uno de los más utilizados en España. Se basa en el concepto de tiempo-área: divide la cuenca en bandas de igual tiempo de viaje hasta la salida (isócronas) y calcula qué fracción del área de la cuenca contribuye al caudal en cada intervalo de tiempo. Luego aplica un embalse lineal para simular el efecto de almacenamiento y atenuación que la cuenca ejerce sobre el flujo.

Los dos parámetros del modelo de Clark son:

  • Tc (tiempo de concentración): El tiempo que tarda el agua en recorrer desde el punto más alejado de la cuenca hasta la salida. Depende de la longitud, pendiente y rugosidad del recorrido.
  • R (coeficiente de almacenamiento): Representa la atenuación que el terreno ejerce sobre la onda de crecida. Cuencas llanas con llanuras de inundación amplias tienen R alto (mucha atenuación); cuencas empinadas y encajadas tienen R bajo (poca atenuación, respuesta rápida y puntiaguda).

Propagación de la crecida en el cauce: el método de Muskingum

Una vez generada la escorrentía en cada subcuenca, necesitamos simular cómo la onda de crecida viaja por los tramos de río que conectan las subcuencas entre sí. Este proceso se denomina tránsito o propagación de la crecida.

El método de Muskingum, desarrollado originalmente para el río Muskingum en Ohio (EE.UU.), es el método de propagación más extendido en los modelos hidrológicos. Simula dos efectos fundamentales que el cauce ejerce sobre la onda de crecida:

  • Traslación: La onda de crecida se desplaza aguas abajo con una cierta velocidad, lo que implica un retraso temporal entre el momento en que la crecida pasa por un punto y el momento en que llega al siguiente.
  • Atenuación (laminación): El cauce y sus márgenes almacenan temporalmente agua durante el paso de la crecida, reduciendo el caudal punta y alargando la duración de la onda. Las llanuras de inundación naturales son extraordinariamente eficaces en esta función.

El método utiliza dos parámetros: K (tiempo de tránsito del tramo, en horas) y X (parámetro de ponderación entre 0 y 0,5 que controla el grado de atenuación). Su variante Muskingum-Cunge permite estimar estos parámetros a partir de las características geométricas y de rugosidad del cauce, sin necesidad de calibración empírica.

Calibración: ajustando el modelo a la realidad

Todo modelo hidrológico necesita ser calibrado: sus parámetros deben ajustarse comparando las salidas del modelo (caudales simulados) con datos reales medidos (caudales aforados). Sin calibración, un modelo puede dar resultados muy alejados de la realidad.

El proceso de calibración consiste en:

  1. Seleccionar eventos históricos para los que se disponga de datos de precipitación y caudal observado.
  2. Ejecutar el modelo con los datos de lluvia como entrada.
  3. Comparar los hidrogramas simulados con los observados.
  4. Ajustar iterativamente los parámetros (CN, Tc, R, K, X) hasta que la simulación reproduzca razonablemente los datos observados.
  5. Validar el modelo con eventos diferentes a los usados en la calibración, para comprobar que los parámetros son robustos y no están «sobreajustados».
Incertidumbre inevitable: Incluso un modelo bien calibrado tiene incertidumbre. Los datos de precipitación contienen errores (la red de pluviómetros no captura toda la variabilidad espacial), los parámetros son simplificaciones de procesos complejos, y las condiciones de la cuenca cambian con el tiempo (urbanización, incendios, cambios en el uso del suelo). Reconocer y cuantificar esta incertidumbre es tan importante como el propio modelo.

Predicciones de conjunto y la gestión de la incertidumbre

Para hacer frente a la incertidumbre, la práctica moderna utiliza predicciones de conjunto (ensemble). En lugar de ejecutar el modelo con una única previsión meteorológica, se ejecuta con múltiples escenarios de lluvia prevista (proporcionados por predicciones meteorológicas probabilísticas, como las del ECMWF con 51 miembros). Esto genera un abanico de posibles hidrogramas futuros, cada uno con una probabilidad asociada.

En lugar de decir «el caudal punta será de 500 m³/s», una predicción de conjunto dice «hay un 80% de probabilidad de que el caudal supere los 300 m³/s, un 50% de que supere los 500 m³/s y un 10% de que supere los 800 m³/s». Esta información probabilística es mucho más útil para la toma de decisiones en protección civil que una predicción determinista única.

Actualización en tiempo real

Cuando se dispone de datos de caudal observado en tiempo real (procedentes de las estaciones de aforo del SAIH), los modelos hidrológicos pueden actualizarse continuamente. Si el caudal observado se desvía del simulado, el modelo corrige sus parámetros o sus estados internos (niveles de humedad del suelo, volúmenes almacenados) para ajustarse a la realidad observada. Esta técnica, conocida como asimilación de datos, mejora significativamente la precisión de la predicción en las horas siguientes.

Modelos utilizados en España

Varios modelos hidrológicos se utilizan operativamente en España:

  • SIMPA (Sistema Integrado de Modelización Precipitación-Aportación): Modelo distribuido desarrollado por el CEDEX para la evaluación de recursos hídricos en España. Opera a escala mensual y se utiliza principalmente para la planificación hidrológica a largo plazo, no para la predicción de crecidas en tiempo real.
  • HEC-HMS: Desarrollado por el Cuerpo de Ingenieros del Ejército de EE.UU., es probablemente el modelo hidrológico más utilizado mundialmente para la simulación de crecidas. Es semidistribuido, incorpora todos los métodos descritos (SCS-CN, Clark, Muskingum) y es de uso libre. Muchos estudios de inundabilidad en España se realizan con HEC-HMS.
  • MIKE 11 (ahora MIKE+): Desarrollado por el Instituto Hidráulico Danés (DHI), es un modelo hidrodinámico unidimensional que resuelve las ecuaciones completas de Saint-Venant para flujo en cauces abiertos. Se utiliza cuando se necesita modelizar con detalle la hidráulica del cauce: niveles de agua, velocidades, desbordamientos, efecto de obstáculos. Varias confederaciones hidrográficas españolas disponen de modelos MIKE operativos.
HidroAlerta24 y la modelización simplificada: HidroAlerta24 integra datos de predicción de caudales procedentes de Open-Meteo Flood API, que utiliza el modelo hidrológico GloFAS (Global Flood Awareness System) del Centro Europeo de Previsiones Meteorológicas a Plazo Medio (ECMWF). GloFAS proporciona predicciones probabilísticas de caudal para los principales ríos del mundo, que HidroAlerta24 presenta al usuario en forma de alertas de riesgo de crecida con antelación de varios días.

El futuro: aprendizaje automático en la predicción de crecidas

En los últimos años, las técnicas de aprendizaje automático (machine learning) han irrumpido con fuerza en la hidrología. Los modelos basados en redes neuronales recurrentes, especialmente las redes LSTM (Long Short-Term Memory), han demostrado una capacidad notable para predecir caudales a partir de datos de precipitación, temperatura, humedad del suelo y caudales previos.

Estudios recientes publicados en revistas como Water Resources Research muestran que los modelos LSTM pueden igualar o superar a los modelos hidrológicos tradicionales calibrados en cuencas individuales, y tienen la ventaja de poder aprender patrones generalizables a partir de datos de múltiples cuencas simultáneamente. El proyecto Google Flood Forecasting, que utiliza estas técnicas, ha demostrado resultados prometedores en la predicción de inundaciones a escala global.

Sin embargo, los modelos de machine learning también tienen limitaciones:

  • Caja negra: Es difícil interpretar por qué el modelo hace una predicción concreta, lo que dificulta la detección de errores y la confianza de los gestores.
  • Dependencia de datos: Necesitan series históricas largas y de calidad para el entrenamiento. En cuencas con pocos datos, su rendimiento puede ser inferior al de los modelos físicos.
  • Extrapolación: Pueden fallar ante eventos extremos que están fuera del rango de los datos de entrenamiento, precisamente los eventos más peligrosos.

El acoplamiento meteorológico-hidrológico

La frontera más prometedora en la predicción de crecidas es el acoplamiento de modelos meteorológicos y hidrológicos. En lugar de usar la previsión de lluvia como dato de entrada estático, los modelos más avanzados ejecutan la cadena completa: modelo atmosférico global (ECMWF/IFS) → modelo meteorológico regional de alta resolución (HARMONIE-AROME) → modelo hidrológico de cuenca (HEC-HMS o equivalente) → modelo hidrodinámico de cauce (MIKE o similar) → mapas de inundación.

Esta cadena completa permite pasar de una previsión de «lloverá mucho» a una previsión de «esta calle se inundará con 80 cm de agua dentro de 6 horas», que es la información realmente útil para la toma de decisiones de protección civil.

La modelización hidrológica, con sus métodos clásicos y sus nuevas herramientas computacionales, sigue siendo el puente indispensable entre la observación del tiempo atmosférico y la protección de vidas y bienes frente a las inundaciones. Su continua mejora, alimentada por mejores datos, mayor potencia de cálculo y nuevas técnicas de inteligencia artificial, es uno de los pilares fundamentales de la adaptación de nuestra sociedad a un clima cambiante.