¿quÉ queremos decir con buenos resultados de un …

22
Julio 2002 1 / 22 ¿QUÉ QUEREMOS DECIR CON BUENOSRESULTADOS DE UN MODELO?: MODELACIÓN DIRECTA E INVERSA PARA TRAZAS ATMOSFÉRICAS Laura Gallardo Klenner PhD Meteorología Química Centro de Modelamiento Matemático (CMM), Universidad de Chile [email protected] RESUMEN Cuando decimos que un modelo muestra buenos resultados, en general, lo hacemos porque hemos comparado valores modelados y valores observados y el modelo logra reproducir las observaciones bajo algún criterio de similitud. Si hay muchas observaciones disponibles y, supuestamente, comparables a nuestro modelo, entonces damos algunos indicadores estadísticos del criterio de similitud (e.g., error cuadrático medio, factor de correlación, etc.). Sin embargo, a menudo no hay suficientes datos medidos para poder evaluar todos los parámetros implícitos en nuestros modelos y, aún si los hubiere, decir cuál es la comparación relevante se transforma en una cuestión de conveniencia, según el problema, y opinión experta. Esto se debe a que lo que representan las mediciones suele no coincidir con lo que nuestros modelos estiman. La modelación inversa es una técnica que permite evaluar la sensibilidad de nuestros modelos respecto de los parámetros de entrada, sean estos condiciones iniciales, de borde o parámetros característicos de procesos físicos como tasas de remoción o emisiones. También da una manera de optimizar los resultados de un modelo al mezclar datos medidos y datos calculados, evitando, por ejemplo, la propagación descontrolada de errores en los sistemas dinámicos complejos, a veces caóticos, que tratamos de modelar. Un uso práctico muy destacado de esta técnica es, por cierto, la optimización de la ubicación de sensores o instrumentos, es decir, el diseño de redes de monitoreo. Aquí presento una introducción a este tema, basada en mi propio aprendizaje, que dista de ser una revisión exhaustiva. Los conceptos aquí discutidos serán ilustrados con algunos ejemplos. 1. INTRODUCCIÓN La modelación inversa aparece como un área de creciente interés por parte de la comunidad de científicos atmosféricos (e.g., Kasibhatla et al, 1999; Granier et al, 2002). Hasta hace algún tiempo, las técnicas de modelación inversa eran usadas en ciencias atmosféricas mayoritariamente en el contexto de problemas de asimilación de datos meteorológicos y pronóstico del tiempo (e.g., Gustafsson, 1997). Esto debido a la mayor disponibilidad de observaciones meteorológicas tradicionales (viento, temperatura, humedad, etc.) que de observaciones de trazas atmosféricas como gases y aerosoles. Sin embargo, el advenimiento y creciente desarrollo de la percepción remota de trazas en la atmósfera ha ampliado vigorosamente el uso de este tipo de técnicas y herramientas en química atmosférica (e.g., Charlson, 2001). Además, se ha venido usando crecientemente como una técnica de estimación de sensibilidades respecto de parámetros (e.g., emisiones, tasas de deposición, etc.) así como para la optimización de parámetros en modelos de varias escalas y grados de sofisticación física, matemática y computacional. Algunos ejemplos de aplicaciones de estas técnicas en ciencias atmosféricas a través del tiempo son resumidos en la Tabla 1.

Upload: others

Post on 26-Jun-2022

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 1 / 22

¿QUÉ QUEREMOS DECIR CON “BUENOS” RESULTADOS DE UN MODELO?:

MODELACIÓN DIRECTA E INVERSA PARA TRAZAS ATMOSFÉRICAS Laura Gallardo Klenner

PhD Meteorología Química Centro de Modelamiento Matemático (CMM), Universidad de Chile

[email protected]

RESUMEN Cuando decimos que un modelo muestra buenos resultados, en general, lo hacemos porque hemos

comparado valores modelados y valores observados y el modelo logra reproducir las observaciones bajo algún criterio de similitud. Si hay muchas observaciones disponibles y, supuestamente, comparables a nuestro modelo, entonces damos algunos indicadores estadísticos del criterio de similitud (e.g., error cuadrático medio, factor de correlación, etc.). Sin embargo, a menudo no hay suficientes datos medidos para poder evaluar todos los parámetros implícitos en nuestros modelos y, aún si los hubiere, decir cuál es la comparación relevante se transforma en una cuestión de conveniencia, según el problema, y opinión experta. Esto se debe a que lo que representan las mediciones suele no coincidir con lo que nuestros modelos estiman. La modelación inversa es una técnica que permite evaluar la sensibilidad de nuestros modelos respecto de los parámetros de entrada, sean estos condiciones iniciales, de borde o parámetros característicos de procesos físicos como tasas de remoción o emisiones. También da una manera de optimizar los resultados de un modelo al mezclar datos medidos y datos calculados, evitando, por ejemplo, la propagación descontrolada de errores en los sistemas dinámicos complejos, a veces caóticos, que tratamos de modelar. Un uso práctico muy destacado de esta técnica es, por cierto, la optimización de la ubicación de sensores o instrumentos, es decir, el diseño de redes de monitoreo. Aquí presento una introducción a este tema, basada en mi propio aprendizaje, que dista de ser una revisión exhaustiva. Los conceptos aquí discutidos serán ilustrados con algunos ejemplos.

1. INTRODUCCIÓN La modelación inversa aparece como un área de creciente interés por parte de la

comunidad de científicos atmosféricos (e.g., Kasibhatla et al, 1999; Granier et al, 2002). Hasta hace algún tiempo, las técnicas de modelación inversa eran usadas en ciencias atmosféricas mayoritariamente en el contexto de problemas de asimilación de datos meteorológicos y pronóstico del tiempo (e.g., Gustafsson, 1997). Esto debido a la mayor disponibilidad de observaciones meteorológicas tradicionales (viento, temperatura, humedad, etc.) que de observaciones de trazas atmosféricas como gases y aerosoles. Sin embargo, el advenimiento y creciente desarrollo de la percepción remota de trazas en la atmósfera ha ampliado vigorosamente el uso de este tipo de técnicas y herramientas en química atmosférica (e.g., Charlson, 2001). Además, se ha venido usando crecientemente como una técnica de estimación de sensibilidades respecto de parámetros (e.g., emisiones, tasas de deposición, etc.) así como para la optimización de parámetros en modelos de varias escalas y grados de sofisticación física, matemática y computacional. Algunos ejemplos de aplicaciones de estas técnicas en ciencias atmosféricas a través del tiempo son resumidos en la Tabla 1.

Page 2: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 2 / 22

Tabla 1. Algunas aplicaciones de modelación inversa en ciencias atmosféricas. Tema u objetivo Técnica de inversión Referencia Análisis objetivo de campos sinópticos de modo de aminorar el error del pronóstico a partir de un estado inicial pobre e irregularmente determinado u observado (Problema de inicialización).

Interpolación del campo geopotencial de 500 hPa desde las estaciones de radiosondeos a las grillas del modelo barotrópico usando un polinomio bidimensional e interpolación estadística u óptima a través de la cual se asignan pesos óptimos, minimizando la varianza, a los datos de acuerdo a su representatividad.

Panofsky, 1949

Ciclo biogeoquímico del dióxido de carbono, estimación de fuentes y sumideros

Acotamiento de las estimaciones de los flujos de dióxido de carbono a través de la resolución del problema inverso para un modelo meridional y difusivo

Bolin & Keeling, 1963

Problema de inicialización y problema de sensibilidad a las condiciones de borde laterales en modelos de área limitada

Asimilación variacional de datos en tres y cuatro dimensiones. Esta técnica es similar a la interpolación estadística pero ahora se interpolan simultáneamente todas las variables usando como restricción las relaciones entre ellas expresadas en el modelo que las estima.

Bengtsson, 1980

Problema de estimación probabilística del estado futuro del tiempo

Predicción de conjuntos (“ensembles”). En esta técnica se resuelve el problema adjunto para estimar sensibilidades máximas y luego se realizan conjuntos de corridas para las variables o sensibilidades seleccionadas.

Molteni et al, 1996

Ciclo biogeoquímico del metano, estimación de fuentes

Estimación de distribución óptima de flujos de emisión a partir de las observaciones de la concentración usando prueba y error sobre un conjunto de escenarios consistentes con el error de las observaciones

Fung et al., 1991

Optimización del desempeño de modelos fotoquímicos asimilando observaciones satelitales, determinación de la capacidad oxidativa de la atmósfera y ciclos biogeoquímicos

Asimilación variacional de datos, método del adjunto y procedimientos recursivos y paralelizados (Filtros de Kalman, funciones de Green)

Fisher & Lary, 1995 Prinn et al, 1995 Enting, 1999 Ménard, 1999

Estimación de fuentes radioactivas y respuesta a emergencias nucleares

Asimilación variacional de datos Resolución del problema adjunto

Robertson & Langner, 1998 Pudykiewickz, 1998 Hourdin &Issartel, 2000 Seibert, 2001

Estimación de fuentes y parámetros de reactividad, diseño de redes de monitoreo y sensibilidad a errores en inventarios de emisiones para modelos fotoquímicos y emergencias nucleares

Resolución del problema adjunto, diferenciación automática y asimilación variacional de datos

Elbern et al, 2000 Quélo & Sportisse, 2002

Page 3: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 3 / 22

Mi intención es mostrar que las técnicas de modelación inversa pueden ayudarnos a dar respuesta a la cuestión de cómo ponderar los criterios de similitud entre observaciones y resultados de modelos atmosféricos. Típica y necesariamente sostenemos que un modelo reproduce “bien” ciertas observaciones basados en criterio experto, cuya cuantificación puede ser incierta y variable, tanto según el problema a abordar como según el experto y su acervo.

Para ello, en la sección siguiente discutiré algunos ejemplos de “buenos” y “malos” resultados de modelos. Luego presentaré algunos conceptos sobre los cuales se fundamentan las técnicas de modelación directa e inversa, incluyendo las nociones de error y sensibilidad y una revisión somera de los conceptos de representatividad, precisión y exactitud. En la sección 4, a través de algunos ejemplos, ilustraré los procedimientos de modelación directa e inversa. Luego, en la sección 5 revisaré brevemente las actividades de modelación atmosférica en Chile y las perspectivas previsibles respecto de la aplicación de técnicas de modelación inversa. Finalmente, en la sección 6 presentaré un resumen y algunas conclusiones.

2. ¿QUÉ QUEREMOS DECIR CON “BUENOS” O “MALOS” RESULTADOS DE UN MODELO? Los resultados de un modelo son “buenos” o “malos” dependiendo de la pertinencia del

modelo a la pregunta que se quiere contestar y del grado de acierto que la potencial respuesta exige.

En cuanto a la relevancia o pertinencia del modelo para contestar la pregunta hay que tener, pareciera obvio, muy clara la pregunta que se formula y que se quiere contestar. Sin embargo, no es trivial que siempre sea así pues muchas veces la definición de la pregunta es parte integral del desarrollo del modelo o el instrumento de medición y, como es de todos bien conocido, la definición de las preguntas es un proceso extraordinariamente dinámico en ciencias.

Por ejemplo, una pregunta formulada a principios de los años 1970 fue si el uso de clorofluocarbonos (CFCs) como refrigerantes, espumas aislantes, etc., podría tener un impacto significativo sobre la capa de ozono estratosférico. El modelo capaz de describir los procesos de transporte interhemisférico y las reacciones en fase gaseosa estaba, en principio, claro y bien documentado. Y en tanto el problema se restringía a reacciones en fase gaseosa, los resultados del modelo eran “buenos” (en tanto se contrastaba con los datos disponibles). La mejor respuesta fue entonces que efectivamente habría un efecto pero que éste ocurriría lentamente. Pero todos sabemos que en 1987 se descubrió, bruscamente, que la pregunta estaba inadecuadamente formulada, que al modelo le faltaban procesos esenciales (reacciones en fase heterogénea) y que las observaciones eran incompletas y en el caso de las observaciones desde satélites sobre la Antártica, simplemente forzadas a ser erróneas pues se excluían, por defecto, valores bajo un cierto umbral considerado “irreal” (e.g., Solomon, 1999). En este caso tenemos la paradoja que un “buen modelo que entregó respuestas correctas” resultó ser irrelevante en el sentido que carecía de una representación de procesos esenciales, no pudiendo predecir la aparición del “hoyo de ozono” que resultó ser entonces la “pregunta bien definida”.

También hay ejemplos en que el criterio experto parece estar ausente a la hora de decidir qué modelo (o instrumento) aplicar. Este es el caso cuando se quiere aplicar un modelo que ha funcionado bien en muchas oportunidades pero que ahora se fuerza a representar algo que no está diseñado para representar. Revisando estudios de evaluación de impacto ambiental (EIAs) es, desafortunadamente, frecuente ver insistentes intentos de aplicar

Page 4: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 4 / 22

modelos de penacho gaussiano para estimar la concentración (y aún la deposición) de trazas atmosféricas varias de decenas de kilómetros viento abajo de la fuente, en condiciones de terreno muy complejo como el que caracteriza a muchas zonas de nuestro país (Bustos, 2002), violando los supuestos de este tipo de modelos. Los modelos gaussianos, obtenibles fácilmente a través de Internet y recomendados por la Agencia Ambiental de los Estados Unidos de Norteamérica, están basados en la observación empírica que los humos de una chimenea se dispersan dando lugar a una distribución aproximadamente gaussiana y estacionaria de las concentraciones unos pocos kilómetros viento abajo de la chimenea en condiciones de terreno plano, mezcla homogénea, etc. (Seinfeld & Pandis, 1998).

Respecto del grado de acierto potencial de la respuesta, éste será o no suficiente dependiendo del uso que se dé a la misma. Un científico(a) tenderá a estar contento(a) si encuentra una discrepancia mayor entre el modelo y la observación pues eso quiere decir que hay algo que investigar. Desde el punto de vista de la toma de decisiones, basadas, entre otras cosas, en la información entregada por el modelo, esa incertidumbre puede incluso ser equivalente a no tener la información. En cualquier caso, en ambas situaciones se hace necesario cuantificar la incertidumbre de la respuesta y determinar la razón más probable de explicar la discrepancia. Es así que, por ejemplo en el marco de la labor del Panel Intergubernamental de Cambio Climático (IPCC, 2001), se ha hecho hincapié en la determinación de sensibilidades en los modelos.

3. MODELACIÓN DIRECTA E INVERSA Cuando describimos un sistema dinámico cualquiera lo hacemos en términos de

parámetros y relaciones matemáticas entre diversas cantidades, por ejemplo, fuerzas y aceleraciones, etc. Las relaciones matemáticas, a su vez, las derivamos o inferimos de las leyes naturales que conocemos y de las relaciones empíricas que observamos. En aplicaciones prácticas, para sistemas complejos caracterizados por muchas variables y, a menudo, por relaciones matemáticas que combinan ecuaciones diferenciales ordinarias y de derivadas parciales, relaciones algebraicas, etc., expresamos las relaciones matemáticas de manera discretizada y aproximada por diversos algoritmos numéricos. En definitiva, estos sistemas de relaciones matemáticas son resueltos computacionalmente representando las cantidades y relaciones como ordenamientos matriciales multidimensionales. La resolución computacional consiste en ejecutar, a través de uno o más artefactos electrónicos (procesadores), un conjunto ordenado de operaciones simples, típicamente sumas y restas, que dan lugar a nuevos conjuntos de datos que son generados y, en parte, acumulados en los medios electrónicos dispuestos para ese fin (discos).

Considerando lo anterior, supongamos que existen n parámetros o datos de entrada Ei, (i=1,...,n) y m parámetros o datos de salida Sj (j=1,...,m) y llamemos M al modelo físico y matemático que relaciona las n entradas y las m salidas. Así, se tendrá que para la j-ésima variable de salida se podrá escribir:

(1) n1,...,im;1,...,j;EMSni

1iijij ===∑

=

=

Teniéndose la relación expresada en (1), entonces la j-ésima variable de salida variará respecto de los cambios en las variables de entrada según:

(2) m1,...,j;EdMEdE

MEd

E

SdS i

ni

1i

ji'

i

ni

1i i

jii

ni

1i i

jj =≡

∂∂

=∂∂

= ∑∑∑=

=

=

=

=

=

Page 5: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 5 / 22

Y, en general, para cualquier función J de las variables de salida, por ejemplo, un cierto promedio temporal y espacial, se tendrá que esta función variará de acuerdo a las variaciones de los parámetros de entrada, por “regla de la cadena”, según:

(3) n1,...,i;S

JM'

S

J

E

S

E

Jmj

1j jij

mj

1j ji

j

i

=∂∂=

∂∂

∂∂

=∂∂ ∑∑

=

=

=

=

Notando que la suma en (2) ocurre sobre las n variables de entrada en tanto que en (3) sobre las m variables de salida, vemos que el operador matricial M’ está transpuesto en (3) respecto de (2). Y tenemos, además, que mientras M’, que es el jacobiano del modelo M, relaciona las variaciones en las n variables de entrada con cambios en las m variables de salida, el transpuesto del jacobiano de M transforma los cambios de una función arbitraria de las variables de salida respecto de los cambios en las variables de salida en un cambio de la misma función respecto de las variables de entrada.

En otras palabras, dado un modelo M cuya derivada o jacobiano existe y relaciona los cambios en los parámetros de entrada con los cambios en los parámetros de salida (problema directo), también existe el transpuesto (adjunto) del jacobiano de M que relaciona los cambios en los parámetros de salida con los cambios en los parámetros de entrada (problema inverso o adjunto). Esquemáticamente, como se ilustra en la Figura 1, en el caso directo se avanza en el tiempo a través del jacobiano M’ y en el caso inverso se retrocede en el tiempo a través del jacobiano transpuesto M’t. Esto es, el problema inverso no sólo requiere devolverse en el tiempo sino que tomar el camino adjunto.

Figura 1. Esquema de los roles del jacobiano del modelo y de su transpuesto relacionando los cambios entre las variaciones de las n variables de entrada (Ei) y de las m variables de salida (Sj) en el modo directo (hacia la derecha y siguiendo la derivada del modelo) y en el modo inverso (hacia la izquierda siguiendo el transpuesto de la derivada del modelo).

Las relaciones presentadas en el caso matricial son generales y aplicables al caso de funciones y ecuaciones diferenciales. Para una derivación o demostración rigurosa se sugiere consultar literatura especializada (e.g., Lions, 1971; Talagrand & Courtier, 1987; Marchuk, 1994). En el caso más general se habla, en lugar del operador matricial jacobiano y de su transpuesto, del operador y su operador adjunto. Así, dada una generalización del

∆Ei, i=1,...,n

∆Sj, j=1,...,m

M’

M’t

Page 6: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 6 / 22

producto punto (proyección de un vector sobre otro) que anotamos como <,> y dado un operador L, existe un operador adjunto que denotamos L* tal que:

(4) )(*,),( SLESEL ∆∆=∆∆

Esta relación (4) se llama relación dual y es la que “conecta” al operador y las variables directos y su operador y variables adjuntos.

a) Problemas “bien” y “mal” determinados En un modelo atmosférico cualquiera, el número de parámetros de entrada, n, y salida,

m, es típicamente de varios órdenes de magnitud y, además, n<m. Por ejemplo, un modelo global operacional de pronóstico del tiempo tiene n ~108 y m ~1010. En un modelo fotoquímico regional que se alimenta de campos meteorológicos externos, n ~106 y m~108. Si el número de parámetros de entrada (n) fuese igual al número de parámetros de salida (m), entonces el problema directo, es decir, encontrar los cambios en las variables de salida dados los cambios en las variables de entrada, sería equivalente en complejidad a resolver el problema inverso, esto es, encontrar los cambios en las variables de entrada dados los cambios en las variables de salida. Pero esto claramente no es así y eso hace al problema inverso uno indeterminado o mal planteado pues, en general, tendremos más incógnitas que ecuaciones.

En realidad, además de lo señalado en el párrafo anterior, los parámetros de salida no los conocemos en todo el dominio, digamos en todas partes y en todo tiempo, sino que sólo observamos un subconjunto de ellos y, peor aún, los fenómenos atmosféricos suelen ser dispersivos o difusivos en el sentido de diluir y atenuar las diferencias (e.g., Pudykiewickz, 1998). Esto último hará, a veces, muy difícil o inviable distinguir las “señales” (sensibilidades o derivadas) al compararlas con el “ruido” de las observaciones ya sea por errores instrumentales (aleatorios, sistemáticos, límites de detección, etc.) o de representatividad de las mismas. No obstante, esto puede, en principio, resolverse a través de lo que en lenguaje matemático se llama regularización y que, intuitivamente, puede entenderse como restituir o amplificar la señal usando diversas técnicas e imponiendo condiciones “ad hoc” (e.g., Seibert, 1999; Enting, 1999).

b) ¿Cómo se resuelven los problemas inversos? Como hemos dicho, los problemas de modelación inversa corresponden a determinar los

cambios en los parámetros de entrada dado un subconjunto de datos de salida conocidos (observaciones). O bien, si en los problemas directos, dado un conjunto de parámetros de entrada (causas), se determinan parámetros de salida (consecuencias), en los problemas inversos se buscan las entradas óptimas (causas) a partir de un conjunto de salidas (consecuencias).

Existen, grosso modo, dos maneras de abordar los problemas inversos: a) Buscar un conjunto óptimo de parámetros de entrada que maximice el acierto del

modelo al estimar los parámetros de salida respecto de un conjunto dado de K (K<m) salidas observadas. Esta búsqueda se realiza imponiendo una llamada “condición de optimalidad” que se elige de modo que maximice la sensibilidad de las señales. Típicamente, la condición de optimalidad se define como el mínimo de un funcional que estima la distancia entre los valores calculados por el modelo directo y las observaciones. Vale decir, un funcional del tipo:

Page 7: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 7 / 22

(5) ∑=

=

−==Kk

1k

2obski

modki Sn)1,...,i,(ES

2

1)J(E

Como veremos más adelante, la elección de una función cuadrática (convexa) y diferenciable resulta necesaria pero no suficiente para asegurar la existencia de un conjunto único de parámetros óptimos. b) Buscar el operador o modelo adjunto que satisfaga la relación expresada en (4)

imponiendo una condición de optimalidad, que se elige de acuerdo al modelo y las observaciones, y el conocimiento a priori (ad hoc) que se tenga. En términos más estrictos, se resuelve un sistema de ecuaciones dado por el trío:

i. Modelo y operador directo (ecuación de estado), incluyendo condiciones iniciales y de borde dadas por el problema físico

ii. Modelo y operador adjunto (ecuación de estado adjunto), incluyendo condiciones iniciales y de borde elegidas convenientemente

iii. Condición de optimalidad (ecuación de observación) determinada por las observaciones, el modelo y conocimientos a priori

Se puede demostrar que este sistema tiene una solución única, vale decir un conjunto óptimo de parámetros de entrada, si el operador es convexo, diferenciable y coercivo en un espacio cerrado (Lions, 1971).

Ilustremos el sentido de estas condiciones matemáticas considerando una función de distancias del tipo indicado en (5). Una función cuadrática es convexa, vale decir, tiene un mínimo (Ver Figura 2). Además, es diferenciable, es decir, al acercarse a un mínimo, todos los caminos convergen al mínimo o la derivada es suave. La condición de conjunto cerrado tiene que ver con la necesidad de poder encontrar la solución dentro del dominio donde se busca. Lo de coercivo es una condición que obliga a acotar el rango de parámetros óptimos según el grado de atenuación de las señales de modo que las señales sean amplificadas “óptimamente”. En otras palabras, la condición de coercivo se impone de modo de poder regularizar el problema.

Figura 2. Esquema de las características de una función J que depende de las salidas y éstas a su vez de las entradas. Se muestran dos potenciales funciones J, una cuadrática que tiene un solo mínimo y otra función que sólo tiene un mínimo relativo en el mismo entorno que la función cuadrática. Ambas funciones son convexas en el entorno de las entradas óptimas pero sólo la función cuadrática es coerciva.

Entradas óptimas que minimizan J

Mínimo de J

Page 8: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 8 / 22

La búsqueda de funcionales de minimización (aproximación a) así como la búsqueda del operador adjunto que resuelva el problema inverso (aproximación b) se abordan, en la práctica, a través de dos métodos principales: secuenciales y variacionales. Los métodos secuenciales, por ejemplo filtros de Kalman (e.g., Prinn, 1999) o funciones de Green (e.g., Enting, 1999), incorporan al modelo las observaciones de manera secuencial y, si el modelo es no lineal, recursiva, minimizando el funcional de distancia entre modelo y observaciones. Los métodos variacionales integran simultáneamente todas las observaciones al modelo y resuelven el sistema de ecuaciones i, ii y iii antes indicado (e.g., Robertson & Langner, 1998).

Para ilustrar el problema de búsqueda de funcionales de minimización, consideremos nuevamente el caso de n variables de entrada, m variables de salida y un modelo M cuya relación la escribimos matricialmente como:

(6) nmxnm E.MS���

= El conjunto óptimo de valores de entrada estará dado por una función de densidad de

probabilidad (P) que dependerá de los parámetros de entrada y será máxima para un subconjunto dado de parámetros de salida (observaciones). Esta definición es lo que los matemáticos llaman definición de máxima similitud. Se suele suponer que P es una probabilidad gaussiana o normal de la forma:

(7)

−≈ − )E-E(C)E-E(

2

1exp)EP( opt

1Topt

&&(&&&

donde T indica transpuesto y C es la llamada matriz de error de covarianza. La diagonal de la matriz C está dada por la desviación estándar del vector de parámetros de entrada y los elementos fuera de la diagonal están dados por la correlación entre los distintos elementos del vector de parámetros de entrada. Si P es gaussiana, la definición máxima similitud se puede expresar simbólicamente como una expresión integral en términos de la mínima varianza del conjunto de valores óptimos (Eopt) dados un modelo y un conjunto de observaciones según:

(8) ∫= E)dE.P(EEopt

����

Se puede demostrar (Brasseur et al, 1999 y referencias allí citadas) que si todas las funciones de densidad de probabilidad pueden aproximarse por funciones gaussianas, la solución de minimizar el error de la estimación (parámetros de entrada óptimos) está dada por el mínimo de una función llamada de costo o de error J:

(9) [ ] [ ] [ ] [ ]B1T

Bopt1T

opt EEBEEEMS)FO(EMS)EJ(&&&&&(&((&(&&

−−+−+−= −−

donde O, F y B representan las matrices de error de covarianza de las observaciones, el modelo y de cualquier estimación independiente o a priori del vector de entrada. Para encontrar el mínimo habrá entonces que derivar J respecto de los parámetros de entrada (calcular su jacobiano). Esta derivada también aparece al resolver el problema adjunto y en ese sentido ambas aproximaciones son equivalentes.

c) ¿Y para qué sirve todo esto? Como ilustra la Tabla 1, el primer problema al que se aplicó una técnica de modelación

inversa fue el problema de inicialización óptima (Panofsky, 1949). Vale decir, encontrar la mejor descripción del estado inicial de la atmósfera a partir de un conjunto de datos irregularmente distribuídos en el espacio y sabidamente insuficientes para determinar el estado inicial de modo inequívoco. El problema inverso era entonces encontrar un conjunto

Page 9: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 9 / 22

óptimo de condiciones iniciales que minimizara el error del modelo (en esos tiempos el llamado “modelo barotrópico”) o, equivalentemente, que lo hicieran menos sensible a los errores en la interpolación de las condiciones iniciales (e.g., Bengtsson, 1999). La búsqueda de parámetros óptimos aplicada en ese entonces fue, básicamente, interpolar, en lenguaje de Panofsky “objetivamente”, un campo de condiciones iniciales a partir de las escasas observaciones usando un polinomio bidimensional y más tarde un polinomio donde se sopesaba la representividad y error de cada medición.

Hoy por hoy, más allá del lenguaje, el poder computacional y los desarrollos de técnicas y herramientas, los problemas son análogos en los modelos atmosféricos de hoy a los de los de antaño. Vale decir, a menudo queremos encontrar un conjunto óptimo de parámetros de modo tal que minimice el error del modelo, por ejemplo, las emisiones que mejor reproduzcan datos fotoquímicos en una ciudad o región (e.g., Elbern, 2000). Cuestión que, más allá de optimizar los resultados de un modelo particular, nos ayuda a mejor estimar los parámetros de entrada, por ejemplo, la variación diaria e interdiaria en un inventario cuyas estimaciones provienen de datos estacionales o anuales. O bien, aislar las fuentes de error en nuestro modelo.

El que las técnicas de modelación inversa hayan sido ampliamente usadas primero en el campo del pronóstico numérico del tiempo y sólo recientemente en química atmosférica, obedece a la dificultad intrínseca de medir trazas atmosféricas (e.g., Tyndall et al, 2002). También obedece al establecimiento temprano (mediados del siglo XX), en el caso de la meteorología convencional, de redes de observación coordinadas, tanto para fines de pronóstico del tiempo como para fines aeronáuticos, dando lugar a bases de datos coherentes, sistemáticamente verificadas, con instrumentos estandarizados, etc.. En el caso de la química atmosférica, el monitoreo, aún dentro de cada región y país, todavía dista de tener la coordinación y estandarización que muestran las mediciones meteorológicas tradicionales. Esto ha limitado el número, la representatividad, la comparabilidad y, no pocas veces, la calidad y la confiabilidad de las observaciones. Sin embargo, el número de observaciones está creciendo y también los esfuerzos de sistematización y estandarización. En particular, el advenimiento de la percepción remota de trazas químicas aparece como factor que ha estimulado la incorporación de las técnicas de modelación inversa. Pero también la necesidad de realizar estudios de sensibilidad para modelos complejos de modo más coherente y sistemático. Y derivado de la estimación de sensibilidades, el uso práctico de estas técnicas para mejorar el diseño de redes de monitoreo o de campañas de monitoreo (Sportisse & Quélo, 2002), complementando la opinión experta de los especialistas en monitoreo y las consideraciones de costo, típicamente muy relevantes, en estos menesteres.

d) Precisión, exactitud y representatividad Hay que reconocer que los problemas directos, en cierta forma, también son problemas

“indeterminados”. Esto porque si bien los resolvemos determinísticamente, vale decir, a partir de condiciones iniciales y parámetros de entrada, que suponemos conocidos, estimamos el estado futuro del sistema, no podemos obviar el hecho que nuestro conocimiento del estado inicial y de los parámetros de entrada suele ser incompleto y ciertamente aproximado y no pocas veces “adivinado”. Tampoco podemos obviar el hecho que aún si el modelo es “correcto”, en el sentido de representar los procesos más importantes (según mejor entendemos), su representación numérica y computacional hará improbable reproducir completamente las observaciones. Además, mientras más complejo sea el modelo más difícil será poder identificar las consecuencias de cada una de las

Page 10: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 10 / 22

potenciales fuentes de error. Por otra parte, no es trivial decidir cómo y qué comparar de las estimaciones de un modelo con las estimaciones de un instrumento o una estación de monitoreo.

Consideremos, por ejemplo, el efecto de la interpolación temporal y espacial para un caso hipotético y algo idealizado. Supongamos que un modelo de dispersión estima la concentración de un monóxido de carbono (CO) en una urbe sobre la base de: • campos meteorológicos tridimensionales con un paso horizontal de 1 km, un paso

vertical cerca de la superficie de 30 m y un paso temporal de 30 minutos, basados en un modelo meteorológico de mesoescala de última generación ampliamente validado en la región de estudio

• un inventario de emisiones completo que estima flujos de emisión basados en un avanzado modelo de tránsito vehicular y factores de emisión derivados de múltiples y actualizadas mediciones en el área de estudio, entregando, precisamente para la grilla del modelo, valores promedio de cada hora según la estación del año, el día de la semana y la hora del día.

• un esquema de advección ampliamente probado, que conserva la masa y minimiza la difusión numérica, etc.

• una base de datos de características de la superficie subyacente (muchos tipos y clases de suelo), flujos de calor, humedad, etc.

Y supongamos que comparamos estas estimaciones para un período de una semana con las mediciones de CO realizadas con un instrumento que entrega promedios cada 5 minutos, cuya entrada de aire se realiza a 10 m, calibrado regularmente por especialistas y ubicado en una zona sin mayores obstáculos topográficos y a algunos cientos de metros de una carretera transitada y rodeada de calles sin mucho tránsito vehicular. De modo que los errores sistemáticos están prácticamente ausentes y los errores aleatorios están minimizados.

Obviando el problema de interpolar en el espacio las estimaciones del modelo, si alguien quisiera comparar directamente las salidas del modelo con las lecturas del instrumento debería interpolar los resultados del modelo y construir promedios de 5 minutos. Pero aún si la información meteorológica tiene una resolución temporal relativamente alta de 30 minutos, las emisiones esconden promedios temporales mucho mayores que difícilmente podrán dar cuenta de variaciones sobre intervalos de tiempo cortos como los registrados por el instrumento y que podrían deberse a fluctuaciones imposibles de ponderar en un inventario estacional. De manera que lo que representa una medición no coincide necesariamente con lo que representa un modelo.

Tampoco la interpolación espacial es trivial. El modelo entregaría resultados que representan promedios espaciales para grillas con un área 1 km2 y a una altura de 15 m (mitad de la altura de la grilla). El instrumento de medición, en tanto, entregará valores medidos localmente y cuya ubicación suele ser irregular en el sistema de coordenadas de la grilla del modelo, de modo que habrá que elegir entre varias alternativas como: comparar con el valor de la grilla más cercana, el promedio de varias grillas, el promedio ponderado según distancia de algunas grillas alrededor del monitor, etc.. Es evidente entonces que las salidas de un modelo no son directamente comparables con lo que miden los instrumentos pues ambos representan cosas similares pero no idénticas.

El problema indicado antes es universal y reconocido por la comunidad científica (e.g., Brasseur et al, 2002) y ha hecho que se estén realizando esfuerzos orientados a mejorar o a

Page 11: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 11 / 22

simplificar la concordancia en cuanto a representatividad entre mediciones instrumentales y modelos. Buenos ejemplos de este tipo de iniciativas, que amalgaman modelos y mediciones, son los llamados re-análisis de campos meteorológicos globales ejecutados por los grandes centros mundiales de pronóstico (e.g., Kalnay et al, 1996; Gibson et al, 1997). Y últimamente, las grandes campañas de monitoreo que combinan modelos y observaciones desde múltiples plataformas (sensores remotos e in situ), no sólo como una manera de efectivizar la recolección de información sino que como parte del diseño experimental y del proceso de análisis (e.g., Lelieveld, et al. 1999). En todas estas iniciativas se hace uso de técnicas de modelación inversa o de asimilación de datos con el fin último de aumentar nuestra capacidad de entendimiento de sistemas complejos.

Como vimos antes, los problemas inversos, a diferencia de los problemas directos que son determinísticos, usan aproximaciones probabilísticas (e.g., Brasseur, 1999). Donde el carácter óptimo de un subconjunto de parámetros de entrada se define en términos de minimizar el error del modelo a partir de un subconjunto conocido de salidas (observaciones). Los métodos inversos nos permitirán estimar la probabilidad que el conjunto de valores de entrada que minimice el error del modelo esté dentro de un cierto rango que dependerá inversamente del error en las observaciones, el modelo y cualquier estimación independiente que tengamos (Ver expresión 9). De modo que la resolución del problema inverso nos permite ponderar explícitamente la incertidumbre de nuestras estimaciones.

Aquí es importante distinguir entre similitud y exactitud. Cuando medimos o simulamos, podemos, a lo más, asegurar la precisión de nuestras mediciones o modelaciones verificando que los resultados se repiten dentro de un cierto margen si repetimos el experimento o la simulación bajo ciertas condiciones y cuantificar aquello a través de distribuciones de errores que indican la distancia entre una y otra medición o estimación. Si bien la intercomparación de instrumentos o modelos nos puede sugerir que el valor calculado es verosímil, aún si mejoramos la resolución y sensibilidad de nuestros instrumentos o modelos consiguiendo una gran precisión, nunca podremos descartar un error derivado de nuestra falta de entendimiento de un sistema complejo. Las leyes de la física, a diferencia de los axiomas matemáticos, no son verdaderos por construcción o universalmente válidos sino que su validez está siempre acotada por nuestra capacidad de medir o estimar, ya sea a través de instrumentos o de modelos y estas herramientas inherentemente contienen errores.

e) Validación de modelos Tras toda esta discusión de estimaciones probabilísticas o determinísticas subyace, en un

cierto sentido, la esencia del método científico acuñado por Galileo y sus contemporáneos y que sigue en uso frecuente desde entonces. El método de Galileo busca y ordena nuevo conocimiento (ciencia) a través de la formulación de hipótesis que son sistemáticamente puestas a prueba a través de experimentos. Las hipótesis son los “modelos” que describen, no necesariamente en la forma de código computacional, lo que creemos del funcionamiento de un cierto sistema (e.g., propagación de luz visible en una atmósfera rica en pequeñas moléculas, mayoritariamente nitrógeno y oxígeno moleculares). La descripción la hacemos a través de parámetros cuantificables o medibles cuya variación e interrelación (e.g., la propagación ocurre en forma de ondas electromagnéticas que satisfacen las Leyes de Maxwell y que son dispersadas por las pequeñas moléculas, con radios mucho menores que la longitud de onda, en una tasa inversamente proporcional a la

Page 12: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 12 / 22

cuarta potencia de la longitud de onda) debiera explicar o reproducir lo que observamos (e.g., el cielo es azul y los atardeceres son rojizos). Nuestros experimentos o pruebas (e.g., hacemos incidir luz de distintas longitudes de onda sobre aire) evalúan la plausibilidad de nuestras hipótesis según vamos cambiando los parámetros y las interrelaciones que conforman nuestro modelo.

Cuando se habla de validar o verificar o probar o calibrar modelos numéricos de sistemas naturales, se realizan tres tipos principales de ejercicios (e.g., Granier et al, 2002; Brasseur et al, 1999):

A) Comparación sistemática entre resultados de modelos y observaciones B) Estudios de sensibilidad respecto de los parámetros de entrada C) Intercomparación de modelos

En el caso A nos encontramos con el problema de identificar qué se espera que representen los modelos y las observaciones. Cuestión que, como vimos, no es trivial. Suponiendo que resolvemos aquello, posiblemente habiendo interpolado adecuadamente las observaciones o las estimaciones del modelo a una base de comparación común, tendremos luego que determinar cuál indicador estadístico de error usar. Por ejemplo, en el caso del modelo de mesoescala para CO y las mediciones urbanas estimamos que nos interesa saber si el modelo logra reproducir el ciclo diario típico de los días laborales de una semana dada y por lo tanto calculamos los promedios correspondientes. Entonces tendremos mapas para distintos intervalos de tiempo (horas, días, etc) y posiciones espaciales tanto para las observaciones como para las estimaciones del modelo. Comparando esos mapas podremos dar juicios generales respecto de la similitud entre los patrones temporales y espaciales de ambos conjuntos de datos. También podremos cuantificar dicha similitud a través de indicadores estadísticos del tipo: error cuadrático medio (normalizado), coeficientes de correlación, sesgo fraccional, porcentaje de acierto dentro de un rango dado, frecuencias de sobre y subestimación, etc (e.g., Seinfeld y Pandis, 1998). Pero dependiendo del tipo de problema físico, el número de datos considerados, el error típico de las observaciones, etc., encontraremos que (e.g., Stohl et al, 1998):

• Algunos de los estimadores estadísticos, dependiendo de la distribución y los valores de los datos, son sensibles a los errores de las mediciones

• Aún los indicadores robustos, en el sentido de no ser sensibles a los errores de las mediciones, como el error cuadrático medio (profusamente usado), no pueden ser estrictamente comparados, ni siquiera para un mismo modelo, entre distintos conjuntos de mediciones. Ello pues estos indicadores dependen de la distribución estadística de las observaciones y, como se sabe, las variables atmosféricas están fuertemente covariadas y por lo tanto su distribución dependerá de cada estado particular del tiempo.

En el caso B que, a menudo, sigue al caso A en el proceso de evaluación de un modelo pero en ningún caso lo excluye o reemplaza, se puede proceder con “fuerza bruta” y variar los parámetros de entrada y con ello después de muchas ejecuciones del modelo y comparaciones con las observaciones, estimar la sensibilidad respecto de un conjunto de parámetros. Otra manera, no menos esforzada pero sí más sistemática y práctica, es aplicar técnicas de modelación inversa que, en esencia, evalúan el error del modelo respecto de los parámetros de entrada. De hecho se puede, estimando la matriz de error de covarianza, determinar el conjunto de parámetros de entrada que más inciden en el error y con ello determinar el rango máximo de error de un cierto modelo. Este es el tipo de técnica que se aplica en los centros de pronóstico cuando se hacen simulaciones múltiples o de

Page 13: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 13 / 22

“ensemble” variando el conjunto de condiciones iniciales para el conjunto de variables más sensibles y que se identifican con los vectores propios de la matriz de covarianza (e.g., Molteni et al, 1996).

La intercomparación sistemática de modelos puede ayudar a identificar errores y a mejorar las parametrizaciones físicas de un modelo. Típicamente, se prueba la ejecución de varios modelos similares corridos con los mismos datos, por ejemplo, los mismos datos de emisiones y condiciones meteorológicas y se ve la varianza de los resultados entre los modelos. Pero los modelos jamás son idénticos y no siempre resulta fácil aislar un cierto aspecto. Este tipo de ejercicios resulta muy útil en la medida que los objetivos de la comparación están claros. También es útil en tanto su diseño lleva a la generación de bases de datos de observaciones respecto de las cuales se puede categorizar de mejor manera las ventajas y desventajas de uno y otro modelo (e.g., Kanakidou et al, 1999).

4. EJEMPLOS Consideremos la dispersión de una traza atmosférica químicamente inerte que es emitida

en una tasa E, que no es removida eficientemente de la atmósfera y que sólo es advectada. Entonces, la ecuación de continuidad o de conservación de masa (e.g., Seinfeld & Pandis, 1998) se reduce a:

(10) Ec.vt

c

dt

dc =∇+∂∂=

donde c es la concentración (masa/volumen), v& es el vector que representa el viento

(distancia/tiempo), E es la emisión (masa/volumen/tiempo). Si la densidad del aire (ρ) no varía sustantivamente entre cada punto de emisión y un punto receptor cualquiera viento abajo de ella, entonces (10) se puede re-escribir como:

(11) f.vtdt

d =∇+∂∂= µµµ �

donde µ representa la razón de mezcla y f es la emisión expresada en moles por unidad de

tiempo. Lo anterior puede escribirse también en términos de un operador lineal dt

dL =

como:

(12) fL��.vt

dt

d� ==∇+∂∂=

y f puede entenderse como un término forzante en la ecuación (12). Para condiciones iniciales y de borde conocidas, resolver la ecuación (12) corresponde a resolver el problema directo. Es decir, encontrar µ para todo tiempo y espacio dado un f conocido. El problema inverso será encontrar f para un conjunto de observaciones de µ dado.

Primero identifiquemos en este ejemplo la noción de sensibilidad. Si conocemos µ en todas partes y para todo tiempo, podremos estimar la sensibilidad del modelo expresado en (12) respecto del parámetro de entrada f: simplemente evaluamos cómo varía µ dada una variación de f, suponiendo que todo lo demás permanece constante. Vale decir, escribimos la derivada parcial de µ respecto de f1. En este caso, dada una condición inicial µo y una 1 Tratándose de un funcional cuya derivada se hace en un espacio infinito dimensional de funciones, en rigor, la derivada debe hacerse considerando el límite: h,

h

J(f)h)J(flim

0hf

J∀−+

→=

∂∂

Page 14: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 14 / 22

trayectoria, es fácil integrar la ecuación (12) sobre un tiempo arbitrario t, teniéndose:

(13) ∫=

=

+=⇒=tt

ttott

0

fdt��fdt

d�

Y, además, si f varía lentamente sobre el intervalo de tiempo ∆t=t-to considerado y definimos 0��� −=Ö :

(14) ��f

f

� ≈∂∂=

∂∂ �

De modo que la sensibilidad de las salidas µ y �Ö de respecto de los cambios en la entrada f será directamente proporcional al tiempo transcurrido desde el momento que se emitió una señal (emisión) desde la fuente.

Ahora cabe preguntarse, ¿cuál es el operador adjunto de L? Este debe ser un operador tal que satisfaga (4). Si definimos el producto interno de dos funciones cualesquiera α y β como:

(15) dt�����

T

0t∫=

= entonces: dt�fdt�dt

d��,�L�,L� *

T

0t

*T

0t

** ∫∫==

==≡ Ö

donde µ∗ es una función arbitraria. Usando la identidad: ( )

dt

d��

dt

d��

dt

��d ***

+=

e integrando por partes se tendrá:

(16) dt

d�,���dt�

dt

d���dt�

dt

�d�,�L

*Tt

0t

*T

0t

*Tt

0t

**T

0t

* −+=−===

==

=

==

∫∫ ÖÖÖÖ

Ö

Ö

Si elegimos, arbitrariamente, µ∗ de modo que 0�Tt

* ==

, entonces, el operador adjunto de L

será dt

dL* −= y µ∗ la variable adjunta de �Ö .

En suma, hasta ahora tenemos: • La ecuación de estado �Ö :

0�f,dt

�d�L

0t===

Ö

Ö

• La ecuación de estado adjunto *� :

gdt

d��L

*** =−= y 0�

Tt

* ==

donde g es una función arbitraria que fuerza la ecuación del estado adjunto. El problema inverso es encontrar f dados el modelo y un conjunto de observaciones.

Consideremos el caso de disponer de una trayectoria y una observación µobs. Como la señal de emisión no se disipa, el valor óptimo de f vendrá dado simplemente por:

(19)tû

�ftfû��

obsmodobs =⇒== Ö

Y para recuperar la señal bastará integrar el problema adjunto de manera retrógrada (Ver Figura 3).

Page 15: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Figura 3. Muestra la evolución de la función de estado y de su estado ademitida a una tasa constante (f) y que no sufre pérdidas a lo largo del camino.

Ahora extendemos al problema a considerar I puntos emisorereceptores o puntos de observación y J (j=1,..,J) trayectorias (i=1,...,I) y se emiten fi moles por unidad de tiempo en catrayectoria j que lleve la emisión fi hasta el punto k, agregará emoles dado por:

(20) ijkiijk ��f� =

Si la tasa de emisión en cada punto de emisión i es relativamente crespecto del promedio temporal considerado (denotado por < >promedio que una los puntos i y k acarreará aproximadamente:

(21)

Jj

1jij

iijkiijkiik ��

J

f��f��f� =≈= ∑

=

=

Y por lo tanto, desde los I puntos emisores llegarán al punto k una

(22) ∑∑=

=

=

= ∂∂

==Ii

1i i

ki

Ii

1iikik f

�f��f�

En esta expresión reconocemos el jacobiano del modelo que antesescribirse matricialmente según:

(23)i

kki

'

f

�M ,f'.M�

∂∂

==��

y que no es otra cosa que la notación matricial del problema directoSi usamos un modelo de trayectorias (e.g., Stohl, 1998; Se

concentración promedio en la k-ésima celda, viento abajo de las

(24) ∑∑=

=

=

=

==Nn

1n

Jj

1jjnk

k

tot

k

kk f

NJV

M

V

mc

donde: Vk: volumen de la k-ésima grilla receptora N: número de intervalos de tiempo considerados en el promJ: el número de trayectorias transportando cada una masa mfjnk: fracción de la masa de cada partícula o trayectoria atriel instante n

f µo

bs

µ=f t

µ∗ =f (T-t)

Estado

junto para el caso de

s. Si existen K (k=desde cada punto da emisor, entoncn ese punto un nú

onstante o varía le), entonces, una tr

ikik ��f=

cantidad de moles:

anotamos M’ y es

. ibert, 2001) que cemisiones según:

edio temporal o

buíble a la k-esima

Estado Adjunto

Julio 2002 15 / 22

una traza

1,..., K) emisor i es, cada mero de

ntamente ayectoria

to puede

alcula la

grilla en

Page 16: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 16 / 22

Entonces, el tiempo característico ∆tk que tarda en llegar una emisión (señal) desde el i-ésimo punto emisor hasta el k-ésimo punto receptor vendrá dado por la siguiente relación si la emisión total Mtot ocurre sobre un intervalo de tiempo ∆T:

(25)tot

kk

Nn

1n

Jj

1jjnkk

k

tot

k

M

��Vcf

NJ

����

��

��

M

m ==⇒= ∑∑=

=

=

=

O sea, a partir de observaciones de ck se puede estimar el jacobiano, dado por ∆tk que indica el tiempo con que un cambio en las emisiones se hace sentir en un punto receptor o bien la función de influencia de la emisión f. Al correr el modelo de trayectorias de manera retrógrada se calculan trayectorias desde los k receptores y se obtienen los tiempos característicos o equivalentemente, en este caso, la matriz jacobiana del modelo directo.

Si el número de potenciales emisores es I, el número de receptores K, la resolución del campo meteorológico con el cual calculamos las J trayectorias desde cada receptor está dada por NxxNy grillas horizontales, Nz pasos verticales, N pasos temporales de integración o cálculo de trayectorias y p pasos temporales de promediación de las observaciones, entonces la matriz jacobiana que relaciona fuentes y receptores tendrá una dimensión:

(26) D= Nx x Ny x Nz x N x K x p. Típicamente una matriz de 108 o 109 elementos que se torna difícil de manejar (e.g., Seibert, 2001; Hourdin & Issartel, 2000). Por lo tanto, este es un punto en el que se puede incorporar información ad hoc. Por ejemplo, si nos interesa saber la influencia de una fuente particular cuya ubicación conocemos, entonces, el problema se reduce a calcular trayectorias desde los receptores que efectivamente pasen por el emisor cuya posición conocemos.

Una discusión general del problema de estimar fuentes a partir de un número finito de observaciones para el caso de una traza que es dispersada, incluyendo dispersión turbulenta, y depuesta puede encontrarse en Pudykiewickz (1998). El procedimiento de resolución de este problema más general es análogo al aquí ilustrado. Sin embargo, los efectos disipativos derivados de los procesos de deposición y de mezcla turbulenta resultan en una atenuación de la señal y, por lo tanto, la recuperación de la misma (regularización del problema) obliga a imponer una condición extra en el funcional de costo del modelo. En este caso, la ecuación de continuidad del problema directo es:

(27) f����.K.(-�.vt

�L� =+∇∇∇+

∂∂=

(

&

Donde K(

es un tensor con los coeficientes de mezcla turbulenta, típicamente una matriz diagonal, v

& es la componente del viento resuleta explícitamente y λ es un parámetro que caracteriza la remoción por deposición seca y/o húmeda. Eligiendo condiciones de borde adecuadas, se puede mostrar el que operador adjunto de L es de la forma:

(28) �.K.-.vt

L* t +∇∇∇−∂∂−=

(

&

Nótese que sólo la variación local en el tiempo y la advección cambian de signo, es decir, se vuelven retrógradas en el tiempo y la matriz de pseudo-difusión aparece transpuesta. Ambos procesos disipativos, turbulencia y remoción, actúan de igual manera en ambos sentidos del tiempo. En el caso advectivo, la señal de emisión sólo se traslada pero no se modifica. De modo que basta integrar hacia atrás en el tiempo para recuperar la señal. En el caso disipativo, en cambio, la señal va disminuyendo en la medida que avanza el tiempo y

Page 17: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 17 / 22

para recuperarla retrocediendo en el tiempo habrá que amplificarla. Por ejemplo, exigiendo que la fuente tenga un valor finito:

(29) ∑∑=

=

=

=

+−==Ii

1i

2i

Kk

1k

2obski

modki f

I

0SI)1,...,i,(fS

2

1)J(f

donde ε es un valor pequeño tal que cuando tiende a cero se recupera el problema original. La imposición que la magnitude f sea finita es una condición ad hoc y corresponde al término de regularización. También se entiende como un término de penalización pues tiene un costo ε forzar que el modelo reproduzca las observaciones. Seibert (1999) muestra un ejemplo en el que ocupando esta metodología se logra recuperar, usando un modelo de lagrangiano de trayectorias, el inventario de emisiones de azufre oxidado de Europa imponiendo dos condiciones de regularización según:

(30) 22

2

2

1

2obsmod f0f0�)f(�)f( J&&

&

&

&

&

∇++−=

La primera condición es que las magnitudes de las emisiones sean finitas y la segunda hace que las variaciones espaciales de las fuentes sean suaves.

5. MODELACIÓN INVERSA EN CHILE La modelación numérica y determinística de procesos atmosféricos ha tenido un

creciente desarrollo en desde mediados de la década de 1990, tanto en el campo de la simulación numérica del tiempo como en la simulación de procesos de dispersión de trazas a escala urbana y regional o de procesos meteorológicos relevantes para la dispersión de trazas. La Tabla 2 muestra algunas de estas actividades.

El uso de técnicas de modelación inversa a escala regional es sólo incipiente y se ha visto limitado, entre otras cosas, por la escasez de observaciones relevantes. No obstante, es claro que el pronóstico numérico del tiempo en Chile ha mejorado sustantivamente desde la década de 1980 gracias a la incorporación operativa de métodos inversos de asimilación de datos satelitales en los centros mundiales de pronóstico (e.g., Bengtsson, 1999).

Un primer ejemplo de aplicación de técnicas de modelación inversa se dio en el contexto de un trabajo tendiente a mejorar la descripción de los vientos superficiales en un área de topografía compleja como el Valle del Aconcagua en la Macrozona Central de Chile. Siguiendo el trabajo de Barna et al. (2000 a y b), se obtuvieron campos meteorológicos con una resolución de aproximadamente 2 km a partir de un procedimiento de interpolación cinemática de campos meteorológicos regionales calculados con un modelo dinámico (Gallardo et al, 2000) según se reporta en CENMA (2001). En este caso, se usó un procedimiento de asimilación de observaciones de viento en superficie y de datos topográficos por medio de un proceso de ajuste del campo de divergencia, esto es, hace una estimación diagnóstica del campo de viento (Douglas et al, 1990). Un segundo grupo de estudios está en curso y orientado a la determinación del impacto de fuentes puntuales a escala regional y a la optimización de redes de monitoreo bajo el marco de un proyecto de intercambio entre especialistas chilenos y franceses (CMM-INRIA, 2002).

A futuro se prevé que la mayor disponibilidad de datos, particularmente satelitales, así como la necesidad de contar con mejores estimaciones de la sensibilidad y error de los modelos atmosféricos, hará más cotidiano el uso de las técnicas de modelación inversa en Chile, análogamente a como está ocurriendo en el resto del mundo.

Page 18: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 18 / 22

Tabla 2. Modelación numérica de procesos atmosféricos a escala regional en Chile Problema abordado Tipo de Modelo Contactos y/o referencias Pronóstico numérico del tiempo sobre el cono sur de América

Modelo de pronóstico numérico del tiempo para escala regional

[email protected] http://met.dgf.uchile.cl/~jvergara/chile.html

Dispersión de monóxido de carbono y material particulado respirable de origen primario

Modelo de transporte a escala urbana para trazas inertes

Flores et al., 2000 [email protected]

Diagnóstico y análisis sinóptico de bajas costeras en Chile y otras aplicaciones.

Modelo de pronóstico numérico del tiempo para escala regional (MM5).

Garreaud et al, 2001 ([email protected])

Dispersión regional de azufre oxidado en Chile Central

Modelo de dispersión para escala regional para trazas químicas acoplado a las salidas de un modelo de pronóstico numérico del tiempo (HIRLAM-MATCH).

Olivares et al, 2002; Gallardo et al, 2002 ([email protected])

Dispersión regional de arsénico en Chile central y norte

HIRLAM-MATCH Gidhagen et al, 2002. [email protected]

Caracterización de campos meteorológicos en el entorno del Valle del Elqui

Modelo de dispersión para meso-escala para trazas químicas acoplado a las salidas de un modelo de pronóstico numérico del tiempo (KAMM).

Khaltoff et al, 2002 [email protected]

Análisis de trayectorias en la cuenca de Santiago durante episodios de contaminación invernal

Modelo diagnóstico de campos de viento a partir de observaciones superficiales-

[email protected]

Pronóstico numérico operacional del tiempo para Chile central

MM5 [email protected]

Intrusiones estratosféricas ricas en ozono en el norte chico en conexión con bajas segregadas

MM5 Rondanelli et al, 2002 [email protected]

Determinación de áreas de influencia de fuentes en la macrozona central de Chile

Modelo de trayectorias para campos interpolados cinemáticamente y forzados por topografía compleja.

CENMA, 2001 [email protected]

Dispersión de oxidantes fotoquímicos en Santiago

Modelos de dispersión de mesoescala para trazas químicas acoplado a las salidas de un modelo de pronóstico numérico del tiempo (Schmidt, MM5) o a modelo de diagnóstico (Jorquera).

Rainer Schmidt ([email protected]) Héctor Jorquera ([email protected])

Dispersión regional de azufre oxidado en el norte grande de Chile

HIRLAM-MATCH [email protected]

Estimación de la sensibilidad del monitoreo de arsénico en Santiago a las variaciones en las emisiones de la fundición de Caletones

HIRLAM-MATCH Modelo lagrangiano de trayectorias (FLEXPART)

[email protected]

Page 19: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 19 / 22

6. RESUMEN Y CONCLUSIONES Hemos revisado algunos conceptos relativos a las técnicas de modelación inversa y su

aplicación en ciencias atmosféricas, con énfasis en modelos numéricos que representan la dispersión de trazas atmosféricas. También hemos ilustrado esto con algunos ejemplos. Y revisamos brevemente el desarrollo y uso de modelos atmosféricos en Chile durante la última década.

Gracias al enorme desarrollo de los recursos computacionales, la ampliación de nuestra capacidad de observar la atmósfera y el sistema climático en general, durante las últimas décadas una variada gama de modelos atmosféricos han sido desarrollados abordando una variada gama de problemas y escalas temporales y espaciales (e.g., IPCC, 2001; Granier et al, 2002). Así, el desarrollo de tales modelos ha llevado a la inclusión de complejos procesos e interacciones. Sin embargo, no hay que olvidar que la prueba verdadera de los modelos no es su grado de complejidad y sofisticación, ni la inclusión exhaustiva de fenómenos en sus representaciones, sino que su habilidad de reproducir las observaciones. Y, como herramientas de entendimiento y evaluación que son, deben ser adecuadamente validadas y ajustadas a las condiciones de los problemas específicos a los cuales son aplicadas. El proceso de validación de los modelos es necesario para estimar la precisión (imprecisión) de los cálculos realizados a través de comparaciones sistemáticas con observaciones, estudios de sensibilidad e intercomparaciones de modelos. Todos los modelos involucran supuestos y aproximaciones que hacen de sus resultados y predicciones cálculos aproximados con un grado de incerteza inherente que debe ser estimado. La modelación inversa sirve para eso.

Los problemas directos son aquellos en que, dados un conjunto de parámetros de entrada (causas) y un modelo, se determinan parámetros de salida (consecuencias). En los problemas inversos, en tanto, se buscan las entradas óptimas (causas) a partir de un conjunto de salidas (consecuencias) y un modelo, tal que se minimice el error del modelo. Y esto se aborda ya sea: • Probabilísticamente buscando un conjunto óptimo de parámetros de entrada

imponiendo una llamada “condición de optimalidad”, definiendo un funcional que estima la distancia entre los valores calculados por el modelo directo y las observaciones, cuyo mínimo es el conjunto de entradas óptimas.

• O bien buscando el operador o modelo adjunto, resolviendo un sistema de ecuaciones dado por el trío: ecuación de estado, ecuación del estado adjunto y la ecuación de observación.

Los algoritmos de búsqueda se basan en técnicas secuenciales o variacionales. Si el número de observaciones y nuestro afán por entender las relaciones físicas,

empíricas y matemáticas de la atmósfera y el sistema climático en general fuese algo estático e invariante o si el sistema no fuese intrínsecamente dinámico, entonces este tipo de técnicas podría llevar, si se emplean mal, a conclusiones tautológicas o “morderse la cola” en un lenguaje más coloquial. Quiero decir, optimizar los parámetros de un modelo para que se ajusten a las observaciones y deducir de aquello que nuestro modelo es “correcto”. Pero, claro, eso no es un problema de los modelos inversos per sé sino que del uso que se hace de ellos y de lo cual también sufren los modelos directos. Pero como bien decía Max Planck (1858-1947) en “Wege zur physikalischen Erkenntn is”: “...La física, como cualquier otra ciencia, no se rige sólo por la inteligencia sino también por la razón...”.

Page 20: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 20 / 22

REFERENCIAS Barna, M.G., Lamb, B.K., 2000 a. Improving ozone modeling in regions of complex terrain using

observational nudging in a prognostic meteorological model. Atmospheric Environment 34, 4889-4906 Barna, M.G., Lamb, B.K., O’Neill, S.M., Westberg, H., Figueroa-Kaminsky, C., Otterson, S., Bowman, C.,

DeMay, J., 2000 b. Modeling ozone formation and transport in the Cascadia region of the Pacific Northwest. Journal of Applied Meteorology 39, 349-366.

Bengtsson, L., 1980. On the use of a time sequence of surface pressures in four-dimensional data assimilation. Tellus, 30, 189-197.

Bengtsson, L., 1999. From short-range barotropic modelling to extended-range global weather prediction: a 40-year perspective. Tellus 51 A-B, 13-32.

Bolin, B. and Keeling, R., 1963. Large-scale atmospheric mixing as deduced from the seasonal and meridional variations of carbon dioxide. J. Geophys. Res., 68, 3899-3920.

Brasseur, G. P. , a. B. Khattatov, and S. Walters, 1999: Modeling, in Atmospheric Chemistry and Global Change, edited by G. Brasseur, a. J. Orlando, and G.Tyndall, Oxford University Press, Oxford.

Brasseur et al (Eds.), 2002. “The Changing Atmosphere: An Integration and Synthesis of a Decade of Tropospheric Chemistry Research”. Por aparecer en Noviembre de 2002 por Springer-Verlag (ISBN: 3-540-43050-4).

Bustos, C. 2002. "Revisión de la aplicación de modelos gaussianos a la evaluación de impactos de fuentes puntuales sobre la calidad del aire" M.Sc. Thesis. Planificación y gestión ambiental. Universidad de Chile (En curso).

CENMA, 2001. Diagnóstico integral de la contaminación atmosférica en la macrozona central de Chile. Informe Final [CONAMA, Obispo Donoso 6, Providencia, Santiago, Chile]

Charlson, R., 2001: Extending atmospheric aerosol measurements to the global scale, In IGACtivities, New Letters, Number 25 (http://www.igac.unh.edu/).

CMM-INRIA, 2002. Application and Development of Inverse Modeling techniques to air quality monitoring network design (Project description, CONICYT).

Douglas, S.G., Kessler, R.C., Carr, E.L., 1990. User’s Guide for the Urban Airshed Model, Volume III: User’s Manual for the Diagnostic Wind Model. Report No. EPA-450/4-90-007C, U.S. Environmental Protection Agency, Research Triangle Park, NC.

Elbern, H., H. Schmidt, O. Talagrand and A. Ebelb, 2000: 4D-variational data assimilation with an adjoint air quality model for emission analysis ", Environmental Modelling and Software, Volume 15, Issues 6-7, Pages 539-548

Enting, I., 1999. Green’s function methods of tracer inversion. In: Prasad Kasibhatla, Martin Heimann, Peter Rayner, Natalie Mahowald, Ronald G. Prinn, and Dana E. Hartley (editors), Inverse Methods in Global Biogeochemical Cycles, AGU Geophysical Monograph Series, Vol. 114 (ISBN 0-87590-097-6).

Fisher, M. and Larry, D., 1995. Lagrangian four-dimensional variational data assimilation of chemical species. Q. J. R. Meteorol. Soc., 121, 1681.

Flores, V., Gidhagen, L., et al. 2000. “Transporte Urbano y Medio Ambiente, Parte 4: Apoyo al Sistema de Información de la Calidad de Aire en Santiago”. Comisión Nacional del Medio Ambiente.

Fung, I., John, J., Lerner, J., Matthews, E., Prather, M., Steele, L., and Fraser, P., 1991. Three-dimensional model synthesis of the global methane cycle. J. Geophys. Res., 96, 13011-13065.

Gallardo, L., Olivares, G., Langner, J. and Aarhus, B., 2002. Coastal lows and sulfur air pollution in Central Chile. Atmos. Env. In press.

Garreaud, R., Rutllant, J. and Fuenzalida, H., 2001. Coastal lows in the subtropical West Coast of South America: mean structure and evolution. Mon. Wea. Rev.130, 75-88.

Gibson, J., Kållberg, P., Uppala, S., Hernández, A., Nomura, A., and Serrano, E., 1997. ECMWF reanalysis project series (1). ERA description. European Centre for Medium-Range Weather Forecasts, Reading, UK. 72 pp.

Gidhagen, L. Kahelin, H., Schmidt-Thomé, P. and Johansson, C., 2002: Anthropogenic and natural levels of arsenic in PM10 in Central and Northern Chile. Accepted for publication in Atmos. Env.

Granier et al, 2002. Modeling. In “The Changing Atmosphere: An Integration and Synthesis of a Decade of Tropospheric Chemistry Research”. Brasseur et al (Eds.). Por aparecer en Noviembre de 2002 por Springer-Verlag (ISBN: 3-540-43050-4).

Gustafsson, N., 1997. Data assimilation for numerical weather prediction systems - a 25 year perspective, Doctoral dissertation, Department of Meteorology, Stockholm University.

Page 21: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 21 / 22

Hourdin, F. And Issartel, J.P. 2000 Sub surface nuclear tests monitoring trough the CTBT xenon network. Geophysical Research Letters, Vol 27, n 15.

IPCC, 2001: Climate Change 2001: The scientific basis. Summary for policy makers. Cambridge University Press, Cambridge, U.K.

Issartel, J.P. Et al 2000 Localization of sources. Informal workshop on meteorological modeling in support of CTBT. Vienna, Austria. 4-6 Dec. 2000.

Kalnay, E., Kanamitsu, M., Listler, R., Collins, W., Deaven, D., Gardin, Ll. Iredell, M., Saha, S., White, G., Woolen, J., Zhu, Y., Chelliah, M., Ebissuzaki, W., Higgins, W., Janowiak, J., K.C. Mo, Ropelewski, C., Wang, S., Leetmaa, A., Reynolds, R., Joy Jenne and Dennis, J, 1996: The NCEP/NCAR 40-year Reanalysis Project. Bolletin of American Meteorological Society, Vol 77, 3, 437-471.

Kalthoff, N., Bischoff-Gauß, I., Fiebig-Wittmaack, M., Fiedler, F., Thürauf, J., Novoa, E., Pizarro, C., Castillo, R. Gallardo, L., Rondanelli, R., 2001: Mesoscale Wind Regimes in Chile at 30 °S. J. Appl. Meteo., in press.

Kanakidou, M. , and G. P. B. F. J. Dentener, T. K.Berntsen, W. J. Collins, D. A. Hauglustaine, S.Houweling, I. S. A. Isaksen, M. Krol, M. G. Lawrence, J. F. Muller, N. Poisson, G. J.Roelofs, Y. Wang, W. M. F. Wauben, 1999. 3- D global simulations of tropospheric CO distributions: Results of the GIM/ IGAC intercomparison 1997 exercise, Chemosphere, 1 , 263- 282.

Kasibhatla, P., Heimann, M., Rayner, P., Mahowald, N., Prinn, R., and Hartley, D. (editors), 1999. Inverse Methods in Global Biogeochemical Cycles, AGU Geophysical Monograph Series, Vol. 114 (ISBN 0-87590-097-6.

Lelieveld, J., P.J. Crutzen, V. Ramanathan, M.O. Andreae, C.A.M. Brenninkmeijer, T. Campos, G.R. Cass, R.R. Dickerson, H. Fischer, J.A. de Gouw, A. Hansel, A. Jefferson, D. Kley, A.T.J. de Laat, S. Lal, M.G. Lawrence, J.M. Lobert, O. Mayol-Bracero, A.P. Mitra, T. Novakov, S.J. Oltmans, K.A. Prather, T. Reiner, H. Rodhe, H.A. Scheeren, D. Sikka and J. Williams, 2001. The Indian Ocean Experiment: Widespread Air Pollution from South and Southeast Asia. Science, 291(5506):1,031-1,036.

Lions, J., 1971. Optimal control of systems governed by partial differential equations. Springer. Berlin, Heildelberg, New York.

Marchuk, G., 1994. Adjoint equations and analysis of complex systems. Mathematics and its applications. Vol. 295, Kluwer Academic Publishers, Dordrecht.

Ménard, R., 1999. Tracer assimilation. ”. In: Prasad Kasibhatla, Martin Heimann, Peter Rayner, Natalie Mahowald, Ronald G. Prinn, and Dana E. Hartley (editors), Inverse Methods in Global Biogeochemical Cycles, AGU Geophysical Monograph Series, Vol. 114 (ISBN 0-87590-097-6)

Molteni, F., Buizza, R., Lanzingner, A., and Palmer, T., 1996. Potential use of the ECMWF ensemble prediction system: methodology and validation. Q. J. R. Meteorol. Soc., 122, 73-119.

Olivares, G., Gallardo, L., Langner, J. and Aarhus, B., 2001: Regional dispersion of oxidized sulfur in Central Chile. Atmos. Env. In press.

Panofsky, H., 1949. Objective weather map analysis. J. Met., 6, 386-392. Prinn, R., Weiss, R., Miller, B., Huang, J., Alyea, F., Cunnold, D., Fraser, P., Hartley, D., and Simmonds, P.,

1995. Atmospheric trends and lifetime of CH3CCl3 and global OH concentration. Science, 269, 187-192.

Prinn R., 1999. “Measurement Equation for Trace Chemicals in Fluids and Solution of its Inverse”. In: Prasad Kasibhatla, Martin Heimann, Peter Rayner, Natalie Mahowald, Ronald G. Prinn, and Dana E. Hartley (editors), Inverse Methods in Global Biogeochemical Cycles, AGU Geophysical Monograph Series, Vol. 114 (ISBN 0-87590-097-6)

Pudykiewicz, J., 1998: Application of adjoint tracer transport equations for evaluating source parameters. Atmos. Env. 32, 3039-3050.

Quélo, D., Sportisse, B., Berroir, J.P and Charpentier, I., 2002. Some remarks concerning inverse modeling and data assimilation for slow-fast atmospheric chemical kinetics APMS 2001. Springer Geosciences, 499-513.

Robertson, L. and Langner, J. 1998. Source function estimate by means of variational data assimilation applied to the ETEX-1 tracer experiment. Atmos. Environ. 32, 4219-4225.

Rondanelli, R., Gallardo, L., Garreaud, R., 2002: Tropospheric ozone changes at Cerro Tololo (30ºS, 70ºW, 2200 m) in connection with cut-off lows. J. Geophys. Res In press..

Seibert, P. (1997) Inverse dispersion modelling based on trajectory-derived source-receptor relationships. In: Gryning, S. E., Chaumerliac, N. (eds.): Air Pollution Modeling and its Application. Proc. of ITM Clermont-Ferrand. New York: Plenum Press, 711-713.

Page 22: ¿QUÉ QUEREMOS DECIR CON BUENOS RESULTADOS DE UN …

Julio 2002 22 / 22

Seibert, P., 1999. Inverse Modelling of Sulfur Emissions in Europe Based on Trajectories. In: Prasad Kasibhatla, Martin Heimann, Peter Rayner, Natalie Mahowald, Ronald G. Prinn, and Dana E. Hartley (editors), Inverse Methods in Global Biogeochemical Cycles, AGU Geophysical Monograph Series, Vol. 114 (ISBN 0-87590-097-6), p. 147-154.

Seibert P. 2001. Inverse modelling with a Lagrangian particle dispersion model: application to point releases over limited time intervals. In: Gryning, S. E., Schiermeier, F.A. (eds.): Air Pollution Modeling and its Application XIV. Proc. of ITM Boulder. New York: Plenum Press, 381-389.

Seinfeld, J. y Pandis, S., 1998. Atmospheric Chemistry and Phyics. From Air pollution to climate change, J. Wiley and Sons, Inc.

Solomon, S., 1999. Stratospheric ozone depletion: a review of concepts and history. Rev. Geophys. 37, 275-316.

Sportisse, B. And Quélo, D. Observational network design, adaptive and targeting strategies for atmospheric modeling: sketch of a methodological review. For PNLA INRIA-CEA-EDF, March 25-29, INRIA.

Stohl, A., 1998. Computation, accuracy and applications of trajectories - a review and bibliography. Atmos. Environ. 32, 947-966.

Stohl, A., M. Hittenberger, and G. Wotawa, 1998. Validation of the Lagrangian particle dispersion model FLEXPART against large scale tracer experiments. Atmos. Environ. 32, 4245-4264.

Talagrand, O. And Courtier, P., 1987. Variational assimilation of meteorological observations with the adjoint vorticity equation. I: Theory. Q. J. R. Meteorol. Soc., 113, 1311-1328.

Tyndall et al, 2002. Advances in laboratory and field measurements. In “The Changing Atmosphere: An Integration and Synthesis of a Decade of Tropospheric Chemistry Research”. Brasseur et al (Eds.). Por aparecer en Noviembre de 2002 por Springer-Verlag (ISBN: 3-540-43050-4).