Vous êtes ici : Accueil / Documentation / Modèles

Modèles de qualité de l'air

Introduction

Les modèles de qualité de l’air sont dédiés à étudier la couche limite atmosphérique (soit la partie de la troposphère la plus proche du sol), en particulier pour déterminer les concentrations de polluants présents dans l’air.

On distingue ici de manière très générale les modèles d’évaluation (assessment models), servant à réaliser le bilan de la qualité de l’air sur une période donnée (par exemple, une année), ou encore à cartographier les données de mesure des réseaux télémétriques en temps réel. Ces modèles ne sont pas prédictifs, par opposition aux modèles de prévisions (forecast models), sous-tendus, entre autres, par les équations de la mécanique des fluides, des équations chimiques, ou d’autres concepts tels que les réseaux neuronaux, etc.

Afin d’éviter de multiplier les appellations, nous avons choisi de réaliser un léger abus de langage et de qualifier également ici les méthodes d’interpolation de modèles. Les méthodes d’interpolation sont des méthodes mathématiques utilisées à l’origine en géologie afin de cartographier des grandeurs (telles que la concentration d’un élément donné dans le sol) sur base d’un certain nombre de points de mesure. De manière analogue, des méthodes d’interpolation sont également utilisées dans le domaine de la qualité de l’air afin de cartographier les concentrations de polluants sur base des résultats enregistrés dans les différentes stations de mesure du pays. Néanmoins, alors que les concentrations d’éléments dans des gisements géologiques sont des champs statiques, il n’en est rien en ce qui concerne les concentrations des polluants dans l’air. Nous verrons que, pour certains polluants, des précautions particulières doivent être prises afin que la méthode d’interpolation fournisse des résultats crédibles.

De manière générale, quatre facteurs principaux influencent la qualité de l'air :
 

  • Les sources d’émission de polluants. La présence de polluants dans l'atmosphère est principalement expliquée par les sources qui les émettent. Les plus connues sont les industries, le trafic routier et le chauffage. Les émissions polluantes provenant de ces sources fluctuent au cours du temps : par exemple, les polluants issus du trafic sont émis en plus grande quantité lors des heures de pointes dans les zones urbaines. En plus des difficultés liées à la connaissance de l'évolution des émissions dans le temps, il n'est pas toujours aisé de déterminer avec précision les quantités de polluants émis dans l'atmosphère.
  • La météorologie. Les conditions météorologiques influencent la dispersion des polluants. Il est bien connu qu'en hiver, la présence d'une inversion thermique et de faibles vitesses de vent limitent considérablement l'évacuation des polluants émis et favorisent leur accumulation à proximité de la surface du sol. A contrario, des vents forts contribuent à favoriser la dispersion des polluants, et des pluies intenses peuvent lessiver l’atmosphère en rabattant les polluants au sol. L’ozone n’est en outre susceptible de se former que lorsque des conditions météorologiques particulières sont rencontrées, soit un fort ensoleillement et températures élevées.
  • La (physico-)chimie des polluants. Les réactions chimiques (et les transformations physiques) ont une influence déterminante sur la présence de certains polluants dans l'atmosphère. C'est par exemple le cas pour l'ozone, polluant secondaire formé par réaction photochimique à partir de gaz précurseurs tels que le dioxyde d'azote et les composés organiques volatils. La chimie et la physique jouent également un rôle significatif dans la formation des particules fines.
  • Le transport des polluants. À moins de se trouver en conditions de faible dispersion, les polluants produits en un endroit donné sont pris en charge par le vent et transportés vers d'autres régions. Rapporté à l'échelle de la Belgique, ce transport de polluants signifie que notre pays exporte ses propres polluants vers les pays voisins, mais en corollaire, importe également des polluants provenant de ces derniers. Pour certains polluants tels que les particules fines, le transport à grande distance peut, dans certains cas de figure, avoir une influence importante sur les concentrations mesurées.

 

Ces quatre facteurs sont autant de sources d'incertitudes qui doivent être maîtrisées au mieux au sein de modèles de prévision et des modèles d’évaluation.

Modèles d'évaluation

L’objectif général des modèles d’évaluation est de cartographier les concentrations de polluants, notamment sur base de la mesure de celles-ci en un certain nombre de stations de mesure. Ceci permet d’estimer la variation spatiale des concentrations, que ce soit en temps réel ou a posteriori. Ces modèles permettent d’établir un bilan de la qualité de l’air pour une période donnée, en calculant par exemple l’exposition de la population aux concentrations de polluants élevées.
Les deux modèles d’évaluation utilisés à CELINE sont la méthode d’interpolation RIO, ainsi que le modèle RIO-IFDM, encore en développement, résultant du couplage entre la méthode d’interpolation RIO et le modèle de dispersion IFDM.

Méthode d'interpolation RIO

La technique d’interpolation RIO a été développée afin de prendre en considération le caractère plus ou moins local de la pollution atmosphérique.
Comme déjà mentionné plus haut, les techniques d’interpolation usuelles telles que la pondération en distance inverse et le krigeage ordinaire permettent d’obtenir une estimation d’une grandeur physique en toutes les mailles d’une grille, sur base d’un nombre limité de points de mesure. Ces méthodes sont basées sur l’hypothèse que chacune des mesures possède la même représentativité spatiale. En pratique, ce n’est cependant généralement pas le cas pour la pollution atmosphérique : les concentrations mesurées à proximité d’une source de pollution ne sont usuellement représentatives que d’une zone limitée autour de cette source, alors que les concentrations mesurées dans un environnement rural sont généralement représentatives d’une étendue plus vaste. 

RIO est une technique d’interpolation « intelligente » qui renormalise tout d’abord les stations afin d’assurer que celles-ci aient la même représentativité spatiale. Les valeurs de mesure ainsi obtenues peuvent être interpolées par une méthode standard (krigeage ordinaire). Ensuite, le caractère local de chacun des points de mesure interpolés est repris en compte dans la dernière étape de la procédure.
La caractérisation des points de mesure est effectuée par une analyse statistique de séries à long terme de concentrations dans les stations de mesure et comparée à l’occupation des sols (ici fourni par Corine Land Cover) à proximité des stations de mesure. Cette analyse révèle qu’il existe une corrélation entre l’occupation des sols et les niveaux de concentrations de certains polluants. Comme l’occupation des sols est une donnée disponible pour toute la Belgique, il est ainsi possible de tenir compte du caractère local de la pollution de l’air, en chaque endroit où une valeur interpolée est obtenue. En outre, en ce qui concerne l’interpolation des PM2.5, la profondeur optique des aérosols (AOD) est utilisée conjointement à l’occupation du sol.

La technique d’interpolation RIO fournit des résultats à une résolution spatiale de 4x4 km2. Sa résolution temporelle est la même que celle des réseaux de mesures télémétriques (horaire). La méthode RIO est utilisée sur le site de CELINE afin de fournir les cartes de mesure de la qualité de l’air en temps réel.

Modèle RIO-IFDM

Le modèle RIO-IFDM résulte du couplage de la méthode d’interpolation RIO, basée sur les résultats de mesure des réseaux télémétriques, à un modèle de dispersion basé sur la connaissance des sources émettrices de polluants.
Le modèle IFDM seul calcule l’impact des émissions de polluants atmosphériques de sources ponctuelles et linéiques sur la qualité de l’air dans l’environnement immédiat de ces sources. Par exemple, une cheminée d’usine est une source ponctuelle. En revanche, les émissions produites par la circulation sur une route ou un tronçon de route constituent une source linéique.
On connaît l’emplacement exact des principales sources industrielles, ainsi que la quantité de polluants émises pour chaque source. L’analyse de la circulation et la composition moyenne du parc automobile permettent également une bonne estimation des émissions des véhicules par route ou segment de route. Ces émissions sont connues pour les principales routes urbaines et régionales, ainsi que sur les autoroutes et les périphériques.

Le modèle IFDM est un modèle de dispersion bigaussien. Dans un tel cas de figure, on réalise toute une série d’hypothèses simplificatrices sur l’équation d’advection-diffusion régissant la dispersion des polluants dans l’atmosphère (cf. encadré « Les modèles déterministes ») afin d’obtenir une solution analytique de celle-ci. Cette solution est stationnaire et représente alors un instantané idéalisé d’un panache subissant l’advection du champ du vent le long d’une direction de l’espace, et se dispersant de manière gaussienne dans les deux autres directions (d’où son appellation, bigaussien). En un instant donné, le panache de la source considéré est calculé grâce aux données de vitesse et de direction du vent et de l’intensité de polluant émise par la source.
Enfin, un module de chimie complémentaire vient se greffer à ce calcul et permet de prendre en compte la photochimie (simplifiée) de l’ozone et du dioxyde d’azote.

Contrairement à la méthode d’interpolation RIO, le modèle IFDM ne se base pas sur des mesures, mais  évalue les concentrations de polluants atmosphériques sur la base des données d’émission et des données météorologiques telles que la vitesse du vent, la direction du vent et la température. En effet, ces données déterminent l’efficacité de la dispersion de la pollution, ainsi que les zones touchées. Pour certaines substances comme le dioxyde d’azote (NO2) ou l’ozone (O3), les réactions chimiques dans l’atmosphère jouent également un rôle. La version actuelle du modèle IFDM tient uniquement compte des sources industrielles et des sources liées à la circulation routière. Les autres sources de pollution atmosphérique comme l’agriculture et l’activité domestique ne sont pas modélisées séparément, mais sont incluses dans la grille des concentrations de fond de 4x4 km² fournie par la méthode RIO. Contrairement aux sources ponctuelles ou linéiques, les émissions provenant de l’agriculture et des ménages sont davantage réparties sur des zones étendues. Pour éviter de prendre deux fois en compte les sources industrielles ou liées à la circulation routière, on applique une « correction de double comptage ». En effet, les résultats RIO 4x4 km², produits par l’interpolation des mesures, comprennent déjà les émissions de toutes les sources.

Actuellement, le modèle RIO-IFDM est encore en phase de validation.

Modèles de prévisions

L’objectif général des modèles de prévisions est de produire des cartes de concentrations pour la journée en cours et les jours à venir.  Les modèles de prévisions se subdivisent en plusieurs sous-groupes : les modèles déterministes, basés sur les équations d’évolution de la physique ainsi que sur la chimie ; les modèles neuronaux, basés sur des modèles de réseaux de neurones afin de prévoir les concentrations, etc. D’autres sous-groupes et catégorisations existent encore mais nous nous contenterons ici de survoler les modèles que nous utilisons à CELINE.

Les modèles déterministes [1]

Les bases de ces modèles sont les équations d’évolution de la physique, ainsi que toute une série d’équation chimiques pour les polluants concernés. De manière générale, le but d’un modèle de qualité de l’air déterministe est, sur base des émissions de polluants par des sources, de prédire les concentrations des polluants dans l’air telles qu’on les mesure, soit les concentrations « à l’immission » . En effet, une fois les polluants émis dans l’atmosphère, ils vont être transportés, se transformer physiquement et réagir chimiquement pour déterminer les niveaux de pollution mesurés : on parle génériquement de « chimie-transport ». Si le polluant peut être considéré comme inerte (il ne réagit pas), on a affaire à un traceur passif et seul le transport doit être considéré, comme c’est par exemple le cas pour le black carbon.

Dans le cas le plus général, un modèle de qualité de l’air déterministe doit résoudre les équations de Navier-Stokes régissant l’écoulement des fluides (conservation de l’impulsion, de l’énergie, de la masse, de l’humidité spécifique) ainsi que l’équation d’advection-diffusion-réaction pour les concentrations de polluants. Les équations de Navier-Stokes sont non linéaires et extrêmement complexes à résoudre (on parle bien ici de résolution numérique, soit par des ordinateurs). D’un point de vue chimique, les réactions au sein de l’atmosphère auxquelles les polluants peuvent être soumis sont nombreuses et également non linéaires (comme par exemple la photochimie de l’ozone). Viennent ainsi s’ajouter à l’équation d’advection-diffusion, des termes chimiques de production des espèces selon les réactions retenues (généralement de l’ordre de la centaine) pour décrire les polluants étudiés. La physique des aérosols (particules solides et liquides en suspension dans l’air) doit également être prise en compte, ainsi que les réactions physico-chimiques entre espèces gazeuses et aérosols. Les termes de perte incluent le lessivage par les pluies (in-cloud et below-cloud scavenging), le dépôt sec des polluants gazeux ou particulaires qui réagissent ou collisionnent avec les obstacles au sol, etc.
On subdivise alors les modèles déterministes en deux sous-catégories, les modèles couplés on-line qui résolvent ce système d’équations couplées (Navier-Stokes + évolution des concentrations), et les modèles couplés off-line qui se placent dans l’hypothèse de dilution. Sous cette hypothèse, on découple la dynamique du fluide de l’évolution des concentrations de polluants et on utilise par exemple en entrée de l’équation d’advection-diffusion-réaction, les sorties précalculées d’un modèle météorologique. Cette hypothèse, valable pour les modèles de qualité de l’air, n’est certainement pas valide pour les modèles climatiques, en raison de l’importance de l’interaction entre matière et rayonnement au sein de ceux-ci.
Les équations de Navier-Stokes décrivent des phénomènes turbulents, comportant de nombreuses échelles mélangées, et représentent un véritable défi pour les ordinateurs modernes, notamment pour des questions de stabilité numérique de la solution. La résolution des équations de Navier-Stokes dans un modèle on-line peut se faire de manière directe, ce qui est fort conséquent d’un point de vue ressources informatique et ne se restreint actuellement qu’à la recherche. On peut aussi utiliser une approche Large Eddy Simulation pour filtrer les échelles les plus petites et diminuer la taille du problème à résoudre. Cette méthode est utilisée également principalement en recherche. Enfin, la méthode de la « moyenne de Reynolds » (RANS pour Reynolds-averaged Navier-Stokes), permet de séparer les équations en termes « moyens » et « turbulents » mais nécessite alors un schéma de fermeture, soit une hypothèse additionnelle sur la manière de décrire la turbulence. On utilise usuellement une théorie-gradient, qui décrit le flux turbulent d’une grandeur, par analogie à la loi de Fick, comme proportionnel à l’opposé du gradient de celle-ci. En ce qui concerne les modèles off-line, on utilise également la méthode de la moyenne de Reynolds sur l’équation d’advection-diffusion-réaction.
À la lumière de ces explications, on peut voir que la description de l’écoulement des fluides (à l’échelle de la qualité de l’air) est complexe et intriquée et qu’il est nécessaire d’avoir recours à des approximations lors de leur résolution numérique d’une part pour une question de ressources informatiques à déployer et de temps de calcul, mais aussi du point de vue de la stabilité numérique.

Les modèles neuronaux

Les réseaux de neurones artificiels (artificial neural networks ou ANN) constituent un groupe de techniques d’apprentissage automatique (machine learning) inspirées des réseaux de neurones biologiques. De manière générale, un tel réseau de neurones possède un certain nombre de couches de neurones : la première couche est la couche d’entrée, envoyant l’information d’entrée à la seconde couche, et ainsi de suite jusqu’à la couche de sortie. Entre chaque couche de neurones, les données sont manipulées mathématiquement.

Plaçons-nous à présent dans le domaine spécifique de la qualité de l’air, afin de fixer les idées. Un modèle de prévision neuronal passera tout d’abord par une phase d’apprentissage en chaque point de mesure des concentrations de polluants, puis pourra ensuite être utilisé en mode opérationnel, tirant alors profit de son apprentissage afin de réaliser des prévisions. Le modèle nécessite, d’une part, des séries historiques de données (concentrations et paramètres météorologiques) suffisamment longues (de l’ordre de plusieurs années) afin de réaliser son apprentissage. D’autre part, le modèle nécessite les mesures disponibles de météo et de concentrations le matin du jour de la prévision, ainsi que les données de prévisions météorologiques (issues d’un modèle météo dédié).
Le principal avantage d’un modèle de prévision neuronal, en comparaison avec les modèles déterministes, est son besoin réduit en données d’entrée et en temps de calcul en mode opérationnel. La phase d’apprentissage du modèle peut quant à elle être plus lourde numériquement. Les modèles neuronaux permettent en outre de réaliser des régressions de fonctions non linéaires dans des espaces possédant un grand nombre de dimensions. En comparaison avec les techniques statistiques traditionnelles, les modèles neuronaux ouvrent la porte à davantage de possibilités et sont particulièrement flexibles.
Le principal désavantage d’un modèle neuronal est le fait que ses prévisions ne sont possibles qu’à l’endroit du point de mesure considéré, soit à l’endroit où le modèle a réalisé son apprentissage. Pour chaque station considérée, un apprentissage spécifique doit ainsi être réalisé. De plus, le modèle ne décrit pas la physique sous-jacente du problème, ce qui peut amener des limitations quant à l’exploitation des données.

Modèles utilisés à CELINE

Trois modèles sont utilisés à CELINE pour prévoir la qualité de l'air.

  • OVL (particules fines). Le modèle OVL est basé sur une approche neuronale, c’est-à-dire que son fonctionnement s’inspire du fonctionnement des réseaux de neurones. Ce modèle prévoit les concentrations de particules fines (PM10) en fonction des prévisions météorologiques et des séries historiques de mesure de la qualité de l'air. La rapidité d'exécution est le principal avantage de ce modèle. L'inconvénient réside dans le fait que les prévisions ne sont disponibles qu'aux endroits où les mesures sont effectuées. Davantage d'informations concernant le modèle OVL développé par le VITO peuvent être obtenues ici.
  • SMOGSTOP (ozone). Le modèle SMOGSTOP est un ensemble de différents modèles statistique (dont un de type neuronal). Il prévoit les concentrations d'ozone (O3) en fonction des prévisions météorologiques et des séries historiques de mesure de la qualité de l'air. Tout comme pour le modèle OVL utilisé pour les particules fines, le principal avantage de ce modèle est sa rapidité d’exécution, et son principal inconvénient réside dans le fait que les prévisions ne sont disponibles qu'aux endroits où les mesures sont effectuées.
  • CHIMERE (ozone, particules fines, dioxyde d’azote,…). Le modèle CHIMERE est un modèle déterministe qui simule les processus physico-chimiques prenant place au sein de l'atmosphère. Il se base pour cela sur les prévisions météorologiques, les émissions de polluants dans l'air ambiant ainsi que sur l'occupation de la surface. L'avantage des modèles déterministes tient notamment dans leur capacité à simuler les polluants en tout point du domaine de simulation, même aux endroits où les mesures ne sont pas disponibles. Par contre, leur formulation complexe se traduit par des besoins plus importants en ressources informatiques. La résolution spatiale utilisée dans la présente version de CHIMERE est d'environ 50 x 50 km2, ce qui signifie que les concentrations sont représentatives de valeurs moyennes sur de grandes surfaces et que les concentrations réelles peuvent être localement plus élevées (dans les zones industrielles, à proximité des axes routiers, etc). Le modèle CHIMERE a été développé par l'Institut Pierre-Simon Laplace (IPSL-Paris) et adapté à la Belgique par CELINE.

 

De manière générale, tous les modèles, et en particulier les modèles de qualité de l’air, tentent d'approcher au mieux la réalité mais comportent toujours une part d’erreur que seules l'utilisation régulière et l'expérience permettent d'appréhender. L'art de la prévision consiste à exploiter au mieux les qualités des modèles, tout en restant conscient de leurs limites.
En combinaison avec notre propre expertise, nous utilisons ainsi les résultats des modèles OVL, SMOGSTOP, CHIMERE et parfois d’autres modèles non décrits ci-dessus pour informer le public lors des pics d'ozone en été et des épisodes de pollution aux particules fines.

En raison de leurs conceptions très différentes, il est ainsi possible que les modèles conduisent à des prévisions différentes. En toutes circonstances, les résultats de ces modèles doivent être interprétés avec la prudence requise.

Références

[1] Sportisse, B. Pollution atmosphérique - Des processus à la modélisation. Springer-Verlag France, Paris, 2008.