Réalisation d'une prévision météorologique

18/03/2023

3 ÉTAPES SONT NÉCESSAIRES POUR RÉALISER DES PRÉVISIONS MÉTÉOROLOGIQUES : L'OBSERVATION, LA SIMULATION À L'AIDE DES MODÈLES MÉTÉO ET L'ANALYSE DES DONNÉES PAR UN PRÉVISIONNISTE.

(A. Vandevoorde, LCM)


1. Pour bien prévoir, il faut d'abord observer:

Il existe ainsi des milliers de stations météorologiques de surface, en terre ou en mer, relevant entre autres les températures, la pression, l'humidité et les précipitations. 

Ils permettent de sonder l'atmosphère jusqu'à 30 km au-dessus de la planète, avant d'éclater et de retomber lentement vers le sol.Vous avez peut-être également voyagé dans l'un des 3000 avions et 7000 navires qui parcourent le globe en prenant des mesures à chacun de leurs déplacements.

Enfin, et non des moindres, les satellites d'observation, dits géostationnaires, à plus de 36 000 km de la surface de la Terre, photographient la planète et scrutent les nuages. Ils parviennent même à en déduire les paramètres physico-chimiques qui caractérisent l'air que l'on respire comme les concentrations en ozone ou en aérosols. 

Ainsi, une Veille Météorologique Mondiale s'est mise en place en 1963. Elle assure la maintenance d'un réseau de mesure mondial, garantie sa fiabilité à travers des normes très précises d'installation et veille à sa disponibilité pour tous les pays membres de l'Organisation Météorologique Mondiale (OMM).

Faisons le tri des observations : l'assimilation de données

Une fois récoltées, les observations doivent être traitées afin d'obtenir une analyse météo de qualité. Les données souffrant d'imprécisions sont éliminées, les autres sont complétées par diverses sources d'informations telles que les toutes dernières prévisions. 

Cela permet notamment de combler les manques d'observations dans certaines régions désertiques ou au milieu des océans.Dans cette étape dite "d'assimilation de données", nous créons ainsi la meilleure analyse de l'état initial de l'atmosphère. 

Le modèle météo peut alors être initialisé non plus avec des millions, mais des milliards d'informations dont la précision et le nombre sont primordiaux pour la qualité de la future prévision.


2. Après l'observation, la simulation !

L'évolution de l'atmosphère est régie par des lois physiques que les météorologues ont formalisées sous forme d'équations. Ces équations calculent les états successifs de l'atmosphère depuis l'état initial vers les échéances futures à 24h puis 48h et jusqu'à près de 15 jours : c'est la simulation.

Dans les modèles, l'atmosphère est découpée en millions de petits cubes qui forment une grille en 3 dimensions. Dans chacun de ces cubes, les valeurs de températures, humidité ou pression évoluent dans le temps. 

La taille de ces cubes détermine la résolution du modèle numérique de telle sorte que plus ces cubes sont petits plus les données fournies par le modèle seront précises. Ainsi, les modèles ont une résolution horizontale allant de 1 à 25 km permettant de décrire des phénomènes météo plus ou moins fins allant des orages aux vastes dépressions et anticyclones.

Ces simulations sont produites grâce à des supercalculateurs, parmi les plus puissants au monde, pouvant réaliser jusqu'à plusieurs milliards de milliards d'opérations par seconde, soit l'équivalent de 100 000 ordinateurs portables domestiques réunis dans une même machine.


3. L'analyse des simulations par les météorologues : la prévision

En sortie des supercalculateurs, les données ne sont pas encore des prévisions météo. 

Elles rendent compte de l'évolution des paramètres "bruts" sur chaque point de la grille du modèle, un peu comme du pétrole que l'on extrait du sol et qui doit encore être raffiné.

La prévision météo passe par l'expertise des météorologues qui traduisent ces paramètres bruts en paramètres expertisés, compréhensibles par le grand public, et qui prennent la forme de pictogrammes météo traduisant la couleur du ciel pour une échéance à venir.

Pourquoi les prévisions météo peuvent-elles se tromper ?

La météo, c'est avant tout beaucoup de mathématiques ! 

Les modèles sont basés sur des équations et des théories sans équivoques qui par conséquent sont loin d'être inexactes.Mais vous avez probablement tous entendu cet adage qui témoigne de la complexité de notre matière : "la météo n'est pas une science exacte". 

Il faut reconnaître que les modèles font des hypothèses qui peuvent parfois conduire à des approximations. Il est alors impossible de décrire parfaitement le comportement de l'atmosphère. Ces hypothèses sont nécessaires car sans elles, les modèles mettraient beaucoup trop de temps à réaliser les simulations.

Gardons également en tête que les observations météorologiques ne sont pas disponibles partout : les déserts et les océans souffrent d'un manque cruel de données. 

L'état initial du modèle ne peut donc être décrit avec précision et une petite fantaisie dans cette étape primordiale peut conduire à des extravagances dans la prévision, ce que l'on appelle "l'effet papillon", théorie selon laquelle un simple battement d'ailes d'un papillon au Brésil pourrait provoquer un ouragan au Texas", et dont le terme fût inventé par le météorologue Edward Lorenz en 1973.

L'innovation technologique : une bonne nouvelle !

Mais l'effet papillon n'est pas une fatalité !

 L'innovation technologique permet de disposer de supercalculateurs de plus en plus puissants. En 30 ans, le nombre de calculs réalisés par ces machines ont été multipliés par plus de 2 millions ! 

Le comportement de l'atmosphère est ainsi de mieux en mieux décrit et certaines hypothèses et approximations parviennent à être levées. De plus, l'arrivée des satellites météo, avec leurs données d'observation en masse, et les réseaux de mesure de plus en plus denses à travers le monde, permettent de mieux décrire l'état initial des modèles dont la précision est ô combien importante pour la fiabilité des prévisions.

Ainsi, sur les 30 dernières années, on a gagné 1 jour de prévision à chaque décennie. La qualité de la prévision que nous établissons aujourd'hui à 3 jours correspond à celle que nous faisions pour le lendemain il y a une trentaine d'année.Naturellement, les premières échéances sont les plus fiables. 

Plus on s'éloigne dans le temps, plus la fiabilité diminue. En moyenne, elle devient médiocre au-delà de 7 à 10 jours. À cette échéance, le météorologue ne cherche plus à faire dans la précision. Il établit une tendance météo de plus large échelle qui lui permet de distinguer les périodes anormalement chaudes, froides, dépressionnaires ou anticycloniques.

Une autre bonne nouvelle : les techniques de prévision évoluent

Aujourd'hui, les prévisionnistes météo ne se contentent plus d'analyser les simulations d'un seul et unique modèle à travers une approche dite "déterministe". 

On demande aux modèles de réaliser plusieurs scénarios météo afin de voir comment une situation météo peut évoluer au cours du temps. 

Pour cela, on vient modifier l'état initial de l'atmosphère et on fait varier les approximations réalisées dans le modèle. 

Cela permet d'obtenir différents états possibles de l'atmosphère au cours des prochains jours. 

En analysant ces scénarios, leur convergence ou leur divergence, les prévisionnistes viennent isoler le scénario ayant le plus de probabilité de se produire et peuvent ainsi quantifier l'incertitude qui pèse sur ce scénario. 

On parle alors de prévision d'ensemble, ou prévision probabiliste.La météo est donc une affaire de probabilités ! Va-t-il pleuvoir demain ? 

Même si les prévisions s'améliorent, vous aurez compris qu'il n'existera aucune certitude dans la réponse. C'est pour cette raison que vous entendez souvent parler de "risque de pluie", et de fiabilité des situations.

 N'oubliez pas de regarder cette information à côté de votre pictogramme météo. Elle est primordiale et elle vous renseignera encore mieux sur la météo à venir ! 

ER ZIJN 3 STAPPEN NODIG OM WEERSVOORSPELLINGEN TE DOEN: WAARNEMING, SIMULATIE MET BEHULP VAN WEERMODELLEN EN ANALYSE VAN DE GEGEVENS DOOR EEN VOORSPELLER.

(A. Vandevoorde, LCM)

1. Om goed te kunnen voorspellen moet men eerst observeren

Om het weer te kunnen voorspellen is het essentieel om zoveel mogelijk te weten over het huidige weer. De planeet wordt voortdurend bewaakt door talrijke meetapparatuur.

Er zijn duizenden oppervlakteweerstations, te land en ter zee, die onder meer temperaturen, druk, vochtigheid en neerslag registreren. Frankrijk telt bijna 1500 stations, verspreid over de vlakten en tot op de hoogste bergtoppen.

Ook worden dagelijks honderden ballonnen opgelaten. Ze tasten de atmosfeer af tot 30 km boven de aarde, voordat ze barsten en langzaam naar de aarde terugvallen.

U hebt misschien ook al meegereisd in een van de 3 000 vliegtuigen en 7 000 schepen die rond de aarde cirkelen en onderweg metingen verrichten.Regen en sneeuw worden ook in de gaten gehouden door weerradars aan de oppervlakte. Deze systemen kunnen de neerslag in een straal van enkele honderden kilometers registreren.Tenslotte zijn er de zogenaamde geostationaire observatiesatellieten, op meer dan 36 000 km van het aardoppervlak, die de planeet fotograferen en de wolken aftasten. Zij slagen er zelfs in de fysisch-chemische parameters af te leiden die kenmerkend zijn voor de lucht die wij inademen, zoals ozon- en aerosolconcentraties. 

De gegevens die zij verstrekken zijn aanzienlijk, aangezien zij bijna 90% van alle meteorologische waarnemingen uitmaken.Zo werd in 1963 een Wereldweerwacht opgericht. Het onderhoudt een wereldwijd meetnetwerk, garandeert de betrouwbaarheid ervan door zeer nauwkeurige installatienormen en zorgt ervoor dat de gegevens beschikbaar zijn voor alle landen die lid zijn van de Wereld Meteorologische Organisatie (WMO).Deze gegevens vertegenwoordigen meer dan 20 miljoen waarnemingen per dag. Waarvoor worden ze gebruikt en hoe worden ze verwerkt?

De waarnemingen sorteren: gegevensassimilatieZodra de waarnemingen zijn verzameld, moeten ze worden verwerkt om een weeranalyse van goede kwaliteit te verkrijgen. Gegevens met onnauwkeurigheden worden geëlimineerd, de rest wordt aangevuld met verschillende informatiebronnen zoals de laatste voorspellingen. Dit maakt het bijvoorbeeld mogelijk de gaten in de waarnemingen in bepaalde woestijngebieden of midden in de oceanen op te vullen.

In deze zogenaamde "data-assimilatie"-stap maken we de beste analyse van de begintoestand van de atmosfeer. 

Het weermodel kan dan niet met miljoenen, maar met miljarden stukjes informatie worden geïnitialiseerd, waarvan de nauwkeurigheid en het aantal cruciaal zijn voor de kwaliteit van de toekomstige voorspelling.

2. Na de waarneming, de simulatie!

De evolutie van de atmosfeer wordt beheerst door fysische wetten die meteorologen hebben geformaliseerd in de vorm van vergelijkingen. Deze vergelijkingen berekenen de opeenvolgende toestanden van de atmosfeer vanaf de begintoestand tot toekomstige tijdschalen van 24 uur, 48 uur en tot 15 dagen: dit is de simulatie.In de modellen is de atmosfeer verdeeld in miljoenen kleine kubussen die een driedimensionaal rooster vormen. In elk van deze kubussen veranderen de temperatuur-, vochtigheids- en drukwaarden in de tijd. De grootte van deze kubussen bepaalt de resolutie van het numerieke model: hoe kleiner de kubussen, hoe nauwkeuriger de gegevens die het model levert. De modellen hebben dus een horizontale resolutie van 1 tot 25 km, waarmee min of meer fijne weersverschijnselen kunnen worden beschreven, gaande van onweersbuien tot grote depressies en anticyclonen.

Deze simulaties worden geproduceerd met behulp van enkele van de krachtigste supercomputers ter wereld, die tot enkele miljarden bewerkingen per seconde kunnen uitvoeren, het equivalent van 100.000 thuislaptops in één machine.

3. Analyse van simulaties door meteorologen: voorspellingen

Wanneer de gegevens uit de supercomputers komen, zijn ze nog geen weersvoorspelling. Zij weerspiegelen de evolutie van de "ruwe" parameters op elk punt van het modelraster, zoals olie die uit de grond is gehaald en nog moet worden verfijnd.

Weersvoorspellingen vereisen de expertise van meteorologen die deze ruwe parameters omzetten in voor het grote publiek begrijpelijke deskundige parameters, in de vorm van weerpictogrammen die de kleur van de lucht voor een bepaalde periode weergeven.

Waarom kunnen weersvoorspellingen fout zijn?

Weersvoorspellingen zijn vooral veel wiskunde! 

De modellen zijn gebaseerd op eenduidige vergelijkingen en theorieën en zijn dus verre van onnauwkeurig.

Maar u hebt waarschijnlijk allemaal het gezegde gehoord dat de complexiteit van ons onderwerp weergeeft: "het weer is geen exacte wetenschap". Men moet erkennen dat modellen aannames doen die soms tot benaderingen leiden. Het is dan onmogelijk om het gedrag van de atmosfeer perfect te beschrijven. Deze veronderstellingen zijn noodzakelijk omdat de modellen zonder deze veronderstellingen veel te veel tijd nodig zouden hebben om de simulaties uit te voeren.We mogen ook niet vergeten dat niet overal meteorologische waarnemingen beschikbaar zijn: woestijnen en oceanen kampen met een schrijnend gebrek aan gegevens. De begintoestand van het model kan dus niet nauwkeurig worden beschreven en een beetje gril in deze cruciale stap kan leiden tot extravagantie in de voorspelling, het zogenaamde "vlindereffect", een theorie volgens welke één enkele vleugelslag van een vlinder in Brazilië een orkaan in Texas kan veroorzaken", een term die in 1973 door de meteoroloog Edward Lorenz werd bedacht.

Technologische innovatie: goed nieuws!

Maar het vlindereffect is niet onvermijdelijk! Door technologische innovatie zijn steeds krachtigere supercomputers beschikbaar gekomen. In 30 jaar tijd is het aantal berekeningen dat deze machines uitvoeren met meer dan 2 miljoen toegenomen! Het gedrag van de atmosfeer wordt daardoor steeds beter beschreven en bepaalde hypothesen en benaderingen kunnen worden overwonnen. Bovendien maken de komst van weersatellieten, met hun massale waarnemingsgegevens, en de steeds dichtere meetnetwerken over de hele wereld het mogelijk de begintoestand van de modellen, waarvan de nauwkeurigheid zo belangrijk is voor de betrouwbaarheid van de prognoses, beter te beschrijven.In de afgelopen 30 jaar hebben we dus voor elk decennium 1 dag aan voorspellingen gewonnen. De kwaliteit van de voorspelling die wij vandaag na 3 dagen produceren, komt overeen met die van de volgende dag zo'n dertig jaar geleden.

Uiteraard zijn de eerste jaren het meest betrouwbaar. Hoe verder je in de tijd gaat, hoe meer de betrouwbaarheid afneemt. Gemiddeld wordt het slecht na 7 tot 10 dagen. Op dit punt probeert de meteoroloog niet langer precies te zijn. Hij stelt een weertrend op grotere schaal vast waarmee hij een onderscheid kan maken tussen abnormaal warme, koude, lagedruk- of anticyclonale perioden.

Meer goed nieuws: de voorspellingstechnieken veranderen

Tegenwoordig analyseren weervoorspellers niet langer eenvoudigweg simulaties van één enkel model volgens een zogenaamde "deterministische" aanpak. De modellen wordt gevraagd verschillende weerscenario's uit te voeren om te zien hoe een weersituatie in de tijd kan evolueren. Daartoe wordt de begintoestand van de atmosfeer gewijzigd en worden de benaderingen in het model gevarieerd. Dit maakt het mogelijk verschillende mogelijke toestanden van de atmosfeer in de komende dagen te verkrijgen. Door deze scenario's en hun convergentie of divergentie te analyseren, kunnen de voorspellers het scenario met de grootste waarschijnlijkheid isoleren en zo de onzekerheid rond dit scenario kwantificeren. Dit wordt ensemblevoorspelling of probabilistische voorspelling genoemd.

Weer draait dus om kansen! Gaat het morgen regenen? Zelfs als de voorspelling verbetert, zult u begrepen hebben dat er geen zekerheid is in het antwoord. Daarom hoor je vaak over de "kans op regen", en de betrouwbaarheid van de situaties. Vergeet niet naar deze informatie te kijken naast uw weerpictogram. Het is heel belangrijk en geeft je nog meer informatie over het komende weer