Glossaire de chaque mot utilisé en Météorologie

Glossaire de la lettre A à Z  lettre (A)

 

abri météorologique

Au cours des observations météorologiques sont systématiquement effectuées près du sol les mesures de grandeurs telles que la température ou l'humidité de l'air ; les instruments qui réalisent ces mesures sont alors placés à l'intérieur d'abris météorologiques.

Pareils instruments, si l'on n'y prenait garde, pourraient en effet donner des résultats différents suivant l'environnement où ils se trouvent : par exemple, un thermomètre non protégé du soleil évaluera non pas la température, mais un "mélange" de cette température et du rayonnement solaire. Les abris météorologiques évitent ce genre d'inconvénient en assurant une bonne ventilation et une protection contre les divers types de rayonnement et les intempéries : de cette manière, les mesures obtenues par les instruments qu'ils contiennent gardent la même signification physique en tout lieu et à tout moment, pourvu que la construction et l'installation de ces abris répondent à certaines normes, telles que la détermination de la hauteur au-dessus du sol à laquelle sont mesurées les grandeurs météorologiques.

 

Absorption

  Curieux  

Un sol qui "engloutit" la pluie tombant d'un nuage absorbe une certaine quantité de matière (la masse de pluie tombée) qui a été émise par un autre milieu (le nuage) ; de même, l'air qui surplombe par beau temps un sol surchauffé absorbe la quantité d'énergie que ce dernier émet sous forme de chaleur. Dans les deux cas, une certaine quantité de matière ou d'énergie issue d'un premier milieu a pénétré dans un second milieu qui se l'est "appropriée" : on dit alors qu'il y a eu absorption (de matière ou d'énergie) par ce second milieu.

La notion d'absorption s'emploie très couramment dans le cas de l'énergie apportée dans un milieu matériel donné par un rayonnement électromagnétique (lumière, rayons X, ondes radioélectriques , etc.). Transportée par l'onde associée au rayonnement, cette énergie peut être convertie sous l'action du nouveau milieu en une autre forme d'énergie ; ainsi, l'onde disparaît, au moins en partie, pour laisser place à un état modifié du système physique, chimique ou biologique que constitue ce milieu : il y a dans ce cas absorption du rayonnement incident.

L'énergie acquise par le milieu absorbant se manifeste le plus souvent par une élévation de sa température, mais quelquefois aussi par une modification de son état physique (par exemple, la glace qui fond) ou de sa structure moléculaire (par exemple, le phosphore blanc qui se transforme en phosphore rouge) sans que sa température se modifie. L'énergie absorbée peut également susciter une ionisation, comme dans les panneaux solaires, ou bien donner naissance à une réaction photochimique, comme c'est le cas pour les plantes vertes, dont les substances organiques sont "fabriquées" à partir du gaz carboniqueatmosphérique et de l'eau en rejetant l'oxygène dans l'air, cela grâce à l'absorption du rayonnement solaire.

Soulignons encore que l'absorption de rayonnement joue un rôle fondamental dans les échanges d'énergie qui gouvernent l'état et les mouvements de l' atmosphère en contribuant à l'équilibre radiatif, principalement à deux niveaux : celui de l'énergie reçue par la surface terrestre grâce au rayonnement solaire, et celui de l'effet de serre dû au "piégeage" atmosphérique du rayonnement infrarouge émis par cette même surface.

 

 

  Initié  

Le spectre d'absorption

L'absorption d'ondes électromagnétiques est un processus "sélectif" : seuls s'y soumettent les rayonnements dont les longueurs d'onde acquièrent certaines valeurs ou appartiennent à certains intervalles de valeurs ; on peut alors établir pour chaque milieu le spectre d'absorption réunissant ces raies ou ces bandes de longueurs d'onde. Les rayons incidents non absorbés traversent le milieu s'il leur est transparent, ou bien subissent une réflexion qui contribue à dépeindre sa couleur aux yeux d'un observateur : ainsi, un corps matériel apparaîtra noir s'il absorbe presque entièrement la lumière visible, et blanc s'il la réfléchit presque tout entière.

 

Accélération de la pesanteur

  Curieux  

L'accélération de la pesanteur en un point donné de l'espace entourant la Terre est l'accélération prise en ce point par un corps matériel qui chute sous la seule action de son propre poids.

Plus précisément, notre planète exerce une force d'attraction sur tout corps matériel qui se trouve suffisamment proche de son centre O pour tomber dans son champ de gravitation (cf. figure) ; outre cette force de gravité, dirigée vers O, un corps matériel observé depuis la Terre est soumis à une force centrifuge due à la rotation du globe autour de l'axe des pôles et dirigée perpendiculairement à cet axe : et bien que cette autre force reste faible par rapport à la force de gravité, elle est suffisante pour que la combinaison des deux forces, qui est le poids du corps matériel considéré et qui a pour direction la verticale au centre A de ce corps, ne soit généralement plus dirigée exactement vers O. Or, le poids d'un corps matériel, étant une force, tend à lui imprimer une accélération qui, en chaque point A de la surface terrestre ou de l'atmosphère (déterminé par sa latitude, sa longitude et son altitude), garde une direction donnée — la verticale en A — et une valeur numérique donnée : c'est cette valeur que l'on appelle l'accélération de la pesanteur en A et que l'on désigne par g.

Le nombre g, comme toute accélération, s'exprime en mètres par seconde carrée (un mobile se déplaçant en ligne droite avec une accélération de 1 mètre par seconde carrée voit sa vitesse s'accroître de 1 m.s - 1chaque seconde). La valeur moyenne de g au niveau moyen de la mer est égale à 9,806 65 mètres par seconde carrée — chiffre que l'on arrondit généralement à 9,81 mètres par seconde carrée — mais il est important de remarquer que l'accélération de la pesanteur prend des valeurs décroissantes quand l'altitude s'élève (à latitude et longitude données) et des valeurs croissantes quand augmente la latitude (à longitude et altitude données) et qu'elle varie en outre avec la nature et la proximité des grandes masses solides formant le substrat terrestre : ainsi, la valeur de g à l'altitude zéro croît de 9,78 à 9,83 mètres par seconde carrée environ lorsqu'on passe de l'équateur à l'un quelconque des pôles. C'est cette légère variation spatiale de l'accélération de la pesanteur qui conduit à substituer à l'altitude, en météorologie, une grandeur à peine différente appelée l'altitude géopotentielle, grâce à laquelle sont tracées les courbes de niveau ou lignes isohypses sur les surfaces isobares . On mesurera quelle peut être la présence de ce nombre g dans la mécanique du fluide atmosphérique si l'on considère que les équations sur lesquelles se fonde cette dernière s'obtiennent en divisant l'atmosphère en de nombreuses parcelles d'air qui constituent chacune un corps matériel en mouvement doté d'un certain poids.

 

  Initié  

Les composantes de l'accélération de la pesanteur

Comme les autres planètes, la Terre, dans sa géométrie d'ensemble, n'est pas exactement une sphère, mais un "ellipsoïde de révolution" (cf. figure) généré par une ellipse — très peu aplatie, certes — qui tourne autour de son "petit axe", l'axe des pôles SN (au contraire des ballons de rugby, où l'ellipse tourne autour de son grand axe). Et comme les autres planètes aussi, la nôtre, par ses dimensions et sa densité, est capable d'exercer une force d'attraction sur tout corps matériel A, de masse m , qui se trouve suffisamment proche du centre O de la Terre pour tomber dans son champ de gravitation : selon la loi fondamentale de la dynamique, la force de gravité G exercée sur A par la Terre a alors pour grandeur le produit de m par l'accélération Γ que tend à imprimer cette force au corps A ; ainsi que l'indique la figure, Γ est dans ce cas orientée de A vers O dans la direction de la droite AO, conformément aux règles de l'attraction universelle, qui précisent également que cette accélération est inversement proportionnelle au carré de la distance OA.

Mais le corps A, repéré dans le voisinage de la Terre par sa latitude, sa longitude et son altitude, est par ailleurs soumis à une force d'inertie : la force centrifuge C due à la rotation du globe autour de l'axe des pôles, rotation qui s'effectue à une vitesse angulaire constante ω. Cette force C , nulle aux pôles et maximale à l'équateur (pour une masse m donnée), a pour grandeur le produit de m par l'accélération qu'elle tend à imprimer à A, laquelle a pour expression ω 2 HA, où H est la projection orthogonale de A sur SN (H et HA sont respectivement le centre et le rayon du parallèle de latitude passant par A).

Bien que cette accélération centrifuge reste faible par rapport à Γ , elle est suffisante pour que la combinaison P des deux forces G et C ait une valeur et une direction généralement distinctes de celles de G : plus précisément, la force P , qui n'est autre que le poids du corps matériel A, a pour grandeur le produit de m par l'accélération g résultant des deux accélérations impliquées ; or, la direction prise par cette accélération résultante — qui définit la verticale de A — ne passe plus exactement par le centre O de la Terre (à l'exception des points du plan équatorial et de l'axe des pôles). De même, la valeur g de cette accélération résultante n'égale plus exactement celle de Γ (à l'exception des points de l'axe des pôles) : c'est ce nombre g, exprimé en m.s - 2, qui constitue l'accélération de la pesanteur.


Les variations spatiales de l'accélération de la pesanteur

Les variations de g sont principalement la conséquence des variations subies dans l'espace par l'accélération Γ de la force de gravité G et l'accélération ω 2 HA de la force centrifuge C appliquées simultanément au corps A. Horizontalement, ces deux accélérations se compensent (pareil résultat est aussitôt compréhensible pour un corps au repos sur un sol horizontal, le principe d'inertie exigeant une réaction non seulement à la composante verticale de la force de gravité — c'est le sol qui l'exerce — mais aussi à sa composante horizontale — c'est la force centrifuge qui l'engendre). Mais qu'en est-il verticalement ?

Nous avons vu que la valeur de Γ décroissait sensiblement avec OA, et seulement avec OA : la composante verticale de cette grandeur, dirigée vers le nadir, a donc une valeur absolue constante sur un cercle parallèle, décroissante avec l'altitude et à peine croissante de l'équateur aux pôles sur un "quasi-demi-cercle" méridien. Quant à la composante verticale de ω 2 HA, dirigée vers le zénith, sa valeur absolue s'avère constante en longitude, mais croît avec l'altitude et décroît avec la latitude. (Dans ces projections suivant la verticale, on tient compte de la faiblesse de l'angle entre OA et la verticale en A.) Le nombre gs'obtient alors comme la somme algébrique des valeurs précédentes sur une verticale orientée vers le bas : on constate ainsi qu'il est effectivement très peu variable avec la longitude (pour une altitude et une latitude données), mais décroissant avec l'altitude (à latitude donnée) et croissant avec la latitude (à altitude donnée). En outre, la valeur de g varie sensiblement en fonction des inégalités de répartition des masses constituant l'écorce terrestre.

 

Acmad

Fondé en 1992, le Centre africain pour les applications de la météorologie au développement ou Acmad (acronyme d' African Centre of Meteorological Applications for Development ) est une institution internationale implantée à Niamey, capitale du Niger, et regroupant 53 États africains aux fins de conception et de réalisation de programmes susceptibles d'assurer le développement des prestations météorologiques dans les domaines de la prévision du temps et de la veille climatique. Ces programmes incluent d'une part le transfert de technologies météorologiques (observation par satellites météorologiques, nouvelles techniques de télécommunication, modèles numériques de prévision ) et d'autre part la formation de spécialistes en météorologie et en hydrologie au sein des services météorologiques nationaux des États membres ; en outre, l'Acmad effectue des recherches en météorologie tropicale et en climatologie et développe des études applicables à la conservation de l'environnement.

L'essor des activités de l'Acmad, au cours des années quatre-vingt-dix, a bénéficié d'un partenariat mondial et régional très diversifié où se sont engagés, entre autres, Météo-France et le CEPMMT ainsi que le Centre Régional Agrhymet (cet établissement, fondé en 1974 et installé à Niamey, regroupe 9 États de la ceinture subsaharienne et mène principalement des actions de fourniture de données, de formation et d'application en agrométéorologie et en hydrologie dans le cadre de la lutte contre la sécheresse dans le Sahel). Cet essor a entraîné la mise en place d'un système de veille météorologique et climatique fondé sur la prévision numérique à différentes échelles spatio-temporelles et sur la prévision saisonnière ; il a par ailleurs permis l'amélioration et l'adaptation des réseaux de communication, tant en ce qui concerne les données à disposition des services météorologiques nationaux que les prestations proposées aux usagers. Pareille situation autorise désormais l'Acmad à travailler de concert avec les États, les services nationaux et les utilisateurs du continent africain pour apporter des réponses aux problèmes climatiques, concevoir puis disséminer les produits correspondants et participer aux programmes mondiaux dans les domaines de la météorologie et de la climatologie.

 

Actinomètre

La mesure de l'énergie de rayonnement que transportent les ondes émises par une ou plusieurs sources naturelles de rayonnement électromagnétique est l'affaire de la radiométrie, et les instruments correspondants sont des radiomètres. Outre les radiomètres embarqués sur satellite, il en existe qui évaluent depuis la surface terrestre les composantes du bilan radiatif, c'est-à-dire l'éclairement du rayonnement solaire dans le visible et le proche infrarouge ainsi que ceux des rayonnements émis dans l'infrarouge par la Terre et par son atmosphère. On préfère alors qualifier d'actinométrie la mesure que permettent d'assurer de tels instruments, qui portent eux-mêmes le nom d'actinomètres et se répartissent en trois types principaux :

  • les pyrhéliomètres, qui mesurent le rayonnement solaire direct ; celui-ci arrive sur la surface terrestre sans avoir subi aucune diffusion en traversant l'atmosphère, à la différence du rayonnement solaire diffus. Pointés en permanence vers le Soleil, les pyrhéliomètres (fréquemment nommés eux-mêmes par abus actinomètres) peuvent servir à l'étalonnage d'autres appareils de mesure du rayonnement solaire ;
  • les pyranomètres, qui mesurent le rayonnement solaire global — c'est-à-dire direct et diffus — parvenant depuis toutes les directions sur une surface plane (le plus souvent horizontale et orientée face au zénith). Il suffit d'équiper un pyranomètre d'une bande pare-soleil pour obtenir une mesure du rayonnement solaire diffus ;
  • les pyrradiomètres, qui mesurent le rayonnement total reçu par une surface plane depuis toutes les directions : ce rayonnement intègre donc le rayonnement solaire (direct, diffus et réfléchi vers le haut) et les rayonnements infrarouges en provenance de l'atmosphère et de la surface terrestre ; en fait, la surface réceptrice est le plus souvent horizontale et orientée soit vers le nadir — auquel cas le pyrradiomètre évalue les rayonnements réfléchis vers le haut ou émis par la surface terrestre — soit vers le zénith — auquel cas il évalue la somme du rayonnement solaire global et du rayonnement atmosphérique. L'association de deux pyrradiomètres identiques orientés dans des directions opposées façonne un pyrradiomètre différentiel permettant de mesurer le bilan radiatif des éclairements d'origine solaire, atmosphérique et terrestre reçus par la surface commune aux deux radiomètres dont l'appareil est composé.
     

(À cette liste s'ajoute un quatrième type d'actinomètres : les pyrgéomètres, aujourd'hui peu utilisés, qui évaluent la nuit le rayonnement infrarouge reçu par une surface noire horizontale ; suivant que cette surface est orientée vers le nadir ou vers le zénith, l'éclairement ainsi mesuré est celui du rayonnement terrestre ou du rayonnement atmosphérique.)

Notons encore que les surfaces réceptrices des actinomètres sont protégées par des coupelles dont le matériau sert en même temps de filtre transparent aux seuls domaines de longueurs d'onde souhaités : entre 0,3 et 3 µm environ pour les pyrhéliomètres et pyranomètres, entre 0,3 et 100 µm environ pour les pyrradiomètres. Quant aux capteurs de rayonnement utilisés dans ces instruments, ils font souvent appel à des associations de thermocouples capables de produire une force électromotrice variable avec l'éclairement reçu.

 

Adiabatique

  Curieux  

L'adjectif "adiabatique" qualifie tout processus, tout phénomène, toute évolution associant deux systèmes physiques, chimiques ou biologiques qui n'échangent pas entre eux de chaleur. Cette définition vaut en particulier pour le couple formé par un système et le milieu extérieur à ce système : or, l'étude courante des fluides, et de l'air en particulier, repose sur leur division en parcelles de fluide plus ou moins mouvantes ; dès lors, on peut se demander quel est le comportement usuel du système que constitue une parcelle d'air par rapport à l'atmosphère qui l'entoure et qui forme le plus souvent l'intégralité de son milieu extérieur.

Parmi les différentes transformations auxquelles est susceptible d'être soumise une telle parcelle peuvent figurer, si l'on se place à l'échelle aérologique, des transformations adiabatiques : en effet, on peut considérer que la parcelle, au cours de ses mouvements verticaux, n'échangera pas de chaleur avec l'extérieur, du fait que la diffusion de la chaleur s'opère médiocrement à travers l'air. Or, il s'avère que lorsqu'une parcelle est soumise à une détente adiabatique — la pression atmosphérique y diminuant — elle subit en même temps un refroidissement ; inversement, si cette parcelle est soumise à une compression adiabatique — la pression y augmentant — elle subit un réchauffement. De ce fait, une parcelle d'air prise dans une ascendance se refroidit, puisque la pression décroît quand s'élève l'altitude ; la conclusion inverse s'applique à une parcelle prise dans une subsidence. On démontre alors en météorologie que tant qu'il n'y a pas eu saturation, les variations de la température et de la pression d'une parcelle d'air humide s'effectuent dans le même sens et sont pratiquement liées par une loi universelle dont l'unique paramètre est la température prise par la parcelle à une pression donnée, conventionnellement fixée à 1 000 hPa (la température de la parcelle à cette pression particulière constitue par définition sa température potentielle).

Grâce à l'hypothèse de l'adiabatisme, des informations extrêmement précieuses sur la situation météorologique et le temps sensible dans une tranche atmosphérique donnée peuvent alors être déduites de l'examen du profil vertical de la température en fonction de la pression, tracé par exemple sur un émagramme (cf. figure). Cet examen éclaire le prévisionniste sur deux facteurs primordiaux, qui sont premièrement l'épaisseur, la stabilité ou l'instabilité des couches successivement examinées, et deuxièmement la formation de condensation, donnant lieu à l'apparition de nuages et éventuellement de précipitations. Le mouvement d'une parcelle est alors dépeint sur l'émagramme par un "déplacement" du point représentatif de son état le long de la courbe qui figure, pour la valeur correspondante de la température potentielle, la relation entre pression et température mentionnée plus haut (pareille courbe est appelée une isoligne adiabatique ou simplement, par substantivation, une adiabatique).

Mais le passage à la condensation réduit l'intensité du refroidissement d'une parcelle d'air quand décroît la pression, en raison de la libération de chaleur latente qu'il entraîne à l'intérieur de la parcelle. Les transformations d'une parcelle d'air saturé deviennent alors très voisines d'une transformation dite transformation adiabatique saturée ou transformation pseudoadiabatique : au cours de cette transformation, différente de la transformation adiabatique sèche , les points représentatifs des parcellesparcourent sur l'émagramme des (isolignes) pseudoadiabatiques ; moins inclinées que les adiabatiques, ces courbes autorisent de manière analogue un examen vertical de l'épaisseur, de la stabilité et de la nature des couches nuageuses.

 

  Initié  

La relation adiabatique en milieu gazeux

Le comportement d'une parcelle d'air atmosphérique en mouvement vertical ressortit au cas plus général d'une masse donnée m d'un gaz de composition fixe, contenue à la température absolue T dans un volume V où elle exerce une pression p ; les trois grandeurs p , V , T sont alors liées entre elles par l'équation d'état des gaz parfaits, qui s'écrit sous la forme p V = m R T , où R est une constante spécifique du gaz considéré. Sous l'action d'une très légère transformation physique, l'énergie interne E de la parcelle de gaz (définie à une constante arbitraire près) peut se modifier d'une certaine valeur δE = δW + δQ par suite de l'apport extérieur d'un travail δW et d'une quantité de chaleur δQ (le nombre très petit δW est compté positivement ou négativement suivant que le gaz de cette parcelle reçoit ou fournit du travail, et il en va de même pour le nombre très petit δQ suivant que la parcelle reçoit ou fournit de la chaleur) ; en même temps, la pression, le volume et la température auront varié respectivement de quantités très faibles δp , δV , δT à l'issue de cette transformation. Conformément aux lois de la thermodynamique, la variation de la température du gaz peut alors s'exprimer à partir de celle de sa pression et des valeurs de T , p et δQ en appliquant trois résultats fondamentaux :
 

  • le premier principe de la thermodynamique, selon lequel la valeur de δE ne dépend pas de la transformation (ou de la suite de transformations) empruntée par le système que constitue la parcelle pour passer d'un état à l'autre, mais seulement des grandeurs caractéristiques de ces deux états, l'initial et le final ;

  •  
  • la loi de Joule, qui affirme que pour une masse donnée de gaz, l'énergie interne E ne dépend que de T et non des deux autres grandeurs caractéristiques de l'état de ce gaz ;

  •  
  • l'équation d'état des gaz parfaits, qui permet d'exprimer δV en fonction de T et p et de leurs variations (une expression analogue en résulte pour δW , qui est égal à - p δV ).

 

La relation alors obtenue prend la forme

δT = ( R / C p ) T ( δp / p ) + [1 / ( C p m )] δQ

dans laquelle C p désigne une constante spécifique du gaz : sa chaleur massique à pression constante, égale à la quantité de chaleur nécessaire pour élever de 1 °C (ou de 1 K) une masse de 1 kg de ce gaz maintenue à pression constante. (En fait, C p varie généralement avec la température, de façon suffisamment lente toutefois pour qu'on puisse lui assigner une valeur constante dans de larges créneaux de variation de T .) Or, dire que la transformation élémentaire subie par la parcelle de gaz était adiabatique équivaut à dire que δQ est nul, auquel cas la relation ci-dessus se transforme en l'égalité

δT / T = ( R / C p )( δp / p )

On montre que tant qu'une telle parcelle n'évolue que par transformations adiabatiques, l'égalité précédente exige que les grandeurs p et T qui décrivent son état soient liées par la relation

T / T 0 = ( p / p 0 ) R / C p

où les données p 0 et T 0 caractérisent un état — arbitrairement choisi — parmi ceux dans lesquels la parcelle s'est trouvée (ou serait susceptible de se trouver). Ce type de relation est de la forme T = A p B, où les constantes B (égale à R / C p) et A sont positives ; d'après les propriétés mathématiques de la fonction "puissance B ", on peut alors conclure que lors d'une transformation adiabatique, la température du gaz varie dans le même sens que sa pression, de sorte qu'une compression y est effectivement associée à un réchauffement, et une détente, à un refroidissement : tel est en particulier le cas pour une parcelle d'air (non saturé) en mouvement vertical.


Les isolignes adiabatiques et l'adiabatisme humide

La relation qui vient d'être obtenue montre que la température absolue T et la pression atmosphérique pdans une parcelle d'air sec évoluant par transformations adiabatiques sont liées par l'égalité

T / T 0 = ( p / p 0 ) R a / C pa

dans laquelle les constantes R a et C pa spécifiques de l'air sec sont mesurables expérimentalement et ont pour valeurs respectives 287 J.kg - 1 .K - 1 et 1 005 J.kg - 1 .K - 1 (le rapport sans dimension R a / C pa est, à 1,4.10 - 4 près, égal à 2/7) ; si l'on fixe p 0 à 1 000 hPa , cette égalité se récrit sous la forme

T = θ ( p / 1 000) R a / C pa

où θ est la température potentielle de la parcelle : on obtient là l'"équation" des courbes constituant les isolignes adiabatiques dessinées sur un émagramme et cotées suivant les valeurs du paramètre θ, qui est l'unique paramètre dont dépend leur tracé (cf. figure).

 

 

  Expert  

Le gradient adiabatique 

 Lorsqu'une parcelle d'air d'abord située à une certaine altitude z passe dans l' atmosphère à une altitude très voisine z + dz, sa pression atmosphérique, initialement égale à p, varie très faiblement pour prendre la valeur p + dp (dp étant de signe opposé à dz). Si cette parcelle, en se mouvant verticalement, subit une transformation adiabatique (sans condensation), sa température, au départ égale à T a kelvins, va dans ces conditions connaître une très petite variation dT a de même signe que dp ; il convient de souligner que la valeur de T a peut différer de la valeur T de la température de la couche d'air qui environne la parcelle, alors que les pressions à un niveau donné sont identiques à l'intérieur et à l'extérieur de celle-ci. 

 
Supposons fixées les valeurs de z , T et T a et notons que lors de la transformation, le point représentatif de l'état de la parcelle sur un émagramme se déplace sur l'adiabatique de la même façon que si l'air était sec; on peut en conséquence lier les différentes grandeurs en jeu par trois relations appliquées à l'air sec, qui sont :


• la relation adiabatique exprimée pour de très faibles variations de T a et p, soit dT a / T a = ( R a / C pa )( dp / p ) ;


• l'équation d'état de l'air sec entourant la parcelle, exprimée au moyen de sa masse volumique ρ, soit p = ρ R a T ;


• enfin, la relation de l'hypothèse hydrostatique, selon laquelle dp = - ρ g dz, où g représente la valeur de l'accélération de la pesanteur au centre de la parcelle.
 

On déduit de ces expressions l'égalité dT a = - ( g / C pa ) ( T a / T ) dz. Or, le rapport négatif γ a = dT a / dz , mesurable en kelvins (ou en degrés Celsius) par mètre, exprime par sa valeur absolue la "rapidité" avec laquelle la température d'une parcelle d'air varie verticalement lors d'une transformation adiabatique : lorsqu'au départ la température de la parcelle se confond avec celle de l'air environnant, ce gradient adiabatique sec (ou simplement gradient adiabatique ) adopte ainsi une valeur quasiment universelle - g / C pa qui, restant très proche de - 0,976.10 - 2 K .m - 1 , peut être considérée comme pratiquement égale à - 1 °C pour 100 m ; puis, à mesure que se poursuit la transformation, la valeur de γ a est modulée par l'écart entre la température T a de la parcelle et les températures T des couches atmosphériques qu'elle rencontre, lequel multiplie la valeur initiale du gradient par le rapport T a / T. 

Les résultats précédents ne valent bien sûr que dans les cas où aucune condensation ne s'est produite lors des évolutions verticales auxquelles est soumise la parcelle d'air. Quand celle-ci, par contre, s'engage dans une transformation pseudoadiabatique, il s'avère que pour une même valeur et une même variation de l'altitude (de z à z + dz mètres) et de la pression (de p à p + dp hectopascals ), sa température T s ainsi que la faible variation dT s qu'elle subit prennent à saturation des valeurs respectivement distinctes de T a et dT a ; alors, non seulement le gradient adiabatique saturé défini par γ s = dT s / dz est systématiquement plus petit en valeur absolue que γ a — comme on pouvait s'y attendre — mais en outre il dépend quelque peu de la pression, à la différence du gradient adiabatique sec : en fait, son ordre de grandeur rejoint celui de γ a pour les très basses températures, mais en reste nettement distant pour les températures plus courantes (avec une moyenne de - 0,5 °C pour 100 m). 

 

 

Advection

  Curieux  

La division imaginaire d'un fluide tel que l'air ou l'eau en parcelles contiguës et non morcelées permet de décrire à un instant donné les propriétés de ce fluide sous la forme de grandeurs physiques ou chimiques attachées à chacune de ces parcelles, comme par exemple la masse de la parcelle, sa température, la proportion volumique de l'ozone qui s'y trouve contenu, etc. Or, lorsque le temps s'écoule, le fluide est généralement engagé dans un mouvement : les parcelles, en se déplaçant, effectuent alors un transport des propriétés du fluide, et c'est ce transport qui est appelé l'advection.

Celle-ci s'accompagne habituellement de modifications dans les valeurs caractérisant les propriétés examinées ; quand tel n'est pas le cas, c'est-à-dire quand une grandeur physique ou chimique garde la même valeur au sein de la parcelle qui la transporte, on dit qu'il s'agit d'une grandeur conservatice : il en va ainsi, par exemple, pour les températures potentielles de parcelles d'air évoluant au sein d'une masse d'airqui ne subit pas de condensation. En un point fixe de l'atmosphère ou de la surface terrestres, toutefois, les valeurs prises par une grandeur conservative varient généralement avec le temps, puisque ce sont des parcelles différentes qui passent successivement par un tel point lorsque l'air se déplace.

En météorologie, où il est essentiel de distinguer le mouvement horizontal du mouvement vertical, le terme d'advection s'applique usuellement, sauf mention contraire, à l'advection horizontale, c'est-à-dire au transport horizontal par le vent des propriétés de l'air ; quant au transport par la vitesse verticale de l'air ou advection verticale, son expression physique prend des formes différentes suivant l'échelle spatio-temporelle à laquelle on se place : ainsi, aux échelles moyennes et aux petites échelles, l'hypothèse hydrostatique n'est plus observée et l'on préfère alors parler des mouvements verticaux en termes de convection. Notons aussi que l'idée de transport horizontal ne se limite pas à un mouvement dans un plan strictement perpendiculaire à la verticale, mais s'applique aux mouvements selon des surfaces localement voisines de plans horizontaux, par exemple des surfaces isobares. D'autre part, bien que le vent soit le moteur de l'advection horizontale, il existe une advection horizontale du vent ou, autrement dit, un transport horizontal du vent par lui-même, dont les effets sont concrétisés par ses variations dans le temps en un point fixe où défilent des parcelles d'air "porteuses" de vents de direction et de vitesse sensiblement différentes.

L'advection la plus fréquemment étudiée — notamment à des fins de prévision — s'applique au transport horizontal de masses d'air associé à l'évolution du temps à l'échelle synoptique (on parle couramment, par exemple, d'"entrée d'air" maritime chaud et humide par le sud-est, ou "d'invasion d'air" continental froid et sec par le nord-est) ; à de moindres échelles, les advections de chaleur et d'humidité ont des répercussions sensibles sur les situations locales, comme le montre l'exemple des pluiesbrumes ou brouillards "d'advection" déclenchés sur les régions côtières par un vent humide venu de la mer et soufflant sur une terre plus froide que la surface des eaux.

 

  Initié  

L'advection d'une propriété d'une parcelle d'air est le transport de cette propriété par la parcelle lorsque cette dernière est entraînée au sein de l'atmosphère sous l'effet du champ U de la vitesse de l'air ; par "propriété", il faut entendre toute grandeur ou tout champ de grandeur attachés à la parcelle observée, et en particulier — si le courant ne rencontre ni "source" ni "puits" de la propriété que l'on étudie — toute grandeur conservative, qui peut être présente dans cette parcelle à travers une valeur unique (c'est alors une grandeur extensive) ou à travers un champ de valeurs en chaque point (c'est alors une grandeur intensive). En un point fixe A de l'atmosphère ou de la surface terrestres, l'advection se manifeste généralement par des variations des propriétés ainsi étudiées, y compris en ce qui concerne les grandeurs conservatives, puisque ce sont des parcelles différentes qui passent successivement par A quand s'écoule le temps t ; alors, si la quantité G , supposée intensive, décrit une grandeur conservative, on peut mettre en évidence qu'entre les instants t et t + δt , avec δt extrêmement bref, la variation δG subie par G en A du fait de l'advection est telle que δG / δt = - U (A) .grad G (A), où grad G représente à l'instant t le gradient de G.

En météorologie, on doit généralement distinguer, dans la description de la vitesse U de l'air, le champ de vent V d'une part — qui est vectoriel et horizontal — et le champ scalaire de la valeur numérique w du vent vertical d'autre part, de façon que U = V + wk , où k est le vecteur unitaire de la verticale orientée vers le zénith. On observe alors qu'en un point fixe A de l'atmosphère ou de la surface terrestres, l'"advection horizontale" fait subir à une grandeur conservative G (supposée intensive), entre l'instant t et l'instant t + δtqui le suit presque aussitôt, une variation horizontale δ h G telle que δ h G / dt = - V (A) .grad h G (A), où grad h G représente à l'instant t  la composante horizontale du gradient de G ; de même, l'"advection verticale" fait subir à G , dans ce même intervalle de

Glossaire de la lettre A à Z Lettre (B)

 

baromètre anéroïde

L'idée de mesurer la pression atmosphérique en évaluant les déformations d'une boîte métallique hermétique dans laquelle a été fait au préalable le vide le plus complet possible revient à l'ingénieur mécanicien français Lucien Vidie (1805-1866) ; celui-ci expérimenta en 1843 un instrument de ce genre, logiquement appelé un baromètre anéroïde : dans ce baromètre, des ressorts empêchaient que la boîte ne s'écrase et tempéraient ainsi ses déformations, de façon qu'elles soient plus ou moins accentuées selon que la pression exercée par l'air sur les parois était plus ou moins forte.

Les capsules anéroïdes (ou capsules de Vidie ) fonctionnent de nos jours suivant le même principe : ce sont de petites capsules étanches en forme de disque à parois minces, dans lesquelles le vide a été fait afin de mesurer la pression atmosphérique ; cette mesure s'effectue là aussi par l'intermédiaire d'un ressort de retenue qui s'allonge ou se contracte en fonction des déformations élastiques imposées à la capsule par les variations de la pression. Les baromètres anéroïdes courants recourent à un système mécanique d'amplification des mouvements de déformation d'une capsule, ou bien de plusieurs capsules empilées : commodes et robustes, de tels appareils conviennent non seulement à l'enregistrement en continu des variations de la pression — ils jouent alors un rôle de baromètres enregistreurs ou barographes — , mais aussi à une présence familière à l'intérieur des maisons.

En météorologie, cependant, les baromètres numériques actuels, tout en se fondant sur le même principe, font appel à des phénomènes physiques spécifiques — variations de la fréquence propre d'un quartz, variations de capacité du condensateur formé par les faces de la capsule, etc. — pour convertir de manière très précise les déformations de capsules (ou de minicapsules) en signaux électriques.

baromètre

Le baromètre est un instrument météorologique destiné à mesurer la pression atmosphérique. Le principe de son fonctionnement repose sur un constat physique : la pression en un point d'un fluide tel que l'air , l'eau, le mercure, etc., mesure l'intensité de la force exercée par ce fluide sur une surface d'aire unité centrée en ce point et a la même valeur quelle que soit l'orientation de cette surface ; or, si l'on choisit d'orienter celle-ci à l'horizontale, la force en question, dans un fluide au repos sous du vide, n'est autre que le poids de la colonne verticale de fluide surmontant la surface, et mesurer la pression exercée par le fluide revient donc à mesurer ce poids ou, plus généralement, le poids de la colonne de fluide surmontant une surface horizontale d'aire fixée entourant le point de mesure. Ce constat s'applique immédiatement à la pression atmosphérique exercée par l'air en chaque point de l'atmosphère ou de la surface terrestres. (Toutefois, la correspondance entre pression et poids au point considéré n'est exacte que si la vitesse du vent ou la vitesse verticale de l'air n'y prennent pas des valeurs excessives, d'où la nécessité de concevoir une protection du baromètre.)

Dans les baromètres à mercure, un tube vertical en verre prolonge un volume de mercure au repos et en contact avec l'air libre ; ce tube, dont le haut est clos et laisse un espace vide, est partiellement empli de mercure. La pression de l'air au niveau horizontal associé à la surface libre est partout la même, et cette pression est la pression atmosphérique : de ce fait, le poids de la colonne de mercure contenue dans le tube à partir de ce niveau est le même que le poids de la colonne d'air qui surmonterait à travers toute l'atmosphère une portion de la surface libre de section égale à celle du tube, et mesurer la pression atmosphérique équivaut à mesurer ce poids, c'est-à-dire, en fait, à mesurer la hauteur de la colonne de mercure depuis le niveau de la surface libre. Cette hauteur est indépendante de la section du tube, car le poids de la colonne égale d'une part le produit de la pression par l'aire de la section, et d'autre part le produit de la hauteur par l'aire de la section et par une constante spécifique du liquide (sa masse volumique, multipliée par l'accélération de la pesanteur) ; ainsi la pression atmosphérique normale, fixée à 1 013,25 hPa, équivaut à une hauteur de mercure de 760 mm.

Inventé en 1643 par le savant italien Evangelista Torricelli, le baromètre à mercure figure parmi les instruments les plus anciennement employés en météorologie ; on y recourt au mercure car parmi les liquides, c'est lui qui est le plus lourd et qui donne par conséquent la hauteur la plus faible, à pression atmosphérique donnée, pour les colonnes de liquide incluses dans des tubes de verre. De nombreuses améliorations ont été apportées par la suite à ce genre de baromètres, par exemple l'adoption d'un tube coudé. Néanmoins, on utilise principalement de nos jours un autre type de baromètres : les baromètres anéroïdes, ainsi qualifiés parce que leur fonctionnement repose sur l'amplification des mouvements de capsules anéroïdes, uniques ou empilées, après que le vide a été fait dans ces capsules.

Dans la quasi-totalité des cas, les sites géographiques sur lesquels sont installés des baromètres se trouvent en altitude : il est alors nécessaire d'effectuer sur chaque baromètre un réglage qui permet de lui faire indiquer la pression réduite au niveau de la mer au site où il est implanté.

 

Beaufort (sir Francis)

Amiral britannique (1774-1857), créateur de l'échelle de Beaufort universellement adoptée de nos jours pour évaluer la force du vent en mer d'après l'aspect général des vagues et applicable également à la terre ferme à l'aide de critères simples d'observation. D'ascendance huguenote, Francis Beaufort entra à 13 ans dans la Royal Navy et y gravit les échelons jusqu'au grade de contre-amiral (en 1846), au cours d'une carrière où plus d'une fois il dut payer physiquement de sa personne. Il fut également un homme de science, en premier lieu membre de la Royal Society de Londres, par ailleurs membre de l'Académie Royale Irlandaise, membre correspondant de l'Institut de France et du Lycée Naval des +tats-Unis, enfin vice-président de la Société Astronomique Royale. Il réalisa de nombreuses observations, principalement en hydrographie — il traça des cartes de la côte d'Asie Mineure — , mais aussi en océanographie et en météorologie, en astronomie, en géographie humaine et dans d'autres domaines encore. Une mer de l'océan Arctique, au nord-ouest de l'Amérique du Nord, porte son nom.

Il vaut la peine de signaler que Beaufort a été l'auteur d'une "notation du temps" : ce code, qui décrivait globalement l'état du ciel, le temps présent et la visibilité bien avant les codes météorologiques actuels, fut longtemps utilisé par les navires ; chaque lettre de l'alphabet y correspondait à une description, par exemple d pour "bruine" ( drizzle ), t pour "tonnerre" ( thunder ), y pour "air sec", etc.

C'est en 1805 que Beaufort définit l'échelle anémométrique qui porte aujourd'hui son nom. Revue plusieurs fois, elle était déjà en usage sur tous les navires de la Royal Navy vers la fin des années 1830 et s'est imposée internationalement en 1926. Cependant, ce n'est qu'à l'issue de la Seconde Guerre mondiale qu'elle a pris l'expression que nous lui connaissons, après une quarantaine d'années au cours desquelles les marins se sont évertués à préciser l'état de la mer et la vitesse du vent associés aux 12 degrés (plus le degré 0) composant cette échelle. En effet, son auteur, lorsqu'il la conçut, n'était encore que le commandant du HMS Woolwich , qui participait à la guerre navale contre Napoléon : sa préoccupation n'était pas alors d'associer des intervalles de vitesse ni des descriptions de vagues aux diverses catégories de vent qualifiées par son échelle, mais d'assigner à ces dernières des critères caractéristiques du comportement d'un navire de guerre en action, confronté à des vents de telle ou telle catégorie ; cette caractérisation se faisant essentiellement à travers le déploiement et le maniement des voiles, l'expression originelle de l'échelle de Beaufort apparaît bien différente de celle que les corrélations patiemment observées par la suite lui ont fait maintenant revêtir.

Bergeron (Tor)

Météorologiste suédois (1891-1977). Dans les années 1920, il fit partie de "l'école norvégienne" qui, au sein de l'Institut de géophysique fondé à l'université de Bergen par Vilhelm Bjerknes , devait élaborer la première théorie cohérente des masses d'air et des fronts et l'appliquer à la prévision du temps à l'échelle synoptique. Il fréquenta quelque temps également l'"école de Chicago" fondée par Carl-Gustav Rossby aux Etats-Unis. 

Devenu professeur de météorologie à l'université d'Uppsala après la Seconde Guerre mondiale, Bergeron est avant tout connu pour les études qu'il avait menées à Oslo, dans les années 1930, sur la physique des nuages et des précipitations (c'est là le titre de l'ouvrage publié par lui en 1935, "On the physics of clouds and precipitations") : il avait alors observé que dans un milieu condensé où coexistent à température négative des cristaux de glace et des gouttelettes d'eau en état de surfusion , ces dernières se vaporisent, puis se recondensent à l'état solide au contact des cristaux, du fait que la pression de vapeur saturante de la vapeur d'eau est moins élevée par rapport à la glace que par rapport à l'eau liquide ; cet effet Bergeron constitue encore aujourd'hui, dans une large majorité de cas, l'explication la plus valable de la façon dont le processus de précipitation peut se déclencher à l'intérieur d'un nuage. 

bilan radiatif

  Curieux  

 

Le Soleil est, pour notre globe, le grand pourvoyeur de cette énergie de rayonnement que transportent à travers l'espace les ondes du rayonnement électromagnétique ... mais la surface terrestre et son atmosphère émettent elles aussi beaucoup d'énergie sous forme de rayonnement , quoique celui-ci reste invisible : il est en effet émis dans les longueurs d'onde de l' infrarouge lointain, tandis que le rayonnement d'origine solaire se situe principalement dans le visible et le proche et moyen infrarouge. 

 Plus généralement, chaque milieu de la Terre, jusqu'au plus modeste corps matériel, est soumis à un incessant ballet d' ondes électromagnétiques : d'un côté, sa surface reçoit des rayons incidents qu'il peut soit absorber, soit "délaisser" en les réfléchissant, en les diffusant ou en se laissant traverser par eux ; d'un autre côté, il émet lui-même au niveau de cette surface un certain flux de rayonnement. 

 Le bilan radiatif du milieu considéré est alors l'évaluation de son flux de rayonnement "net", c'est-à-dire de la différence par unité de temps entre le gain d'énergie de rayonnement fourni par l' absorption de tout ou partie du rayonnement incident et la perte de cette même énergie causée par l' émission de rayonnement. Soulignons que dans la mesure où l'énergie solaire est, avec la gravitation , l'une des deux causes fondamentales des mouvements de l'atmosphère, cette notion de bilan radiatif revêt une importance fondamentale en météorologie. 


 

 

  Initié  

Le calcul des composantes moyennes du bilan radiatif sur la Terre et sur l'année 

 Les composantes moyennes du bilan radiatif sur une année et sur les trois milieux que constituent la surface terrestre, l' atmosphère et la limite de l'espace interplanétaire (d'où parvient le rayonnement émis par le Soleil , et par où s'échappe une partie du rayonnement du système Terre-atmosphère) présentent un intérêt tout particulier : en effet, c'est du fonctionnement de ce bilan "global" que dépend l'évolution énergétique, et donc thermique et dynamique, de l'atmosphère et de l'océan. 

 Pour calculer ces composantes, il faut savoir évaluer durant une période donnée le bilan radiatif associé à tout ou partie de la surface terrestre ou d'une couche atmosphérique (ou de l'atmosphère entière, considérée comme la réunion de telles couches) en mesurant les flux de rayonnement en provenance du Soleil et de la Terre. Pareilles mesures d'énergie par unité de temps, répétées sur les mêmes étendues, permettent alors de calculer les moyennes des éclairements participant à de telles évaluations, et cela sur des domaines d'extension très diverse dans le temps (pratiquement, depuis l'heure jusqu'à l'année) comme dans l'espace (depuis l'aire d'un champ jusqu'à celle du globe terrestre). 

 On constate à cette occasion que les éclairements composant le bilan radiatif à des échelles spatio-temporelles réduites sont d'une très grande variabilité, en raison de leur extrême sensibilité à l'environnement : il suffit qu'un nuage se forme, que l'on passe du jour à la nuit ou de l'hiver au printemps, qu'une couche de neige apparaisse, qu'un lac artificiel soit créé, etc., pour que leurs valeurs varient en une même lieu ; et des variations semblables se produisent dans l'espace quand on compare au même moment des endroits voisins. Plus les domaines de temps et d'aire sur lesquels se calculent les moyennes de ces éclairements s'agrandissent, cependant, et plus les valeurs alors obtenues se rapprochent de nombres stables ou du moins lentement variables : ainsi peut-on considérer comme constantes les moyennes des éclairements calculées sur la Terre et sur l'année. 

 L'étude des bilans radiatifs déduits de ces moyennes conduit alors à des constatations concernant en premier lieu le parcours du rayonnement solaire , en second lieu l' effet de serre et en troisième lieu l' équilibre radiatif ; les chiffres qui illustrent ces constatations, arrondis à 2,5 W.m - 2 près dans les trois articles cités du Glossaire météo ( rayonnement solaire , effet de serre , équilibre radiatif ), n'ont valeur que d'approximations assez grossières, mais suffisantes pour décrire les phénomènes en jeu. Nous invitons donc les lectrices et lecteurs, pour autant qu'ils le désirent, à jeter les yeux sur ces articles... 

biosphère

La vie ne peut se développer naturellement que dans un ensemble restreint et hétérogène de milieux terrestres en osmose, qui réunit la majeure partie de trois zones constituantes : la basse atmosphère, l'hydrosphère et le sol ; c'est cet ensemble qui forme la biosphère.

Bjerknes (Vilhelm)

Géophysicien norvégien (1862-1951). Mathématicien et physicien de formation, il ne tarda pas à s'intéresser aux applications de l'hydrodynamique à la météorologie et à l'océanographie ; l'atmosphère étant un fluide, la prévision du temps en vint-il à penser, constituait un problème dont la formulation était de nature mathématique et dont la résolution dépendait de conditions bien déterminées.

Dans les années 1907 à 1910, Vilhelm Bjerknes établit avec Johan Wilhelm Sandström qu'il était préférable d'analyser et prévoir l'atmosphère sur des surfaces isobares plutôt que sur des surfaces à altitude constante ; tous deux démontrèrent des théorèmes fondamentaux concernant la circulation atmosphérique. Après un séjour en Allemagne, entre 1913 et 1917, en qualité de Directeur du Nouvel Institut de Géophysique de Leipzig, Bjerknes revint en Norvège et fonda à l'université de Bergen, en 1917, un Institut de géophysique ; il y regroupa d'éminents météorologistes, parmi lesquels Halvor Solberg, Tor Bergeron, plus tard Ragnar Fjörtoft, et également son propre fils Jacob Bjerknes (1897-1975), qui par la suite devait être le premier à étudier, en 1957, les corrélations entre El Niño et les anomalies climatiques sur l'océan Pacifique et l'Amérique du Nord. Cette "école norvégienne" a laissé à jamais son empreinte sur le travail quotidien des prévisionnistes en élaborant une théorie des fronts directement applicable, dans les zones tempérées, à l'analyse et à la prévision des perturbations atmosphériques à l'échelle synoptique. Publiée en 1919 par Vilhelm et Jacob Bjerknes, puis présentée par eux à Bergen en 1921, cette théorie finira par être adoptée de par le monde au milieu des années 1930.

Il est vrai cependant que les résultats des mesures en altitude dont pouvaient alors disposer les météorologistes de Bergen étaient trop épars pour confirmer ou infirmer l'idée sur laquelle s'appuyait cette théorie, à savoir, une confrontation entre deux masses d'air, l'une "chaude", l'autre "froide", dont les différences thermodynamiques génèrent suivant leurs surfaces de contact — les fronts — des instabilités qui se développent en cyclones extratropicaux ; et de fait, certaines objections provenant de l'interprétation physique comme des mesures réalisées en aérologie ont fait évoluer depuis lors cette représentation "norvégienne" des perturbations, fondée sur l'existence de surfaces de discontinuité thermique en altitude et sur l'ascendance concomitante de l'air chaud sous la seule poussée de l'air froid : l'attention se porte de nos jours sur le rôle spécifique joué par les courants-jets dans la genèse des perturbations tempérées, au-dessus de zones où les variations méridiennes de la température suivant l'horizontale, parce qu'elles sont relativement élevées, entraînent d'importants cisaillements verticaux du vent près de la surface terrestre et au niveau de la tropopause.

Dans cette nouvelle approche, cependant, la notion de front reste aussi vivante et aussi essentielle que dans la théorie mise sur pied par Vilhelm et Jacob Bjerknes, auxquels les prévisionnistes — et le public — sont redevables du seul cadre conceptuel cohérent (et toujours efficace au niveau moyen de la mer ) à avoir pu être proposé durant des dizaines d'années pour se mouvoir et se repérer dans cette jungle phénoménologique que constitue la prévision du temps. En ce sens, Bjerknes apparaît comme l'initiateur de la météorologie moderne, tout comme il l'apparaît par ses qualités d'organisateur et par son intuition précise quant aux possibilités et aux conditions d'une prévision numérique scientifiquement fondée.

blizzard

Parmi les phénomènes générateurs de temps violent figure le blizzard, particulièrement redouté au Canada et au nord des États-Unis : cette tempête d'hiver, puissante et prolongée, combine des températures négatives et des vents très forts chargés de chasse-neige réduisant considérablement la visibilité. On parle plus précisément de blizzard lorsque pareille tempête persiste pendant au moins 3 heures et réduit la visibilité à moins de 1 km. (À noter que l'usage de ce terme s'est étendu aux tempêtes de neige antarctiques associées à des vents très forts.)

bourrasque

Bien que son caractère brutal engage parfois à en parler comme d'un synonyme de rafale, la bourrasque désigne en réalité tout épisode de grand vent impétueux et de courte durée ; ce terme s'emploie en particulier pour caractériser la nature de certains coups de vent en mer.

brise

  Curieux  

En météorologie marine , un vent de force comprise entre 2 et 6 inclus est appelé une brise ; suivant que sa force égale 2, 3, 4, 5 ou 6, on le nomme alors plus précisément légère brise, petite brise, jolie brise, bonne brise ou vent frais. Mais dans un sens différent et plus général, la brise désigne un régimespécifique de vent local, généré par les différences de réchauffement ou de refroidissement s'établissant entre deux zones avoisinantes de la surface terrestre à la suite du rayonnement absorbé ou émis par ces deux zones.

Ces différences se transmettent peu à peu aux basses couches d'air sus-jacent aux deux zones, constituant ainsi deux régions atmosphériques dont l'une est plus réchauffée (ou moins refroidie) que l'autre : on dit que s'opère alors un processus de réchauffement différentiel . En pareil cas, une brise se lève en soufflant de la région la moins chaude vers la région la plus chaude de manière à y remplacer les courants ascendants nés de son réchauffement "relatif". En raison de ce processus, les brises finissent généralement par constituer la partie inférieure de cellules convectives ; en outre, elles se présentent fréquemment comme des phénomènes d'évolution diurne, puisque la convection thermique dépend du rythme du jour et de la nuit.

Ainsi, les terres côtières durant la journée s'échauffent plus rapidement que l'étendue d'eau contiguë, d'où se met à souffler vers les rivages un flux d'air plus frais, la brise de mer ; une période transitoire s'instaure pendant la matinée avant que ne puisse être close la cellule convective, bientôt révélée dans ses ascendances par la présence de cumulus : derrière une bande côtière de vent calme s'avance alors un front de brise de mer séparant une couche d'air chaud qui se déplace depuis la terre et une couche d'air sous-jacente, relativement fraîche, peu épaisse, qui se déplace depuis la mer.

Après le coucher du soleil , l'évolution des écarts de température entre mer et terre s'inverse, et lorsque la nuit est suffisamment avancée, la brise de terre se lève et souffle de la côte plus froide vers la mer, cela jusqu'au matin ; elle n'est pas aussi intense que la brise de mer, car le refroidissement nocturne par rayonnement infrarouge tend à produire entre le sol et l'eau des différences plus atténuées que le réchauffement diurne par le rayonnement solaire. Les passages de l'une à l'autre brises s'effectuent à travers des périodes prolongées de calme.

En montagne, de même, l'air des fonds de vallée se déplace le jour vers les sommets mieux ensoleillés en donnant naissance à la brise d'aval (le long de la vallée) et à la brise montante (sur les pentes latérales), lesquelles, composent la brise de vallée ; des nuages se développent alors dans l'air surplombant le haut de la vallée : en atmosphère instable, il arrive en fin de journée qu'ils se soient transformés en cumulonimbus, provoquant des orages isolés.

Les propriétés de la brise de vallée sont bien sûr exploitées par les adeptes du vol libre, jusqu'à une certaine heure de fin d'après-midi toutefois, car les ascendances faiblissent avec la hauteur du soleil. Puis la nuit venue, le phénomène s'inverse : la brise d'amont et la brise descendante composent la brise de montagne qui s'écoule des sommets vers les fonds de vallée en y formant souvent des poches d'air froid ; le risque existe alors que celles-ci hébergent des brouillards et à certaines époques de l'année, des geléesnocturnes.

 

  Initié  

Les brises sont totalement étrangères aux principes d'équilibre qui fondent le vent géostrophique ; elles s'associent du reste à des différences de pression trop faibles pour être décelables sur les cartes météorologiques à l'échelle synoptique : ce sont par excellence des phénomènes d'échelle locale, conditionnés non seulement par des paramètres de plus grande échelle spatio-temporelle — l'ensoleillement (de jour), la nébulosité, le vent synoptique — , mais aussi par les caractéristiques intrinsèques des zones entre lesquelles elles soufflent (on peut évoquer à cet égard le tracé des rivages, l'orientation et la conformation des reliefs, les albédos...).

Pour autant, ces types de vent ne constituent pas des phénomènes marginaux, en particulier pour ce qui est des brises de mer, dont les effets se ressentent parfois à des dizaines de kilomètres de la côte (bien davantage sous les tropiques) et dont la vitesse peut dépasser la vingtaine de km/h : la combinaison de telles brises avec le vent synoptique est alors susceptible de modifier plus ou moins ce dernier en vitesse et direction et peut tantôt le contrarier, tantôt l'amplifier jusqu'à créer des conditions délicates pour la navigation côtière. De même, les vallées étroites entretiennent des brises d'amont rapides, en raison de l'effet Venturi.

Par ailleurs, il existe une multiplicité de catégories de brises moins marquées que les précédentes, comme les brises de lac (dont le mécanisme est le même que celui des brises de mer), les brises de campagne qui convergent vers les grands centres urbains à travers leurs banlieues, ou bien les brises qui, au contraire, soufflent depuis les forêts vers leurs alentours moins frais et plus secs ; un cas particulier est celui de la brise de glacier, qui descend nuit et jour le long des glaciers en soufflant sur une faible épaisseur. En fait, peu de phénomènes météorologiques sont aussi universellement présents que les brises, auxquelles appartiennent déjà telle bouffée d'air se maintenant entre deux champs successifs d'un terrain, ou tel courant d'air soufflant d'un carrefour à un autre dans une avenue.

brouillard givrant

Un brouillard peut quelquefois se former à température négative : alors, les gouttelettes d'eau dont il est composé sont en état de surfusion et gèleront instantanément au contact des objets de toute nature qu'enveloppe le brouillard — végétation, lignes électriques, etc. ; ces objets seront ainsi couverts de givre, d'où l'appellation de brouillard givrant. À l'image des précipitations verglaçantes, ce type de brouillard présente un péril pour la circulation automobile en sus de la mauvaise visibilité qu'il entraîne.

brouillard

Bien des processus physiques existent, qui tendent à rendre plus froide ou plus humide une masse d'air proche de la surface terrestre, au point d'y susciter la condensation de la vapeur d'eau en une suspension de très petites gouttelettes dans la tranche atmosphérique attenante à cette surface ; ainsi se forme un nuage — le brouillard — qui, par exception, touche le sol ou l'étendue d'eau et qui diminue considérablement la visibilité en surface. (C'est seulement lorsque cette visibilité est réduite à moins de 1 km que l'on convient en météorologiede parler de brouillard, afin de le différencier sans ambiguïté de la brume.)

Les processus par lesquels la vapeur d'eau peut se condenser au voisinage de la surface terrestre se retrouvent précisément dans la dénomination des diverses catégories de brouillard :

  • le brouillard de rayonnement  qui est la forme la plus fréquente de brouillard, se développe en fin de nuit par ciel clair lorsque le refroidissement du sol par rayonnement a pu se communiquer à un airsuffisamment humide pour que sa température, en s'abaissant, atteigne le point de rosée. Un tel brouillard évolue souvent en stratus avec le réchauffement diurne du sol ;
  • le brouillard d' évaporation résulte d'une évaporation rapide de la vapeur d'eau dégagée par la surface relativement chaude d'une rivière, d'un lac, d'un marais... Cette vapeur d'eau se condense ensuite en se mélangeant avec l'air plus froid et stable qui surplombe la surface liquide ;
  • le brouillard d' advection se forme quand une masse d'air chaude et humide en mouvement rencontre par advection une surface d'eau ou de terre ferme capable de la refroidir. Une telle surface peut être par exemple celle d'une mer froide, ou bien celle d'une région côtière traversée par un ventvenu de la mer ;
  • enfin, le brouillard de pente apparaît lorsque le vent, contraint de monter le long d'un relief, provoque la détente — et donc le refroidissement — de l'air humide qu'il transporte.

bruine

Il n'est pas rare qu'une perturbation comporte des épisodes de précipitation où les gouttes d'eau tombent d'un nuage en paraissant flotter dans l'air, car elles sont très rapprochées les unes des autres et très fines qui plus est (leur diamètre n'excède pas 0,5 mm) : ce type de précipitation est la bruine.

brume

D'origine souvent analogue à celle du brouillard, quoique plus diversifiée, la brume traduit une condensation plus éparse de la vapeur d'eau dans la tranche atmosphérique attenante à la surface terrestre : elle est due alors à la suspension dans l'air de très petites gouttelettes d'eau ou bien de particules hygroscopiques humides, qui ont pour effet de diminuer la visibilité en surface, à un degré moindre toutefois que le brouillard. (On convient en météorologie de parler de brume lorsque la visibilité est comprise entre 1 km et 5 km.)

En certaines occasions aussi, ce n'est pas la condensation de l'eau atmosphérique qui réduit la visibilité, mais une suspension d'aérosols solides tels que poussière, sable, cendre, etc. : pareille suspension est alors qualifiée de brume sèche .

bulletin météorologique

La communication d'informations météorologiques opérationnelles peut avoir pour cible soit des organismes institutionnels — y compris les services météorologiques d'autres pays — , soit un public spécialisé, soit l'ensemble du public ; elle peut par ailleurs s'effectuer par le biais de nombreux procédés techniques et faire appel à des relais médiatiques. Dans tous les cas cependant, cette action nécessite la création préalable d'un texte, le bulletin météorologique ; celui-ci, conçu et diffusé par un centre météorologique ou une station météorologique, comporte des renseignements sur le temps observé ou prévu, précédés de l'en-tête adéquat (émetteur, destinataires, date et heure UTC, nature du bulletin). Parmi les bulletins météorologiques figurent les messages d'observation, les bulletins de prévision et les avis météorologiques relatifs à des phénomènes dangereux ou exceptionnels.

Bureau (Robert)

Météorologiste français (1892-1965). Spécialiste des transmissions, il s'intéressa aux problèmes que soulevait l'usage des ballons-sondes, officiellement mis en pratique à partir de 1922 pour mesurer la température et la pression atmosphérique en altitude. Ces ballons éclatent une fois parvenus à haute altitude, et les sondes redescendent alors au sol. Dans ces premières années d'emploi des sondages par ballon, on ne pouvait disposer des données enregistrées par les sondes avant que celles-ci soient retombées sur terre, puis aient été récupérées et enfin aient été retournées aux centres météorologiques par ceux qui les avaient trouvées ; ce retard souvent important entre la mesure et son dépouillement était évidemment préjudiciable à une organisation opérationnelle de l'observation et de la prévision du temps : le seul moyen d'y remédier consistait en une transmission immédiate au sol des mesures effectuées par la sonde, ce que devait a priori permettre l'usage d' ondes radioélectriques.

À partir de 1926, à l'Observatoire météorologique de Trappes, Robert Bureau et le physicien français Pierre Idrac (1885-1935) mirent ainsi au point un procédé de transmission radio en ondes courtes à l'aide d'un émetteur de faible puissance embarqué sur ballon-sonde : les essais qui conclurent ce travail, en mars 1927, furent pleinement réussis, puisque les émissions purent être captées depuis même la stratosphère en diverses stations du territoire français. Dès lors, Bureau eut toute latitude pour concevoir des modèles successifs d'instruments légers, destinés à mesurer en altitude les paramètres atmosphériques dans une sonde transmettant leurs résultats par radio : c'est ainsi que furent inventées, puis expérimentées avec succès en 1929 et 1930, les premières radiosondes, qui servirent bientôt à mesurer aussi le vent en altitude (par radiogoniométrie) et l'humidité relative.

Malgré les potentialités de ces appareils nouveaux, l'établissement d'un réseau de radiosondage opérationnel et international ne fut pas ensuite exempt de lenteur. Pourtant, un tel réseau représentait un très grand pas en avant pour — entre autres — la météorologie aéronautique, à l'époque même où l'aviation commerciale connaissait son essor le plus spectaculaire ; Bureau était d'ailleurs conscient du rôle que devait jouer la prévision météorologique dans la protection du transport aérien, et il en exprima et détailla les modalités au sein de la Commission internationale de météorologie aéronautique (dépendante de l'Organisation météorologique internationale, précurseur de l'actuelle OMM), dont il fut élu Président en 1935.

Buys-Ballot (Christophorus Henricus)

Ne nous fions pas à une réflexion inquiète : la sagesse et la maîtrise des situations ressortent de la vie et de l'action de ce grand météorologiste que fut le Néerlandais Christophorus Henricus Buys-Ballot (1817-1890). Ainsi, dès la première moitié du XIXe siècle, l'idée avait germé que les dispositions du vent et de la pression atmosphérique dans l'environnement d'un site géographique donné devaient à chaque instant rester en relation étroite ; mais c'est seulement dans les années 1850 que les services météorologiques naissants de différents pays en vinrent à publier des cartes d'étude combinée du vent et de la pression, désormais disponibles avec une diversité suffisante pour étayer l'idée précédente, depuis longtemps présente : aussi, quand Buys-Ballot, qui avait fondé en 1854 l'Institut royal météorologique néerlandais, énonça trois ans plus tard le principe de la relation entre vent et pression — sur la base des seules observations effectuées par cet Institut — , les autres météorologues possédaient enfin le matériel cartographique nécessaire pour reconnaître la véracité et l'universalité de ce principe, qui dès lors devint la règle de Buys-Ballot.

Cette règle indique, premièrement, que dans l'hémisphère Nord la direction du vent — compte tenu de son sens — laisse les basses pressions sur sa gauche et les hautes pressions sur sa droite (la disposition inverse valant pour l'hémisphère Sud), et deuxièmement, que la vitesse du vent est d'autant plus élevée que les lignes isobaressont plus resserrées. La règle de Buys-Ballot se rapporte au niveau moyen de la mer, mais une règle analogue est applicable à la disposition du vent par rapport aux régions dépressionnaires et anticycloniques que limitent les lignes isohypses tracées sur une surface isobare donnée. Ces lois empiriques constituent en fait une traduction simple de l'équilibre du vent géostrophique.

Buys-Ballot appliqua la règle qui porte son nom au fonctionnement opérationnel du premier centre de suivi des phénomènes météorologiques dangereux qui ait jamais existé : le Service de prévision des tempêtes et d'avertissement aux ports, fondé et organisé par lui en 1860 dans le cadre de l'Institut royal météorologique. Au sein de ce Service, cinq stations météorologiques échangeaient régulièrement par télégraphe des observations permettant d'alerter les différents ports des Pays-Bas en cas de risque d'arrivée d'une tempête. Un appareil fut même conçu par Buys-Ballot pour être mis sur le rivage et informer les marins sur la direction et l'importance du gradient de pression maximal, afin qu'ils prissent l'habitude de porter par eux-mêmes attention aux évolutions possibles de la situation météorologique.

Tout aussi notable fut la contribution de Buys-Ballot à la constitution d'un organisme permanent susceptible de fédérer l'action des services météorologiques au niveau mondial. Le premier Congrès météorologique international, qui s'était tenu à Vienne en 1873, avait décidé de nommer un comité permanent de sept membres afin d'examiner la mise sur pied d'un "institut météorologique international" : Buys-Ballot, qui enseignait la physique à l'université d'Utrecht, fut nommé président de ce comité, dont les première et troisième réunions eurent lieu précisément à Utrecht en 1874 et 1878. Il fut ensuite l'un des neuf membres du Comité météorologique international institué par le second Congrès météorologique international, réuni à Rome en 1879 : c'est ce Comité qui, par la suite, allait après de nombreuses métamorphoses et de non moins nombreuses difficultés édicter en 1907 le règlement de l'Organisation météorologique internationale (l'OMI), ancêtre de l'actuelle Organisation météorologique mondiale (l'OMM)

 

 

 

 

 

 

 

 

 

  • Aucune note. Soyez le premier à attribuer une note !

Ajouter un commentaire

Vous utilisez un logiciel de type AdBlock, qui bloque le service de captchas publicitaires utilisé sur ce site. Pour pouvoir envoyer votre message, désactivez Adblock.

×