Cette page Web a été archivée dans le Web

L'information dont il est indiqué qu'elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n'est pas assujettie aux normes Web du gouvernement du Canada et elle n'a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Tendances climatiques 2006 - 2008

Abeysirigunawardena, D.S. et I.J. WALKER. « Sea Level responses to Climatic Variability and Change in Northern British Columbia », dans Atmosphere-Ocean, vol. 46, n° 3, 2008, p. 277 296; Mazzotti, S., C. Jones et R.E. Thomson. « Relative and absolute sea level rise in Western Canada and northwestern United States from a combined tide gauge-GPS analysis », dans Journal of Geophysical Research, vol. 113, C11019, doi: 10.1029/2008JC004835, 2008, 19 pages.
Une variation du climat à court terme, superposée à l'élévation du niveau de la mer à plus long terme, peut entraîner des conditions dangereuses pour certains systèmes côtiers de la Colombie-Britannique. Les variations en soulèvement ou en affaissement côtiers peuvent également avoir des fortes incidences sur l'élévation régionale du niveau de la mer qui en résulte.
L'élévation du niveau de la mer entraînée par les changements climatiques est considérée comme une menace importante pour les environnements côtiers, en particulier en raison de l'érosion et de l'inondation des terres basses. Deux articles récents portaient sur l'examen de l'effet historique de la variation et des changements climatiques sur le niveau de la mer le long de la côte de la Colombie-Britannique, selon les données d'un marégraphe. De plus, dans l'une des études (Mazzotti et coll.), on a également utilisé des stations du système mondial de localisation (GPS) situées avec des marégraphes, afin de mesurer le déplacement vertical de la terre. Dans les deux études, les observations du marégraphe ont été corrigées pour illustrer les déplacements verticaux de la terre produits par un soulèvement côtier causé par la tectonique et par le relèvement isostatique. Les résultats des deux études sont similaires, en ce qui concerne l'élévation du niveau de la mer au cours du XXe siècle. L'étude de Abeysirigunawardena et Walker, qui était axée sur Prince Rupert, de la côte nord de la Colombie-Britannique, a permis de constater que le taux de l'élévation du niveau de la mer moyenne était 1 ± 0,4 mm par année pour la période 1909-2003, augmentant à +1,4 ± 0,6 mm par année pour une période plus courte de 1939-2003. L'accélération de l'élévation du niveau de la mer peut être attribuée partiellement au réchauffement climatique, mais la variabilité cyclique du climat a eu une incidence plus importante. Les phases plus fortes d'El Niño-oscillation australe (ENSO) et de l'oscillation décennale du Pacifique pour la période de 1939-2003 ont eu une incidence sur les fluctuations du niveau de la mer, l'hiver et l'été respectivement. Les auteurs remarquent que les travaux précédents ont permis de démontrer une influence négligeable des mouvements de la croûte terrestre sur le niveau relatif de la mer à Prince-Rupert. Mazzotti et coll. utilisait un plus grand ensemble de stations qui couvraient la côte ouest de la Colombie-Britannique et la côte nord ouest des États-Unis en entier. Selon leurs résultats, on retrouve une élévation régionale du niveau de la mer de 1,8 ± 0,2 mm par année au XXe siècle. Pour la période plus courte et plus récente de 1993-2003, ils ont relevé un taux de 1,5 ± 0,4 mm par année, ce qui, d'après eux, était surprenant et méritait une enquête approfondie. La variabilité spatiale le long de la côte était très importante. Mazzotti et coll. ont égaiement estimé un changement du niveau de la mer à l'échelle régionale d'ici la fin du XXIe siècle, selon l'élévation du niveau de la mer globale moyenne prévue et sur leur évaluation du déplacement côtier vertical. Les prévisions du changement du niveau de la mer variaient de -10 à + 40 cm, avec des fortes variations spatiales. Selon les auteurs, l'élévation du niveau de la mer future le long de la côte ouest sera touchée fortement par des variations de la remontée ou de l'affaissement du littoral.

Anderson, R.K., G.H. Miller, J.P. Briner, et al. « A millennial perspective on Arctic warming from 14C in quartz and plants emerging from beneath ice caps », 2008, GRL, vol. 35, LO1502, doi:10.1029/2007GL032057, 2008.
L'analyse de la végétation émergeant de sous la marge glaciaire en recul de l'île de Baffin indique que cette glace existe depuis au moins 350 ans après Jésus­Christ. La diminution rapide de ces calottes glaciaires au cours du siècle dernier est une autre preuve du caractère anormal de la chaleur du 20e siècle.
Sur l'île de Baffin, les photographies satellites et aériennes montrent que les calottes glaciaires ont diminué de plus de 50 % depuis 1958. Dans la revue Geophysical Research Letters, une équipe de spécialistes décrit l'utilisation de multiples techniques de datation pour estimer l'âge de la végétation émergeant de sous ces calottes glaciaires en recul ainsi que l'utilisation de cette méthode pour établir les tendances de glaciation. En étudiant la végétation,, les carottes de sédiments et le quartz du 14e siècle maintenant exposés à la surface des rochers, les auteurs ont découvert que le réchauffement actuel est plus important que toute autre période de réchauffement qui a eu lieu au cours des derniers 1600 ans dans la région et que la glace pérenne s'est maintenue depuis ce temps. En utilisant aussi une extrapolation linéaire fondée sur des observations, les auteurs ont calculé les taux de fonte moyens pour les prochaines décennies. Ils ont aussi constaté que la majorité de la glace disparaîtra du plateau avant l'an 2035 et qu'elle sera complètement disparue d'ici 2070.

Chapman, W. L. et J. E. Walsh. « A synthesis of Antarctic temperatures », dans Journal of Climate, n° 20, 2007, p. 4096-4117. Interface orientée document : 10.1175/JCLI4236.1
Les chercheurs ont constaté que dans l'ensemble, les températures au-dessus de la région de l'Antarctique, dans l'ensemble, ont augmenté d'environ 0,37 °C pendant les 45 dernières années.
Au cours des dernières années, on a étudié les changements de températures dans l'Antarctique afin de déterminer les tendances régionales. La plupart des études ont indiqué que la péninsule de l'Antarctique a subi le plus important réchauffement et que certaines régions du continent intérieur se sont refroidies. Cette étude combine les renseignements disponibles pour la région dans un ensemble de données rectangulaires afin de fournir des données spatiales et temporelles qui sont comparables à la résolution des modèles de circulation générale (MCG). Puisque tout calcul au-dessus des régions du continent où les données sont rares ou difficiles à obtenir contient des hypothèses inhérentes, les résultats confirment non seulement que la péninsule est plus chaude et que l'intérieur est plus froid, mais que la région située 50° et 90° Sud, en tant qu'ensemble, s'est réchauffée de 0,371 °C pendant la période de 1958 à 2002. Les températures hivernales se sont le plus réchauffées (+0,172 °C par décennie) et les températures estivales ont le moins augmentées (+0,045 °C par décennie). Ces modèles sont bien simulés en fonction d'un modèle global du climat, qui prévoit aussi un déplacement de la majorité du réchauffement dans la péninsule vers le continent d'ici la fin du siècle.

Christy, J.R., W.B. Norris, R.W. Spencer et J.J. Hnilo,. 2007. Tropospheric temperature change since 1979 from tropical radioasonde and satellite measurements. JGR 112, D06102, doi:10.1029/2005JD006881, 2007.
Une nouvelle étude, publiée dans le Journal of Geophysical Research, pourrait ranimer la controverse sur les différences de vitesse du réchauffement récent de la basse troposphère de la Terre et de sa surface. Alors que les modélisations suggèrent que la basse troposphère tropicale devrait se réchauffer 1,3 fois plus vite que la surface, cette nouvelle analyse donne à penser qu'elle pourrait en fait se réchauffer moitié moins vite.
Une équipe de chercheurs dirigée par John Christy (Université d'Alabama) a réexaminé les erreurs possibles des données de température recueillies par radiosondage dans la basse troposphère des régions tropicales (20S à 20N) et les a rectifiées par intercomparaison des données de jour et de nuit, et des données de radiosondage avec les données satellitaires MSU. Une fois les données corrigées, les chercheurs ont trouvé une bonne concordance entre les tendances de la température dans la basse troposphère tropicale issues des radiosondages et l'analyse des données MSU faite par l'université d'Alabama. Celles-ci montrent des tendances au réchauffement de 0,05 °C par décennie (depuis 1979), soit beaucoup moins que les tendances observées en surface (0,13 °C par décennie). Ils avancent aussi que l'analyse des données satellitaires entreprise par Mears et Wentz, qui indique un réchauffement de la basse troposphère de 0,146 °C/décennie (1,2 fois plus élevé qu'en surface, et donc proche des projections des modèles), est défaillante. Selon eux, l'inclusion des données du satellite NOAA 12 en 1991 semble avoir introduit une discontinuité qui ne serait pas réelle.

Comiso, J.C., C.L. Parkinson, R. Gersten, et L. Stock. « Accelerated decline in the Arctic sea ice cover », 2008, GRL, vol. 35, L01703, doi:10.1029/2007GL031972.
Été 2007 : diminution accélérée de la couche de glace de la mer Arctique
Depuis 1979, la diminution de la glace de la mer Arctique est calculée en utilisant l'imagerie des hyperfréquences passives par satellite dont la résolution s'améliore constamment. Le présent rapport indique les taux de retrait de la glace de mer pérenne et de la couche entière de glace (glace pérenne et saisonnière) ainsi qu'une analyse de la période de mars à septembre et des tendances à long terme. À la fin du printemps 2007, des anomalies négatives étaient apparentes autour de presque toute la lisière de glace et, en août, elles s'étendaient au nord du 80e parallèle. En septembre, l'étendue de la glace marine et de la banquise atteignaient un minimum record (4,1 millions km2 et 3,6 millions km2, respectivement) de 37 % et de 38 % sous les moyennes climatiques. Les principaux facteurs qui peuvent être à l'origine des changements de la glace marine sont la température de l'air, les vents, les vagues et les courants. Au cours de la période de mars à septembre (sauf en mai), les températures de l'air étaient anormalement élevées. Les vents du sud des mers de Beaufort et de Tchoukotka pourraient avoir contribué au retrait de la glace vers le nord. Dans la majorité du bassin arctique, la superficie de la mer libre a augmenté de 23 % par décennie et la température de surface de la mer, de 0.7° C. Les nouvelles tendances pour la période de 1996 à 2007 montrent maintenant une diminution de l'étendue de glace de 10,1 % par décennie par rapport à une diminution de 2,2 % de 1979 à 1996. L'étendue de glace qui a récemment diminué suggère un changement par rapport aux effets attendus des modes d'oscillation arctique proposés dans une étude antérieure. Depuis 2002, la couche de glace de mer pérenne est régulièrement faible. Étant donné la longue période de temps nécessaire pour que la glace pérenne redevienne assez épaisse pour survivre à la fonte estivale, quelques années de températures anormalement froides seraient sans doute requises pour que la glace retrouve les niveaux de 1980. La diminution saisonnière de la couche de glace marine aura sans aucun doute des répercussions écologiques. La diminution continue de glace des mers en périphérie de l'Arctique, où la productivité océanique est déjà élevée, pourrait aussi avoir des conséquences pour les écosystèmes arctiques et subarctiques.

Curry, J.A., P.J Webster et G.J. Holland, August, 2006. Mixing Politics and Science in Testing the Hypothesis That Greenhouse Warming Is Causing a Global Increase in Hurricane Intensity. Bulletin of the American Meteorological Society 87(8): 1025-1037 DOI:10.1175/BAMS-87-8-1025
Cet article résume les arguments des tenants et des opposants dans le débat sur le fait que le changement climatique entraîne ou non une augmentation de la fréquence et de l'intensité des ouragans sur la planète. Les auteurs, qui ont récemment publié un article en faveur de cette hypothèse (Webster et al., 2005), ont aussi pu décrire brièvement, dans une étude de cas, le tumulte causé par sa sortie. Ils présentent et critiquent la logique de 14 arguments opposés à l'hypothèse. Les critiques, tirées de sources de médias de masse mais dont le contenu provient d'articles scientifiques revus par des pairs, se divisent en trois groupes : celles qui présentent des défauts de logique évidents, celles qui présentent des défauts de logique mais soulèvent cependant des questions connexes importantes, et celles qui reposent sur des arguments logiquement valides. Les auteurs concluent que l'hypothèse de départ ne peut pas être contredite par les 14 arguments considérés, mais qu'il existe une incertitude considérable et qu'il est indispensable de poursuivre les recherches. Ils demandent que les scientifiques s'impliquent davantage avec les médias et qu'il se noue une collaboration pluridisciplinaire entre les divers groupes de scientifiques qui se penchent sur la question.

Della-Marta, P.M., M.R. Haylock, J. Luterbacher et H. Wanner, 2007. Doubled length of western European summer heat waves since 1880 (Depuis 1880, les vagues de chaleur estivales sont deux fois plus longues en Europe de l'Ouest). J. Geophys. Res., 112, D15103, doi:10.1029/2007JD008510.
En Europe de l'Ouest, la durée des vagues de chaleur a doublé et la fréquence de journées chaudes a triplé pendant la période de référence (depuis 126 ans que l'on tient des registres).
Se fondant sur les températures maximales quotidiennes homogénéisées pendant l'été, de 1880 à 2005, cette étude conclut que la durée des vagues de chaleur estivales a doublé et que la fréquence de journées chaudes a triplé, en Europe de l'Ouest. L'étude tient compte d'une propension qu'avaient les instruments à enregistrer des températures plus élevées au début de la période (fin XIXe et début XXe siècles) dans la plupart des 54 stations utilisées. Pour les fins de l'étude, une journée chaude est une journée dont la température dépasse les 95 percentiles de la température quotidienne moyenne à long terme. Une vague de chaleur est le nombre maximal de jours consécutifs dont la température maximale dépasse les 95 percentiles de la température quotidienne maximale à long terme. Ces constatations s'accordent avec d'autres recherches, mais l'utilisation d'un ensemble de données homogénéisées a entraîné une augmentation des valeurs, que les auteurs considèrent néanmoins comme une estimation prudente, du fait que les données de toutes les stations utilisées pour l'étude n'étaient pas homogénéisées. Les auteurs concluent que la majorité des changements révélés dans les tendances se sont produits depuis 1950 mais recommandent toutefois la réalisation d'une autre étude qui permettra d'attribuer catégoriquement ces tendances à des causes données.

Douglass, D.H., J.R. Christy, B.D. Pearson et S.F. Singer. 2007. A comparison of tropical temperature trends with model predictions. Int. J. Climatology, DOI : 10.1002/joc.
Cette étude allègue que les modèles ne parviennent pas à simuler avec précision les tendances relatives à la température de la troposphère au­dessus des tropiques depuis 1979.
En 2005, une équipe de chercheurs dirigée par Ben Santer a affirmé que les tendances relatives à la température de la troposphère pour les quelques dernières décennies, telles que les modèles climatiques les simulent, correspondaient bien à celles qui ont été observées et que les différences se situaient dans les marges d'erreur dont il a été fait état. Cependant, dans une nouvelle étude publiée récemment dans le International Journal of Climatology, David Douglass (University of Rochester) et plusieurs autres chercheurs américains présentent des résultats qui vont à l'encontre de cette assertion. Dans leur étude, ils comparent les résultats de la simulation de 22 modèles climatiques ultramodernes à ceux qui sont tirés d'ensembles de données climatiques actualisés obtenus par des observations de surface, par radiosonde et par satellite. Se fondant sur leurs analyses statistiques de ces données, ils concluent que les données observées ne montrent pas l'amplification de la tendance au réchauffement de la troposphère par rapport à la surface que tous les modèles prédisent. Ils concluent que, compte tenu de cette divergence avec les observations, les projections du climat futur générées par les modèles climatiques actuels doivent être utilisées avec prudence. D'autres spécialistes font cependant remarquer que Douglass et al. n'ont pas utilisé les dernières mises à jour des données radiosondes et se sont servis de méthodes incorrectes pour calculer les incertitudes des modèles (voir www.realclimate.org). Ils allèguent que, lorsque ces facteurs sont pris en compte, les conclusions de Douglass et al. semblent discutables.

England, J.H., T.R. Lakeman, D.S. Lemmen, J.M. Bednarski, T.G. Stewart et D.J.A. Evans. « A Millennial-scale record of Arctic Ocean sea ice variability and the demise of the Ellesmere Island ice shelves », dans GRL, no 35, LI9502, [doi]:10.1029/2008GL034470, 2008.
La plateforme de glace Ward Hunt, qui contient de la glace marine pluri-annuelle parmi les plus vieilles, est peut être stable depuis au moins les dernières 5 500 dernières années. Elle a au moins 2 000 ans de plus que ce que l'on pensait.
Nombreux sont ceux qui ont été surpris d'apprendre, en 2002, que la plateforme de glace Ward Hunt, sur la côte Nord de l'île d'Ellesmere commençait à se briser. Des enquêtes plus poussées ont révélé que le lac Epishelf, un plan d'eau douce flottant à la surface de l'eau océanique plus dense emprisonnée dans la plateforme de glace, s'était écoulé. On a trouvé des morceaux de bois flotté d'au moins 3 000 ans, selon la datation au radiocarbone effectuée, coincés derrière la plateforme de glace, sur les rives de l'ancien lac Epishelf. Puisque la plateforme retenait le bois flotté, on pensait qu'elle s'étai formée il y a au moins 3 000 ans, ce qui en faisait la glace la plus vieille de l'hémisphère Nord. Dans cette nouvelle étude, on tente de clarifier l'âge de la plateforme de glace Ward Hunt à l'aide d'échantillons de bois flotté transporté de l'autre côté de l'océan Arctique et déposé sur les rives Nord de l'île d'Ellesmere au cours des 10 000 dernières années. La datation au radiocarbone effectuée sur un total de 69 échantillons a permis de révéler qu'ils étaient vieux d'au moins 5 500 ans, ce qui indique que le bois flotté avait été déposé du côté de la terre de la plateforme de glace moderne Ward Hunt, il y a un peu plus de 5 500 ans. C'est environ 2 000 ans de plus que ce qui avait été découvert dans des études antérieures, et cet âge sert d'approximation pour la formation de la plateforme de glace Ward Hunt adjacente. Si les plateformes de glace continuent de se désintégrer pour ouvrir des fjords historiquement remplis de glace à proximité, cet événement sera une première depuis les 5 500 dernières années. Cela souligne l'importance des changements actuels et prévus touchant la glace marine de l'océan Arctique, attribuables au réchauffement des XXe et XXIe siècles.

EPICA Community members (2006), One-to-one coupling of glacial climate variability in Greenland and Antarctica, Nature, vol.444, pp. 195-198
Dans le cadre du European Project for Ice Coring in Antarctica (EPICA), on a prélevé en Antarctique une nouvelle carotte de glace couvrant 150 000 ans, qui présente deux particularités. D'abord, c'est la première carotte de glace profonde prélevée dans le secteur Atlantique de l'océan Austral, qui représente donc le premier pendant antarctique direct des enregistrements issus des carottes de glace prélevées au Groenland, elles aussi à des sites faisant face à l'Atlantique. Ensuite, elle a été prélevée dans une région où les accumulations de neige sont beaucoup plus importantes qu'à d'autres sites de forage du plateau de l'Antarctique de l'Est, ce qui autorise une analyse plus détaillée à résolution temporelle beaucoup plus fine. En comparant les enregistrements climatologiques synchronisés de cette nouvelle carotte de glace de l'Antarctique avec les carottes du Groenland pour le dernier cycle glaciaire, l'équipe de recherche a constaté que les changements de température dans le Sud présentaient une forte connexion avec les changements dans le Nord, qui peut s'expliquer par le processus de transfert de chaleur de la circulation méridienne de retournement (CMR). Cette constatation était valable non seulement pour les grands événements d'échelle millénaire, mais aussi pour des épisodes de changement de température plus courts et moins prononcés. Leur analyse a donc montré que le réchauffement dans le Sud est linéairement corrélé avec les périodes froides dans le Nord, processus qu'ils ont appelé « bascule bipolaire ». De plus, ils ont observé que l'ordre de grandeur des épisodes de réchauffement en Antarctique est linéairement dépendant de la durée des époques froides dans le Nord, ce qui donne à penser que, pour tous les événements, la force de la CMR est semblable. Une inconnue demeure cependant : quel est le déclencheur du passage des conditions froides (stadiaires) à chaudes (interstadiaires)?

Fedorov, A. V. et al. 2006. The Pliocene Paradox (Mechanisms for a Permanent El Niño). Science VOL 312 (5779): 1485-1489.
Cet article de synthèse tente de trouver des réponses à un certain nombre de questions liées au « paradoxe du Pliocène » (le fait qu'au début du Pliocène, il y a 3 à 5 millions d'années, le forçage solaire, l'emplacement des continents et les concentrations de GES étaient semblables à ceux de la planète aujourd'hui, mais les régions polaires considérablement plus chaudes, ce qui donnait un hémisphère Nord sans glaciers continentaux et un niveau de la mer supérieur d'environ 25 m au niveau actuel). De récentes paléodonnées semblent confirmer que le Pliocène était caractérisé par des conditions permanentes de type El Niño plutôt que par les conditions apparentées à l'oscillation El Niño/La Niña qui caractérisent le climat actuel. Par conséquent, une question s'impose : qu'est ce qui déclenche la résurgence des conditions La Niña et le retour à une période de refroidissement mondial il y a 3 millions d'années? À l'inverse, il est important de comprendre ce qui a maintenu les conditions permanentes El Niño pour pouvoir évaluer si le réchauffement planétaire continu observé au cours du XXIe siècle pourrait déclencher une situation du genre. Les auteurs suggèrent en effet l'existence d'un déclencheur, qui ferait basculer le climat d'un état à un autre, même si les forçages externes restent inchangés. Les auteurs affirment qu'un tel déclencheur est lié aux processus des océans tropicaux. Pendant (et probablement avant) le début du Pliocène, la thermocline (zone d'eaux relativement chaudes située au dessus des eaux froides de l'océan profond) était profonde, en raison de conditions persistantes propres à El Niño. Le refroidissement aux latitudes élevées et les conditions sèches associées à la tendance au refroidissement à long terme (commencés il y a environ 50 millions d'années) auraient progressivement intensifié la formation des eaux profondes aux latitudes élevées. Les auteurs postulent qu'il y a environ trois millions d'années, la thermocline est devenue suffisamment mince pour que les eaux froides profondes prennent de l'expansion et, sous l'effet des vents, soient poussées à la surface dans les zones de remontée (de manière assez semblable aux conditions d'aujourd'hui entre les années El Niño). On croit que les eaux froides de surface sous les tropiques ont amplifié la réponse du climat au forçage de Milankovitch en réduisant la vapeur d'eau dans l'atmosphère et en augmentant la quantité de stratus réfléchissants. Les auteurs soulignent que la persistance des valeurs élevées du dioxyde de carbone dans l'atmosphère de nos jours pourrait entraîner un retour à des conditions types du Pliocène si la hausse des températures et des précipitations aux latitudes élevées donnaient lieu à un approfondissement de la thermocline tropicale.

Gedney, N., P.M. Cox, R.A. Betts, O. Boucher, C. Huntingford et P.A. Stott. 2006. Detection of a direct carbon dioxide effect in continental river runoff records. Nature 439: 835-838.
Cette étude utilise la méthodologie bien définie de l'empreinte optimale (couramment utilisée dans les études de détection et d'attribution du changement climatique) pour déterminer la cause de l'augmentation observée au 20e siècle du ruissellement dans les cours d'eau continentaux. Quatre contributeurs possibles ont été examinés : changement climatique; déboisement; atténuation du rayonnement solaire (réduction de la quantité de rayonnement solaire atteignant l'atmosphère); et effets directs du CO2 sur la transpiration des végétaux. Les auteurs ont trouvé que le climat du 20e siècle ne pouvait à lui seul expliquer les tendances du ruissellement observées. Cependant, ils ont trouvé que les tendances concordaient avec une suppression de la transpiration des végétaux due à une fermeture des stomates induite par le CO2. Cette étude est importante parce que, même si des expériences de laboratoire ont montré qu'un accroissement du CO2 ferait réduire les ouvertures stomatiques de nombreuses espèces végétales et donc l'évapotranspiration, il n'était pas clair que ce serait le cas en champ. De plus, l'étude est la première à donner à penser que l'élévation des niveaux de CO2 a déjà une influence directe sur le bilan hydrique à la surface des terres.

Gerdes, R., et C. Koberle. «Comparison of Arctic sea ice thickness variability in IPCC climate of the 20th century experiments and in ocean-sea ice hindcasts» (comparaison de la variabilité de la glace marine dans les essais du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) sur le climat au 20e siècle et dans les simulations rétrospectives de la glace océanique), JGT 112, C04S13, doi :10.1029/2006JC003616, 2007.
Dans un récent article dans la revue Journal of Geophysical Research, deux scientifiques allemands mentionnent que les reconstructions des modèles océanographiques et de glaces de mer relativement à l'épaisseur de la glace marine de l'Arctique au cours du siècle dernier ne montrent pratiquement pas de tendances quant à l'épaisseur de la glace entre 1948 et 2000. En revanche, les modèles climatiques forcés par des changements passés dans le forçage radioactif atmosphérique montrent une tendance décroissante qui accélère vers la fin du siècle. Ils concluent que les modèles climatiques saisissent mal la variabilité multi décennale de la glace marine.
Dans leur étude, les auteurs utilisent un certain nombre de modèles de glace océanique pour créer des scénarios approximatifs de l'épaisseur de la glace marine pouvant être utilisés comme référence pour évaluer les simulations de modèles climatiques. On choisit un de ces scénarios comme point de repère afin de vérifier le rendement du modèle climatique. Les auteurs reconnaissent que ce scénario est une «simulation rétrospective» dérivée d'un modèle et non observée et que, par conséquent, il comporte certaines incertitudes inhérentes en raison des limites du modèle. Toutefois, ils justifient son utilisation comme point de repère pour mettre à l'essai les modèles climatiques puisqu'il permet de valider certains des résultats du modèle de glace marine en fonction d'un nombre limité de données observées sur l'épaisseur de la glace. Le scénario repère ne montre pas de tendance vers une réduction simulée de l'épaisseur de la glace dans les sept différents modèles climatiques couplés qu'ils évaluent. La principale différence est que la simulation rétrospective montre une augmentation de la tendance à épaissir dans les années 60 qui compense la diminution dans les décennies ultérieures, ce qui produit une faible tendance à long terme. Cette variabilité multi-décennale n'est pas saisie dans les simulations de modèles climatiques.

Grebmeier, J.M., J.E. Overland, S.E. Moore, E.V. Farley et al. 2006. A Major Ecosystem Shift in the Northern Bering Sea. Science 311: 1461-1464.
Cette équipe internationale de chercheurs a montré que, dans le nord de la mer de Béring, l'écosystème peu profond dominé par les glaces et abritant principalement des communautés benthiques et des espèces se nourrissant sur le fond, telles que les canards de mer, les morses et les baleines grises, est en voie d'être remplacé par un écosystème dominé par des poissons qui se nourrissent dans la colonne d'eau plutôt que sur les fonds marins, que l'on trouve habituellement plus au sud. L'étude exhaustive réalisée par ces chercheurs utilise des enregistrements de données satellitaires, des études de terrain et le savoir écologique local des chasseurs Yupkit de l'île St Lawrence pour documenter le passage de conditions arctiques à des conditions subarctiques dans cette région. Les indicateurs utilisés sont : la température des eaux profondes, la température de l'air, l'étendue et les concentrations de glace de mer, l'absorption d'oxygène par les sédiments et des relevés des mammifères. Les auteurs laissent entendre que la modification du climat dans cette région serait due à l'affaiblissement de la forte phase positive de l'OA à partir de 1996. Bien que la plupart des études discutées dans cet article n'aient pas duré assez longtemps pour qu'on puisse pour établir des liens définitifs avec le changement climatique planétaire, les résultats illustrent clairement les effets d'un climat plus chaud sur ce type d'écosystème. Si la tendance au réchauffement se poursuit, les changements constatés continueront d'influer sur les récoltes de subsistance et les pêches commerciales.

Hansen, J., M. Sato, R. Ruedy, K. Lo, D.W. Lea et M. Medina-Elizade, 2006: Global temperature change. PNAS, 103(39), 14288-14293.
Dans cet intéressant article, des scientifiques des États-Unis, dont James Hansen, avancent que nous vivons actuellement l'époque la plus chaude, et qu'un réchauffement supplémentaire de 1 °C entraînera un changement dangereux du climat. Les enregistrements historiques montrent que les températures planétaires de la fin du XIXe siècle étaient d'environ un degré plus basses que celles d'aujourd'hui. Si on compare cet état de choses aux températures du dernier million d'années, à l'aide de données paléoclimatologiques, on voit que la période actuelle est parmi les plus chaudes. Toutefois, les températures planétaires du début du XXIe siècle n'ont été que légèrement inférieures à celles de la plus chaude période du dernier million d'années. Si elles montent d'un degré de plus, ce seraient les plus élevées depuis un million d'années, ce que les auteurs considèrent comme dangereux. Comme ils le font eux-mêmes remarquer, la comparaison des données historiques avec des données paléoclimatologiques doit cependant être prise avec quelques réserves. Les enregistrements des températures qui sont ainsi comparés ont des échelles et des résolutions différentes, de sorte qu'il serait impossible de dire si, au cours du dernier million d'années, il n'y a pas eu une période de cinq ans aussi chaude ou plus chaude que l'époque actuelle, qui serait masquée par la résolution d'échelle millénaire de la reconstruction.

Hitch, A.T., et P.L. Leberg. «Breeding distributions of North American bird species moving north as a result of climate change» (déplacement vers le nord des aires de reproduction des espèces nord-américaines d'oiseaux en raison des changements climatiques). Conservation Biology, n° 212, 2007, p. 534-539.
Ajoutant aux preuves que les changements climatiques influent sur les écosystèmes naturels, on a constaté, dans une nouvelle étude nord américaine, que certaines espèces d'oiseaux se sont déplacées considérablement vers le nord au cours des dernières décennies.
Les changements dans la répartition des aires de reproduction des espèces nord-américaines d'oiseaux ont été examinés à l'aide d'un vaste ensemble de données couvrant plus de 50 espèces du centre et de l'est des États-Unis. Les auteurs ont constaté que les espèces se sont déplacées vers le nord d'environ 2,35 km par année en moyenne au cours des 26 années sur lesquelles a porté l'étude et qu'aucun déplacement semblable vers le sud n'était survenu. Les auteurs ont donc conclu que le réchauffement des températures, et non d'autres facteurs tels que les changements d'affectation des terres, était la cause de ce déplacement vers le nord. De plus, les résultats de cette étude coïncident avec ceux d'une autre importante étude semblable menée récemment en Grande-Bretagne. Les auteurs concluent que pris ensemble, les résultats de ces deux études indépendantes sur de multiples espèces, sur deux continents, confirment l'hypothèse selon laquelle le déplacement vers le nord des aires de reproduction est dû aux changements climatiques.

Hoerling, M., J. Eischeid, X. Quan, and T. Xu, 2007. Explaining the record US warmth of 2006. Geophys. Res. Lett., 34, L17704, doi:101029/2007GL030643
Hoerling, M., J. Eischeid, X. Quan et T. Xu, 2007. Explaining the record US warmth of 2006. Geophys. Res. Lett., 34, L17704, doi:101029/2007GL030643
Avec une température supérieure de 1,1 °C à la normale, l'année 2006 a été la plus chaude jamais enregistrée aux États-Unis et quatre scientifiques de la NOAA ont décidé d'en trouver la cause. Plus particulièrement, les auteurs voulaient déterminer les apports respectifs au réchauffement du phénomène El Niño, qui est apparu au cours de l'année, et du forçage par les gaz à effet de serre. Ils ont trouvé, en faisant la moyenne de la température à l'échelle nationale au cours des dix derniers événements El Niño, que l'effet net possible de ces événements ne pouvait être qu'un refroidissement touchant l'ensemble du pays. Ils ont aussi procédé à l'intégration, sans forçage, de deux modèles du climat atmosphérique dans les données climatologiques de la surface de la mer pour la période 1971 - 2000. Les résultats de ces simulations ont ensuite été comparés à ceux d'une simulation composite fondée sur les données historiques des forçages par El Niño. Cette comparaison a permis de conclure que les événements El Niño n'avaient pas eu d'effet sur la température annuelle moyenne. Les auteurs ont ensuite porté leur attention sur le rôle possible du forçage par les gaz à effet de serre et les aérosols. L'utilisation de 18 modèles (42 simulations), et d'un forçage par les variations estimées des GES et des aérosols pendant la période s'étendant de la fin du XIXe siècle jusqu'en 1999, auxquels ils ont ensuite appliqué le scénario d'émissions SRES A1B jusqu'en 2006, leur a permis de déterminer un signal moyen de 0,62 °C - une valeur supérieure à plus de la moitié de l'anomalie de 1,1 °C notée pour 2006.

Holgate, S.J. 2007. On the decadal rate of sea level change during the twenthieth century. GRL Vol 34, L01602, doi:10.1029/2006GL028492, 2007.
Un chercheur avance que le taux d'élévation du niveau marin a été très variable au cours du dernier siècle.
Dans un article publié dernièrement dans les Geophysical Research Letters, Simon Holgate, un océanographe britannique, avance que l'élévation du niveau mondial de la mer survenue dans les deux dernières décennies ne s'écarte pas particulièrement de la variabilité à long terme de ce paramètre. Il fonde cette conclusion sur l'analyse de neuf longs enregistrements de grande qualité du niveau de la mer (trois de sites côtiers d'Europe, quatre d'Amérique centrale et des États-Unis et deux du Pacifique centre et Sud) qu'il considère comme représentatifs du comportement du niveau mondial de la mer. Son analyse indique une élévation du niveau marin d'environ 17,4 cm (ce qui concorde avec d'autres résultats) au cours du dernier siècle. Cependant, elle donne aussi à penser que le taux d'élévation pendant la première moitié du siècle en question (1904-1953) est d'environ 2,0 cm par décennie, soit quelque 40 % de plus que le taux de 1,45 cm/décennie observé dans la seconde moitié (1954-2003). Un des facteurs clés est la baisse de 1,5 cm des niveaux pendant les années 1960 (également une période de léger refroidissement global). Le taux de changement le plus élevé par décennie (5,3 cm) est survenu dans les années 1980.

Holland, G.J., et P.J. Webster. Heightened tropical cyclone activity in the North Atlantic: natural variability or climate trend? (activité élevée des cyclones tropicaux dans l'Atlantique Nord : variabilité naturelle ou tendance climatique?), Phil. Trans. R. Soc. A., 2007. Publication en ligne. Interface orientée document : 10.1098/rsta.2007.2083.
Dans une étude récente sur les tendances des ouragans, les chercheurs ont abouti à la conclusion que le nombre d'ouragans dans l'Atlantique au cours d'une saison moyenne avait doublé au cours du siècle dernier, ce qui est occasionné en partie par des mers plus chaudes et des configurations de vents changeantes causées par les changements climatiques.
Au cours des dernières années, il y a eu un débat sur la possibilité selon laquelle les changements climatiques aient altéré la fréquence ou l'intensité des tempêtes tropicales et des ouragans. Dans cette nouvelle étude, deux chercheurs ont examiné les données sur les températures de la surface de la mer (TSM) et les cyclones tropicaux pour la période de 1855 à 2005 en vue d'évaluer la variabilité à long terme de la fréquence des cyclones tropicaux dans l'océan de l'Atlantique Nord. De plus, la période de 1945 à 2005 a été utilisée pour déterminer les changements dans l'intensité des ouragans. Leurs résultats révèlent que, pour la période de 1900 à 2005, il y a une tendance accrue et marquée par des cyclones tropicaux et des ouragans dans l'Atlantique Nord qui a entraîné des transitions brusques entre trois régimes climatiques distincts relativement stables (de 1905 à 1930, de 1931 à 1994, de 1995 à 2005). D'un régime à l'autre, le nombre de cyclones tropicaux et d'ouragans a augmenté de 50 p.100. Cette tendance est conforme à un début de réchauffement prononcé de près de 1 °C dans les TSM de l'Atlantique oriental (la principale zone de développement des ouragans de l'Atlantique Nord), où se sont également produites deux transitions brusques semblables d'environ 0,4 °C. Ajoutée à ces changements de régime, les auteurs ont trouvé une oscillation complètement indépendante qui touche la proportion des cyclones tropicaux qui deviennent des ouragans importants et secondaires. Cette oscillation n'a aucune tendance nette sur le délai, mais elle est étroitement liée aux TSM dans le golfe du Mexique et aux changements méridionaux dans les lieux de genèse d'ouragan entre les régions de latitude moyenne (au nord de 25°N = ouragans secondaires) et équatoriales (au sud de 25°N = ouragans importants). Ils ont également découvert que, bien que la proportion des ouragans importants semble être dominée par ce comportement cyclique, le nombre d'ouragans importants a une tendance distincte et statistiquement significative qui découle de l'augmentation du nombre de cyclones tropicaux. Les auteurs notent font remarquer que le niveau d'activité élevé des ouragans depuis 1995 découle de la coïncidence de la tendance accrue du nombre de cyclones et d'un sommet dans l'oscillation par rapport aux ouragans importants de tous les cyclones tropicaux.

Kaab, A., M. Chiarle, B. Raup et C. Schneider. 2007. Climate change impacts on mountain glaciers and permafrost. Global and Planetary Change 56 (1-2): vii-ix).
Un numéro spécial de Global and Planetary Change examine les effets observés du changement climatique sur les glaciers alpins et le pergélisol dans diverses régions du monde. Ces études s'ajoutent au vaste corpus d'indications révélant clairement le recul des glaciers dans presque toutes les régions montagneuses de la planète, de l'Alaska à la Nouvelle-Zélande, tel que le mettent en évidence les nouvelles méthodologies de surveillance et de modélisation.
Par exemple, en Alaska, l'élévation de 2,0 °C de la température moyenne survenue depuis le milieu du 20e siècle a entraîné le recul et/ou l'amincissement de 98 % des glaciers examinés; la superficie moyenne des glaciers dans la région de Tien Shan, au Kazakhstan, a diminué de 32 % entre 1955 et 1999. En Amérique du Sud, on a observé une diminution de 10 % de la superficie des glaciers dans la cordillère péruvienne; et une étude de l'inventaire des glaciers de Suisse a montré que la perte de superficie par décennie s'était accélérée d'un facteur de 7 entre 1985 et 1998/1999, comparativement à la période 1850-1973. Une autre étude remontant jusqu'aux années 1850 a montré une diminution plus importante du volume des glaciers au cours des 150 dernières années dans les alpes de Nouvelle-Zélande (49 %) que dans les Alpes d'Europe, bien documentées (35 %). Les études citées ici sont des bons exemples de la manière dont la surveillance des glaciers et du pergélisol peut fournir des indicateurs utiles du changement climatique et révèlent que les progrès des nouvelles technologies d'observation de la Terre et de géoinformatique feront considérablement avancer notre connaissance de ces processus.

Kimball, J., M. Zhao, A. McGuire et al. 2007. Recent Climate-Driven Increases in Vegetation Productivity for the Western Arctic: Evidence of an Acceleration of the Northern Terrestrial Carbon Cycle. Earth Interactions 11(Paper #4): 1-30)
Une étude récente fournit de nouvelles indications que le changement climatique régional cause un verdissement des écosystèmes de toundra et de forêt boréale en Alaska et dans le nord-ouest du Canada. Ce « verdissement » est accompagné d'une augmentation du stockage du carbone.
Une étude menée par plusieurs chercheurs des États-Unis a examiné les effets du changement climatique récent sur la productivité des écosystèmes de l'ouest de l'Arctique, et leurs impacts sur le cycle du carbone terrestre dans la région. L'étude utilisait des données satellitaires, un modèle d'efficacité de la production (PEM) propre au biome et deux modèles régionaux des processus des écosystèmes pour simuler les changements de la productivité dans les biomes de forêt boréale et de toundra de l'Alaska et du nord-ouest du Canada entre 1982 et 2000. Les simulations indiquent une augmentation photosynthétique de la surface foliaire et de productivité de la végétation de 4 % et 18 %, respectivement, au cours de cette période, et un taux moyen d'augmentation de la productivité primaire nette de 53,7 g C/m2/décennie. Le taux de séquestration du carbone pour la végétation de ces biomes a augmenté plus que celui de la respiration, ce qui entraîne une augmentation de la fraction de stockage total du carbone dans la biomasse de la végétation. Cependant, l'étude suggère aussi une accélération du taux de retournement du carbone dans l'écosystème. Ces résultats concordent avec ceux d'études précédentes.

Kinnard, C., C.M. Zdanowicz, R.M. Koerner et D.A. Fisher. 2008. A changing Arctic seasonal ice zone: Observations from 1870 - 2003 and possible oceanographic consequences. GRL 35, L02507, doi: 10.1029/2007GL0320507.
Des scientifiques canadiens ont entrepris d'analyser plus d'un siècle de données sur la glace de mer de l'Arctique pour montrer que la zone présentant des changements saisonniers s'est agrandie et déplacée vers le nord, surtout dans les dernières décennies. Cet état de choses semble se répercuter sur la salinité de l'océan Arctique, et pourrait avoir des implications pour la circulation océanique planétaire.
Un article de Geophysical Research Letters rédigé par une équipe de scientifiques canadiens de l'université d'Ottawa et de la Commission géologique du Canada indique que la zone de glace saisonnière de l'océan Arctique (région située sur les marges de la banquise arctique qui subit de grands changements saisonniers, étant couverte de glace en hiver mais n'en portant que très peu en été) semble s'être agrandie graduellement au cours du dernier siècle. Les résultats, basés sur une analyse d'enregistrements historiques et d'observations satellitaires recueillis entre 1870 et 2003, montrent aussi que le taux d'expansion accélère depuis quelques dizaines d'années, et est passé d'une moyenne à long terme de 900 000 km2/décennie à plus de 2 millions de km2/décennie. La zone de glace saisonnière s'est en outre déplacée vers le nord. Les observations révèlent que cette expansion a déjà pu contribuer à faire augmenter la salinité des eaux de surface de l'océan Arctique. Elle pourrait aussi faire monter le taux de formation et la salinité des eaux profondes de l'océan Arctique. En effet, le processus de congélation qui donne naissance à la glace de première année - principale forme de glace présente dans la zone de glace saisonnière - crée dans la glace des poches de saumure qui se vident dans les eaux océaniques sous-jacentes. En comparaison, la glace pérenne, que remplace lentement la glace de première année, libère dans l'océan une quantité beaucoup plus faible de solution saline. L'advection d'eaux profondes arctiques plus salées dans l'Atlantique Nord peut ensuite avoir des implications pour les processus de la circulation thermohaline planétaire.

Landsea, C.W., Harper, B.A., Hoarau, K., et Knaff, J.A. 2006. Can we Detect Trends in Extreme Tropical Cyclones? Science 313, 452-545).
Un article récent de Nature s'est signalé dans le débat sur la tendance à l'accroissement, dû au changement climatique, des cyclones tropicaux extrêmes. Bien que plusieurs études menées ces dernières années aient identifié et qualifié le lien entre la hausse des températures et les cyclones tropicaux extrêmes, Landsea et al. remettent en question l'exactitude de la technique de Dvorak, la base de données sur les cyclones tropicaux de la planète la plus largement utilisée, en particulier pour ce qui est de la fréquence de ces événements. Selon cet article, le fait que la technique de Dvorak ne mesure pas directement les vents maximums soutenus en surface et les changements opérationnels apportés à nombre de ces centres d'avertissement des cyclones depuis 1990 enlèvent à ses résultats exactitude et fiabilité. L'étude, en utilisant des données d'aéronefs de reconnaissance sur l'Atlantique et le Pacifique Nord-Ouest, n'a trouvé aucune tendance significative dans l'activité des cyclones tropicaux depuis les années 1960, et présume donc que les tendances actuelles observées sont un résultats de corrections de biais non justifiées et de la dépendance des bases de données tropicales non homogènes à l'égard de l'imagerie satellitaire. Enfin, l'étude attribue l'augmentation de fréquence et d'intensité des ouragans à l'amélioration de la technologie, qui permet de mieux surveiller et localiser les cyclones tropicaux extrêmes.

Latifovic, R., et D. Pouliot, 2007. Analysis of climate change impacts on lake ice phenology in Canada using the historical satellite data record. Remote Sensing of Environment 106, 492-507.
Des données satellitaires révèlent que la couverture de glace sur les lacs du Canada a raccourci de deux semaines au cours des 50 dernières années.
Deux scientifiques de Ressources naturelles Canada ont mis au point une technique permettant d'extraire des données de satellite AVHRR les moments de survenue de la prise et de la rupture des glaces de lac. Cette méthode a complété les données in situ existantes pour 36 lacs, et créé un nouvel ensemble de données pour 6 lacs du Grand Nord. Les changements de comportement de la glace de lac reflètent directement les changements du climat local. Les résultats montrent que, sur la période 1950-2004, l'englacement a reculé de 0,12 jour/an (soit environ 6 jours sur la période de 50 ans), et la rupture a avancé de 0,18 jour/an (soit environ 9 jours sur la période). Détail intéressant, l'enregistrement plus court (20 ans) nouvellement constitué pour les lacs du Grand Nord montre une très forte tendance tant pour la rupture (moyenne de 0,99 jour/an, ou 20 jours sur 20 ans) que pour la prise (moyenne de 0,76 jour/an, ou 15 jours sur la période). Comme cette technique n'est pas limitée par le capteur utilisé sur le satellite AVHRR, il serait possible de créer une importante base de données sur la phénologie de la glace de lac.

Lawrence, D.M., Slater, A.G., Tomas, R.A., Holland, M.M. et C. Deser. 2008. Accelerated Arctic land warming and permafrost degradation during rapid sea ice loss GRL VOL. 35, L11506, doi:10.1029/2008GL033985, 2008.
Une nouvelle étude de modélisation indique que le retrait rapide de la glace marine arctique pourrait avoir des conséquences pour le climat terrestre arctique et l'état du pergélisol loin dans les terres intérieures.
Le record de glace marine minimal en 2007, avec l'observation que la superficie de glace marine est un robuste prédicteur inverse des températures des terres arctiques, ont motivé un groupe de scientifiques pour qu'ils évaluent le climat des terres adjacentes. Les auteurs ont utilisé le modèle des systèmes climatiques communautaire (CCSM3) (qui reproduit le taux récent de perte de glace marine et stimule les conditions actuelles de glace marine) afin d'évaluer la réaction des températures des terres aux événements de perte rapide de glace. Les simulations modélisées ont constaté l'accélération du réchauffement des terres qui peut déclencher la dégradation rapide du pergélisol chaud et augmenter la vulnérabilité du pergélisol plus froid à la dégradation si se poursuit la tendance au réchauffement. La simulation de neuf éléments de perte de glace marine a montré un réchauffement sur presque tout l'Arctique Ouest terrestre s'étendant à 1 500 km vers l'intérieur. Un phénomène important prévu de la formation de terres dégelées en permanence (talik) à ~0,2 m de profondeur à cause de l'accumulation permanente de chaleur (la chaleur d'été est plus forte que le refroidissement de l'hiver). Une fois établie, la formation de talik mène à la dégradation rapide du pergélisol et cet événement peut annoncer de rapides changements terrestres.

Lee, T.C.K., Zwiers, F.Z. et M. Tsao. 2008. Evaluation of proxy-based millennial reconstruction methods. Climate Dynamics 31:263-281. DOI 10.1007/s00382-007-0351-9.
Les méthodes de reconstruction des températures du dernier millénaire à partir de données indirectes se sont améliorées depuis le graphique iconique en forme de " bâton de hockey " publié dans le troisième rapport d'évaluation du GIEC en 2001. Bien que les nouvelles méthodes fournissent des reconstructions qui indiquent que le climat était plus variable au passée que ne le montre le graphique iconique du TAR, toutes les reconstructions disponibles confirment la nature inusitée du réchauffement récent dans le contexte du dernier millénaire.
Il ya une concordance scientifique généralisée que le 20e siècle a été substantiellement plus chaud que le millénaire précédent, un consensus qui a été récemment réaffirmé dans le quatrième rapport d'évaluation du GIEC publié en 2007. Dans ce rapport, la conclusion a été atteinte après évaluation d'un certain nombre de reconstructions de température basées sur des données de paléoclimat améliorées et élargies comprenant les séries qui étaient disponibles au moment du troisième rapport d'évaluation (TAR). Après publication du TAR, certaines critiques ont ciblé le graphique iconique en forme de « bâton de hockey » qui a été publié dans le résumé pour les responsables des politiques, une reconstruction du climat des dernières 1 000 années produite par Michael Mann (Ph.D.). Bien que le plus grand nombre d'études maintenant disponibles pour reconstruire les variations de température du millénaire passé soit une avance positive en science, le fait que le résultat de ces reconstructions varie quant à certains aspects importants a soulevé des questions au sujet de la source de ces divergences. Un article récemment publié dans le journal Climate Dynamics et dont un des coauteurs est Francis Zwiers, un scientifique à Environnement Canada, avec deux scientifiques de l'Université de Victoria, enquêtaient les sources de ces divergences, se demandant plus particulièrement si elles découlaient des différences des méthodes utilisées pour reconstruire les températures historiques à partir des données hypothétiques. L'article examine plusieurs méthodes existantes et présente aussi une nouvelle méthode élaborée par Environnement Canada et l'Université de Victoria. Les auteurs montrent que la méthode utilisée pour produire le graphique iconique en forme de bâton de hockey publié dans le troisième rapport d'évaluation du GIEC a quelques lacunes relatives à la plupart des autres méthodes utilisées pour reconstruire le climat historique à partir de données hypothétiques. Cependant, les auteurs montrent aussi que la conclusion - qu'il y a eu une augmentation marquée des températures mondiales au cours du XXe siècle, n'est pas remise en question. Les méthodes qui apparaissent supérieures pour reconstruire les variations d'une année à l'autre dans l'hémisphère nord signifient que les températures de l'air de surface sont identifiées et comprennent la nouvelle méthode proposée dans le présent article. Une gamme de méthodes sont cependant indiquées comme fonctionnant correctement lorsqu'on reconstruit la variabilité des températures aux échelles de temps de décennie. Les auteurs concluent que les différences entre les reconstructions vont plus probablement survenir à cause des choix spécifiques de données indirectes utilisées dans différentes reconstructions que du choix de la méthode, bien qu'il y a certaines méthodes qu'il est préférable d'éviter.

Luthcke, S.B., H.J. Zwally, W. Abdalati, D.D. Rowlands, R.D. Ray, R.S. Nerem, F.G. Lemoine, J.J. McCarthy et D.S. Chinn. 2006. Recent Greenland ice mass loss by drainage system from satellite gravity observations. Science, 24 novembre 2006, vol. 314 pp 1286-1289.
Au début des années 1990, le recours aux méthodes de télédétection a permis d'observer pour la première fois le bilan massique des inlandsis. Les données ainsi obtenues ont indiqué une perte nette de la masse de glace de l'inlandsis groenlandais, où la fonte accélérée de la glace dans les régions côtières est plus importante que les gains de masse de la région centrale à haute altitude. Ce nouvel ensemble de données sur les concentrations massiques, dérivé par Luthcke et al. à partir des données de la mission satellitaire GRACE (Gravity Recovery and Climate Experiment), donne une mesure directe des changements de masse de l'inlandsis avec une meilleure résolution spatiale et temporelle. Tous les dix jours, de juillet 2003 à juillet 2005, on a dérivé à partir des données les concentrations massiques de chacun des six réseaux hydrographiques, lesquels avaient été subdivisés en deux groupes de régions, soit celles situées à plus de 2 000 m d'altitude et celles à moins de 2 000 m. Pendant la période visée, la masse de l'inlandsis a perdu 101 16 gigatonnes/an, tandis que les régions situées à plus de 2 000 m ont gagné 54 gigatonnes/an, et les régions à moins haute altitude ont perdu 155 gigatonnes/an. Les régions en haute altitude connaissent un cycle annuel plus court attribuable aux bases températures, à la fonte minimale et aux faibles variations saisonnières des précipitations. Les régions côtières à faible altitude ont un cycle annuel plus long, comprenant une période de fonte importante des glaces en été, suivie de gains de masse sur une période s'étendant de l'automne au printemps. Bien qu'il soit difficile de tirer des conclusions à partir de ces deux années d'observation, les auteurs signalent que leurs résultats confirment ceux d'autres études et suggèrent que, à mesure que le réchauffement climatique se poursuit, les processus associés à la perte de masse de la glace sur les marges de l'inlandsis commencent à l'emporter sur l'augmentation de la masse qui se produit habituellement à l'intérieur de l'inlandsis.
Voir également Perspective par A. Cazenave, 2006. How fast are the ice sheets melting? Science 24 novembre 2006, vol. 314 pp 1250-1252.

Lyman, J., J. Willis et G. Johnson, G. 2006. Recent cooling of the upper ocean. Geophysical Research Letters 33, L18604, doi: 10.1029/2006GL027033.
Un article récent de chercheurs des États-Unis estime l'anomalie globale du contenu thermique de l'océan mondial pour les 750 premiers mètres, entre 1993 et 2005, à l'aide d'une série de capteurs de température portés par des bouées ou des navires. Malgré une tendance claire au réchauffement de l'océan dans les 13 dernières années, cette étude révèle que l'océan superficiel a subi une perte nette de chaleur entre 2003 et 2005. Les études antérieures ont généralement observé une tendance au réchauffement, et sont portées à attribuer cette variabilité interannuelle du contenu thermique de l'océan supérieur à un manque de données ou à des erreurs d'échantillonnage. Cependant, Lyman et ses collègues avancent que la perte de 3,2 x 1022 J dans les 750 premiers mètres de l'océan - qui correspond à un cinquième de leur gain thermique à long terme entre 1955 et 2003 - est significative, et pas un simple artéfact d'un échantillonnage inadéquat. L'étude attribue le refroidissement à diverses causes - comme une perte nette de chaleur de la Terre vers l'espace ou un transport de chaleur vers l'océan profond - parce que les auteurs considèrent que la quantité de chaleur perdue est trop grande pour pouvoir être stockée dans un compartiment unique du système climatique de la Terre.

McKitrick, R.R. et P.J. Michaels. 2007. Quantifying the influence of anthropogenic surface processes and inhomogeneities on gridded global climate data. JGR, vol. 112, D24S09, doi :10.1029/2007JD008465.
Une partie du réchauffement observé récemment tout autour de la planète peut encore être dû aux effets locaux des activités de l'être humain.
Les analystes des données climatiques savent depuis longtemps que les activités de l'être humain ont sur les températures des effets locaux qui dépassent de beaucoup l'augmentation des concentrations des gaz à effet de serre. En particulier, les effets des îlots de chaleur urbains et les modifications des surfaces terrestres influencent les températures locales. Les températures consignées présentent de plus inévitablement des erreurs par suite du manque d'uniformité des méthodes d'observation ou d'autres erreurs humaines. Les spécialistes essaient de neutraliser ces facteurs non climatiques en corrigeant les données enregistrées de ces erreurs et en compilant des enregistrements mondiaux rajustés qui tiennent aussi compte des biais de surface dans les densités des stations climatiques. Diverses études ont par le passé allégué que ces corrections réussissent en très grande partie à supprimer ce genre de biais dans les ensembles mondiaux de données. Une nouvelle étude de McKitrick (University of Guelph) et Michaels (University of Virginia) soutient qu'il existe encore des biais résiduels importants dans les données et qu'il s'ensuit une surestimation de la tendance de la température mondiale au cours de bon nombre des dernières décennies. Ils procèdent d'abord à une comparaison statistique des tendances relatives aux facteurs socioéconomiques pouvant influencer les températures locales et des tendances de la température, et montrent qu'elles ne semblent pas être indépendantes. Ils rajustent ensuite les données pour les corriger de ces influences résiduelles. Bien qu'il y ait peu de changement dans certaines régions, comme l'Amérique du Nord, l'Australie et l'Europe de l'Est, ils constatent des réductions importantes des tendances au réchauffement dans d'autres régions, en particulier l'Europe de l'Ouest et le sud­est de l'Asie. Ils allèguent que le réchauffement planétaire net au­dessus des surfaces terrestres est peut­être beaucoup moins important que ce dont les études antérieures ont fait état.

Mann, M.E., Z. Zhang, M.K. Hughes, R.S. Bradley, S.K. Miller, S. Rutherford et F. Ni. Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. PNAS, 9 septembre 2008, volume 105, no 36, p.13252 à 13257.
Une nouvelle reconstitution du climat de l'hémisphère Nord au cours des deux derniers millénaires démontre que les températures de la dernière décennie sont d'une chaleur anormale.
Suivant les recommandations du rapport 2006 du U.S. National Research Council quant aux reconstitutions des températures en surface, ils ont employé une gamme très large de données indirectes ainsi que des données instrumentales récemment mises à jour, et ils ont comparé deux méthodes de reconstitution des températures (appelées « CPS » et « EIV »). Plus de 1200 séries de données provenant de l'étude d'anneaux de croissance d'arbres, de sédiments marins, de spéléothèmes, de dépôts lacustres, de carottes glaciaires, de coraux et de documents historiques ont été utilisées pour cette étude. Étant donné les doutes soulevés quant à la fiabilité des données obtenues des anneaux de croissances des arbres, les auteurs ont également créé des reconstitutions en faisant abstraction de ces données. Les données instrumentales leur ont été fournies par l'unité de recherche sur le climat de l'Université de East Anglia. Les deux méthodes ont permis de produire de très fidèles reconstitutions des températures de l'hémisphère Nord jusqu'au Ve siècle, mais sans les données des anneaux de croissance des arbres, les reconstitutions faites à l'aide de l'approche CPS ne sont fiables que jusqu'au XV1e siècle, et celles faites avec l'approche EIV jusqu'au XIe siècle. En combinant les températures océaniques et terrestres de l'hémisphère Nord, on a pu obtenir une reconstitution fidèle jusqu'au début du VIII siècle à l'aide de la méthode EIV; les auteurs soulignent qu'il s'agit d'un progrès important par rapport aux travaux réalisés précédemment. Dans l'ensemble, les auteurs estiment que la méthode EIV paraît plus fiable, surtout pour la période précédant le XIe siècle. Leurs conclusions appuient celles du NRC, à savoir que les températures de la dernière décennie ont été anormalement élevées si on les compare à celles des 1300 dernières années. On parvient à la même constatation si on exclut les données obtenues à partir des anneaux de croissance des arbres et qu'on effectue la comparaison avec les températures des 1700 dernières années. Les conclusions ne sont pas aussi définitives pour l'hémisphère Sud et l'ensemble du globe, principalement en raison du peu de données indirectes disponibles pour l'hémisphère Sud.

Maslanik, J.A., C. Fowler, J. Stroeve, S. Drobot, J. Zwally et W. Emery. « A younger, thinner Arctic ice cover: Increased potential for rapid, extensive sea-ice loss », 2007, GRL vol. 34, L24501, doi:10.1029/2007GL032043.
Une nouvelle étude sur la période glaciaire et sur l'épaisseur de la glace indique que la glace marine de l'Arctique qui est plus vieille et plus épaisse est remplacée par une glace plus récente et plus mince. Ces changements, à la lumière du réchauffement progressif prévu de l'Arctique, indiquent que la couche de glace est de plus en plus vulnérable aux grands changements soudains, comme celui qui s'est produit l'été dernier.
Une étude publiée plus tôt en 2007 a démontré que la composition de la glace pérenne de l'Arctique a changé, présentant moins de glace pluriannuelle et plus de glace de l'année. Cette étude de Maslanik et al. fournit d'autres éléments indiquant un changement de la nature de la glace pérenne arctique. Les auteurs utilisent des données provenant de satellites et de bouées dérivantes pour créer des mailles de champs vectoriels sur les mouvements de la glace de 1979 à l'été 2007 leur permettant de calculer l'âge de la glace dans chaque maille. Ces données indiquent que la majorité de la banquise pérenne est maintenant formée de glace âgée de deux ou trois ans (58 % en mars 2006) et que la glace plus vieille a pratiquement disparue (5 % de glace âgée de sept ans et plus en 2007). Les auteurs utilisent aussi un ensemble de données sur l'épaisseur estimée de la glace qui ont été recueillies sur une période de quatre ans (2003 à 2006) par le satellite ICESat en plus de l'ensemble de données sur la période glaciaire afin d'élaborer une série chronologique approximative sur l'épaisseur de la glace en mars, de 1982 à 2007. Ces données démontrent que la majorité de la diminution associée à l'appauvrissement de la glace plus vieille s'est produite dans l'est de l'Arctique. L'épaisseur de la glace a légèrement augmenté dans quelques régions adjacentes à l'archipel canadien ainsi qu'à l'est de la mer de Beaufort. L'épaisseur moyenne de la glace dans l'Arctique s'est légèrement rétablie à la fin des années 1990, mais elle a continué à s'amincir depuis, en plus de subir une transition vers une couche de glace plus jeune. Les auteurs indiquent que le confinement de la vieille glace à une petite partie de l'océan Arctique ouvre la voie à une couche de glace arctique qui est de plus en plus vulnérable aux grandes réductions rapides de l'étendue de glace, comme celle qui a eu lieu en septembre de cette année.

Menzel, A., Sparks, T.H., Strella, N., et al. 2006. European phenological response to climate change matches the warming pattern. Global Change Biology: 12:1-8.
Les résultats d'une étude des réponses de la phénologie au changement climatique menée dans toute l'Europe entre 1971 et 2000 ont été publiés dans un récent numéro de Global Change Biology. Les tendances phénologiques pour 542 espèces végétales de 21 pays et 19 espèces animales de 3 pays ont été obtenues par l'entremise du réseau action 725 du COST, et les moyennes annuelles, mensuelles et saisonnières des températures pour tous les pays d'Europe ont été trouvées dans la base de données du Centre Tyndall. Les résultats montrent une nette réponse de la phénologie au changement des températures au printemps; en automne, le signal était significativement plus faible. Bien que le printemps ait en moyenne avancé de 2,5 jours/décennie, les réactions phénologiques printanières annuelles ont montré une avance pouvant atteindre 4,6 jours/°C, alors que celles de l'automne un retard pouvant atteindre 2,4 jours/°C. Une étude de corrélation entre les températures moyennes mensuelles et le mois de début montrait que la corrélation la plus forte était avec le mois prédécent (63 %). Il y a des indications claires que la phénologie de printemps et d'été dans toute l'Europe est en train de changer, 78 % des observations de dépliement des feuilles et de floraison étant en avance, de même que 75 % des observations de mûrissement et 57 % des enregistrements d'activités agricoles. Par contraste, les tendances de la phénologie en automne étaient plus ambiguës mais, dans l'ensemble, présentaient des tendances négatives pour ce qui est du début de diverses étapes; par exemple, 52 % des enregistrements de changement de couleur du feuillage présentant un retard.

Milewska, E.J. « Cloud type observations and trends in Canada, 1953 2003 », dans Atmosphere-Ocean, 2008, no 46, p. 297 313.
Selon de récentes études, on trouve de plus en plus de couvertures nuageuses de convection cirriformes et cumuliformes de l'étage supérieur au dessus du Canada tandis que les nuages stratiformes de l'étage inférieur se font plus rares.
Dans une nouvelle étude publiée dans la revue scientifique canadienne Atmosphere-Ocean, Ewa Milewska (chercheure en climatologie à Environnement Canada (EC)) analyse les données sur les nuages de tout le Canada afin de relever les tendances relatives aux divers types de nuages, et étudie certaines conséquences de ces tendances sur le climat de surface. Cette analyse repose sur des données minutieusement présélectionnées recueillies entre 1953 et 2003, qui proviennent de 87 stations météorologiques situées un peu partout au Canada. Mme Milweska décompose les données sur les types de nuages en trois grandes catégories d'altitude - soit les nuages élevés (dont la base se trouve à au moins 6 km d'altitude), les nuages moyens (dont la base est à 2 à 6 km d'altitude) et les nuages bas (dont la base se trouve à moins de 2 km d'altitude). Les résultats du cumul de ces catégories permettent de confirmer ceux d'une étude antérieure. Selon les données de la majorité des stations analysées, le nombre d'heures annuelles pendant lesquelles au moins 50 % du ciel était couvert de tous les types de nuages a augmenté de 10 à 17 % sur les 51 années couvertes par l'étude. Cependant, ce nombre d'heures annuelles a tendance à baisser considérablement lorsque plus de 50 % du ciel est couvert de nuages bas et moyens, soit de 5 à 11 % sur la période étudiée dans les provinces de l'Ouest et le nord du Québec. Par contre, le nombre de cirrus de l'étage supérieur a tendance à augmenter fortement dans l'ensemble du pays. Dans la plupart des régions on constate des augmentations de 10 à 23 % pour ce type de nuage, et en Alberta ces augmentations atteignent un étonnant 23 à 34 %. Il ne fait aucun doute que cette augmentation apparente peut être simplement attribuable au fait qu'un plus grand nombre de nuages de l'étage supérieur deviennent visibles pour l'observateur à la surface à mesure que la couverture des nuages des bas et moyens diminue. Cependant, la magnitude et l'étendue de l'augmentation du nombre de cirrus signalé à l'échelle du pays laissent supposer que cette tendance est réelle dans la majorité de ses aspects. Dans de nombreuses stations du sud du Canada on constate également des tendances à la hausse de 23 à 34 % quant au nombre de types de nuages de convection. Toutefois, l'association de forts nuages de convection et d'orages violents a considérablement diminué, surtout en Alberta et en Colombie Britannique (C.-B,). Ewa Milewska fait remarquer que ces tendances sont liées à la hausse des températures maximales et minimales et à la diminution des chutes de pluie violentes, surtout en Alberta.

Moran, K., J. Backman, H. Brinkhuis et al. 2006. The Cenozoic palaeoenvironment of the Arctic Ocean. Nature 441:601-605. et
Stoll, H.M. 2006. The Arctic tells its story. Nature 441:579-580.

Il y a deux ans, une grosse équipe de scientifiques a extrait une longue carotte de sédiments d'une crête du milieu de l'océan Arctique pour reconstruire les conditions environnementales qui ont régné dans cet océan dans les 65 derniers millions d'années. Dans le numéro du 1er juin 2006 de la revue Nature, ces scientifiques ont présenté quelques uns des résultats préliminaires très intéressants des analyses de la carotte de sédiments. Ils ont constaté, par exemple, que la température à la surface de l'océan Arctique a atteint 23-24 ºC il y a quelque 55 millions d'années, soit des valeurs beaucoup plus élevées que ce que l'on croyait auparavant. Il y a également des indications d'un cycle hydrologique beaucoup plus intense à cette époque. Étant donné que cette période de temps extrêmement chaud et pluvieux coïncide avec des concentrations élevées de CO2, elle pourrait donc être liée à une période de super-effet de serre. Dix millions d'années plus tard, les températures ont considérablement baissé et atteint environ 10 C, et une couverture de glace de mer a commencé à se former. Au même moment également s'amorce la glaciation de l'Antarctique, qui coïncide avec une diminution des concentrations de CO2. Toutefois, les modèles qui ont tenté de simuler le climat d'il y a 55 millions d'années en ne faisant intervenir que des concentrations élevées de CO2 n'ont pas réussi à bien représenter toute l'ampleur du réchauffement observé. On en déduit que le système climatique comporte des rétroactions positives, telles que, peut-être, les nuages stratosphériques de cristaux de glace gelés, qui ne sont pas encore correctement inclus dans les processus des modèles. En conclusion, bien que ces résultats renforcent la théorie d'une période de super-effet de serre il y a quelque 55 millions d'années, de nombreuses questions restent sans réponse au sujet des autres processus en jeu.

Mote, T.L. 2007. Greenland surface melt trends 1973-2007: evidence of a large increase in 2007. GRL, vol. 34, L22507, doi :10.1029/2007GL031976.
La calotte glacière du Groenland a fondu 60 p.100 de plus que le record antérieur au cours de l'été 2007, ce qui constitue une preuve supplémentaire de ce que l'été arctique a été très inhabituel.
L'étendue minimale de la glace de mer de l'Arctique, qui a fracassé des records, a eu droit à beaucoup d'attention en septembre dernier, à la fois de la part des médias et des scientifiques. Cet article ajoute un élément à ceux qui tendent à prouver que les conditions de la glace dans l'Arctique ont été très inhabituelles l'été dernier en montrant que la fonte de la calotte glacière du Groenland a pulvérisé des records au cours de la saison 2007. Cette étude tire parti d'analyses antérieures d'une série chronologique des hyperfréquences passives de la fusion superficielle sur la calotte glacière groenlandaise en prolongeant cette série chronologique de quelques années dans le passé jusqu'à 1973, et en l'actualisant jusqu'à 2007. De plus, une nouvelle mesure - la déviation saisonnière de la fonte (DSF) - correspondant à la somme des déviations par rapport à la fonte moyenne tous les jours au cours de la période allant du 1er juin au 31 août, est présentée. Les données de la DSF montrent une série d'années où la fonte a été supérieure à la moyenne à partir de 1997 et une tendance clairement à la hausse depuis les années 1970. Selon les résultats, la durée et le début de la fonte indiquent tous deux que la glace a fondu plus que la moyenne en 2007 dans de grandes parties de la calotte, certains endroits connaissant 50 jours de fonte de plus que la moyenne et celle­ci se produisant 30 jours plus tôt que la moyenne dans certaines régions. Dans l'ensemble, la déviation pour la saison 2007 a été supérieure de 60 p.100 à celle de l'année qui arrive en deuxième place (1998). Cette tendance concorde avec les augmentations enregistrées de la température à la surface de la calotte glacière et de la température maximale quotidienne moyenne à trois stations côtières. La fonte a toutefois été plus importante en 2007 que ce à quoi on se serait attendu en ne se basant que sur les températures consignées pour l'été. Les auteurs formulent l'hypothèse selon laquelle des années consécutives de chaleur ont peut­être eu un effet cumulatif sur la fonte de la glace en 2007 et mentionnent un certain nombre de mécanismes possibles (p. ex. une diminution de l'albédo de la surface ou de la teneur en froid de la neige). Il n'y a pourtant pas encore assez de preuves pour établir de façon irréfutable les raisons pour lesquelles 2007 a été si anormale.

Narisma, G.T., J.A. Foley, R. Licker et N. Ramankutty. «Abrupt changes in rainfall during the twentieth century» (changements soudains des précipitations au cours du vingtième siècle), Geophysical Research Letters, n° 34, L06710, 2007, doi:10.1029/2006GL0282628.
Les changements soudains des précipitations ont caractérisé le climat mondial au cours du vingtième siècle.
Les sécheresses prolongées, comme le «Dust Bowl» des années 30 aux États-Unis, et la sécheresse du Sahel dans les années 70, sont des exemples des changements soudains dans les précipitations qui se sont produits au cours de l'ère moderne. Cette étude américaine porte sur les records du vingtième siècle pour démontrer à quel point ces exemples sont isolés. Ainsi, il s'est produit environ 30 importantes sécheresses régionales dans plusieurs endroits du monde qui ont duré pendant au moins dix années et qui ont engendré une chute des précipitations d'environ 10 p. 100. La plupart se sont produites dans des régions arides ou semi arides où par le passé le total des précipitations a fluctué de façon importante. Cet échantillon élargi de cas fournira aux chercheurs des données supplémentaires pour étudier le système climatique et les effets des sécheresses sur les sociétés et évaluer les modèles climatiques.

Nghiem, S.V., I.G. Rigor, D.K. Perovich, P. Clemente-Colon, J.W. Weatherly et G. Neumann. 2007. Rapid reduction of Arctic perennial sea ice (Réduction rapide de la glace de mer pérenne). GRL 34, L19504, doi:10.1029/2007GL031138.
Les pertes sans précédent de glace de mer pluriannuelle (pérenne) ces dernières années signifient que les glaces hivernales sont devenues plus minces et comportent une proportion plus grande de glace de première année. Ces observations et d'autres rapports concernant des minimums record de glace d'été laissent supposer des modifications spectaculaires de la nature et de l'étendue de la glace marine de l'Arctique.
La tendance à la baisse de l'étendue de la glace marine en été, enregistrée pendant les deux dernières décennies, avec un minimum absolu en 2007, est largement documentée dans les ouvrages scientifiques et par les organismes qui surveillent la glace de mer. Mais cette tendance ne donne pas une image complète des conditions changeantes de la glace de l'Arctique. Nghiem et coll. indiquent dans GRL comment la composition de la glace marine d'hiver change également. Les données recueillies par satellite (QSCAT) indiquent une réduction de la couverture de glace pérenne en mars, de 4,69 x 106 km2 en mars 2005, à 3,61 x 106 km2 en mars 2007, soit une réduction de 23 % sur une période de seulement deux ans. La superficie de glace pérenne a diminué mais la couverture totale de glace est demeurée relativement stable étant donné que la majeure partie de la perte de glace pérenne a été contrebalancée par de la glace saisonnière (de l'année). Les auteurs indiquent que la perte de glace pérenne est principalement attribuable à des régimes de vents anormaux favorisant le transport de la glace hors de l'Arctique; toutefois, le déplacement de la glace a probablement été favorisé par le fait qu'il s'agissait de glace plus mince. Par conséquent, des facteurs dynamiques et thermodynamiques semblent se combiner pour accélérer la déperdition de glace de mer de l'Arctique. En outre, les auteurs estiment que la modification des conditions de glace hivernale prédisposent la glace de mer à une fonte plus efficace et à une réduction encore accrue de la glace en été. Ces variations de la répartition et de la proportion de glace pérenne (pluriannuelle) et saisonnière (de l'année) en mars ont une incidence et sur l'équilibre des masses de glace de mer et sur le mécanisme de rétroaction glace-albédo.

Nicholls, N., « Recent trends in seasonal and temporal behaviour of the El Nino - Southern Oscillation », Geophys. Res. Letters, vol. 35, 2008, L19703, doi:10.1029/2008GL034499.
En ce qui concerne l'El Niño oscillation australe, rien ne prouve que les tendances en matière de variabilité ou de persistance aient changé dans la période allant de 1958 à 2007. Cette conclusion étaye les résultats présentés dans le rapport AR4 du GIEC; à savoir que les modèles ne laissent pas supposer que les conditions d'El Nino changeront au cours du 21e siècle.
Dans le cadre d'une étude récente, un chercheur australien a examiné les tendances de la variabilité et de la persistance d'El Niño oscillation australe (ENSO) de 1958 à 2007. Il a utilisé deux indices ENSO différents pour examiner les tendances du comportement saisonnier et temporel, soit le NINO3.4, qui détermine les températures à la surface de la mer dans le Pacifique équatorial, et l'indice d'oscillation australe (IOS), qui compare les pressions à la station entre Tahiti et Darwin, en Australie. Les résultats ne montrent aucune tendance dans le modèle saisonnier, ni aucune variabilité d'une saison à l'autre. La seule tendance détectée par l'indice d'oscillation australe porte sur un modèle de type El Niño qui ne se manifeste qu'entre les mois de mars et de septembre et révèle un changement dans la pression à la station à Darwin. ENSO semble se manifester le plus souvent entre les mois de novembre et de février; ce qui est curieux et nécessiterait que des études plus poussées soient menées pour en déterminer la cause. Cette absence de changement étaye le rapport AR4 du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), dans lequel on précise que pour les modèles qui stimulent adéquatement les conditions actuelles d'El Niño, rien n'indique « qu'au cours du 21e siècle, l'amplitude ou la fréquence d'ENSO subira des changements notables. »

Noris, J.R., et M. Wild. « Trends in aerosol radiaitve effects over Europe inferred from observed cloud cover, solar 'dimming' and solar 'brightening'» (tendances des effets radioactifs d'aérosol en Europe tirées d'observations de la couverture des nuages, de «l'obscurcissement du soleil » et de la « surbrillance solaire »), Journal of Geophysical Research, vol. 112, 2007, D08214, doi:10.1029/2006JD007794.
D'après certaines observations européennes de la lumière du soleil qui arrive à la surface, la région a connu une période «d'obscurcissement du soleil» (rayonnement décroissant de courte longueur d'onde) entre 1971 et 1986, suivie d'une période de «surbrillance solaire» entre 1987 et 2003. D'après l'analyse de ces tendances, il semble que les taux en hausse et à la baisse des émissions humaines d'aérosols soient des facteurs importants.
Les auteurs de l'étude ont évalué en premier le rôle de la couverture des nuages dans les tendances et ont constaté qu'il s'agissait d'un facteur dominant tant au niveau des échelles mensuelles que des échelles décennales. Toutefois, après que cet effet a été soustrait des données, il n'en est pas moins resté une diminution multi-décennalle des radiations solaires arrivantes pour l'ensemble de l'Europe d'environ 3 watt par mètre carré (W/m2)/décennie pendant la première moitié du registre et un taux subséquent d'augmentation d'un peu plus de 2 W/m2/décennie.

(1) Osborn, T.J., et Briffa, K.R. 2006. The spatial extent of the 20th-century warmth in the context of the past 1200 years. Science 311:841-844.
(2) D'Arrigo, R., R. Wilson et G. Jacoby. 2006. On the long-term context for the late twentieth century warming. JGR 111, D03103, doi:10.1029/2005JD006352.

Ces dernières années, diverses études ont fourni des indications que le 20e siècle a probablement été le plus chaud des deux derniers millénaires, et les années 1990 la décennie la plus chaude. On a cependant aussi des indications que ces études ont pu sous-estimer les incertitudes, à cause des limites à la fois des données et des méthodologies d'analyse utilisées; leurs résultats doivent donc être utilisés avec prudence.
Deux nouveaux articles tentent maintenant de régler ces problèmes de limites, et donc d'améliorer la confiance dans les conclusions sur l'importance des récentes anomalies du climat. L'étude menée par D'Arrigo et ses collègues s'écarte des approches traditionnelles d'analyse des données substitutives pour l'hémisphère en commençant par normaliser les enregistrements substitutifs au niveau régional avant de les intégrer dans une base de données des températures sur les terres dans l'hémisphère. Autrement dit, ils déterminent les écarts par rapport aux moyennes à long terme, puis ramènent l'amplitude des variations à un écart-type commun avant de les intégrer dans un enregistrement des températures de l'hémisphère. D'Arrigo et al. n'utilisent que des enregistrements de cernes de croissance des arbres (qui sont des données substitutives du climat des régions terrestres extratropicales de l'hémisphère Nord), remontant presque jusqu'à l'an 700 de notre ère. Une comparaison avec les approches mondiales classiques de normalisation des données suggère que l'approche régionale rend mieux compte de l'amplitude de la variabilité basse fréquence des climats aux échelles pluriséculaires. Les résultats de l'étude donnent à penser que, pour les régions terrestres extratropicales, les températures de la fin du 20e siècle sont d'environ 0,7 °C plus élevées que celles de l'optimum médiéval, et que la plage de variation entre la fin de l'enregistrement substitutif (milieu du 20e siècle) et la période la plus froide du petit âge glaciaire est d'environ 1,14 °C. Les auteurs font cependant remarquer que, en raison des limites inévitables dues au petit nombre d'enregistrements substitutifs et d'autres facteurs contribuant à l'incertitude, les résultats doivent encore être utilisés avec prudence.
La seconde étude, menée par Osborn et Briffa, tente aussi de lever certaines des limites d'études antérieures, entre autres en commençant par normaliser les données substitutives à l'échelle régionale. Après avoir examiné des enregistrements à multiples données substitutives disponibles, la force du signal de température, la longueur de l'enregistrement et d'autres facteurs, ils disposent de 14 enregistrements de données de qualité élevée à utiliser dans les données substitutives de l'hémisphère. Pour rechercher le bruit aléatoire, l'autocorrélation et la variabilité interne, ils décalent aléatoirement les enregistrements dans le temps pour développer 10 000 variantes et leurs statistiques de probabilité. Ils évaluent ensuite jusqu'à quel point les 14 enregistrements sont représentatifs du climat de l'hémisphère. Enfin, ils examinent à quelle fréquence les enregistrements dépassent 1 et 2 écarts types, et calculent, d'une période à l'autre, quel pourcentage de ces écarts est positif ou négatif. Ils concluent que, depuis l'an 800 de notre ère, il y a dans l'enregistrement un signal de température significatif qui ne peut être expliqué ni par le hasard ni par la variabilité interne, et doit donc être dû à un forçage, que la base de données des 14 enregistrements substitutifs représente convenablement la variabilité des températures de l'hémisphère et que la plus forte indication d'un important signal chaud se produit dans la seconde moitié du 20e siècle, au moment où le forçage des gaz à effet de serre est maximal.

Overpeck, J.T., B.L. Otto-Bliesner, G.H. Miller, D.R. Muhs, R.B. Alley et J.T. Kiehl, 2006: Paleoclimate evidence for future ice-sheet instability and rapid sea-level rise. Science, 311, 1747-1750.
À partir de données paléoclimatologiques, les auteurs de l'étude ont élaboré la théorie que l'élévation du niveau de la mer induite par le changement climatique pourrait poser une menace plus grande que ce qui a été prévu. En examinant des crêtes et îles barrières anciennes érigées par les tempêtes dans l'Arctique, ils ont estimé que le niveau de la mer était de 4 à 6 m supérieur au niveau actuel des océans pendant le dernier interglaciaire, il y a de cela 129 000 à 118 000 ans. Les auteurs ont ensuite comparé la perte de volume approximative de l'inlandsis groenlandais au cours de la même période et estimé qu'une proportion allant de 2,2 à 3,4 m de cette élévation était due aux contributions de l'inlandsis groenlandais et d'autres champs de glace de l'Arctique. Ils ont établi le postulat que la proportion restante de l'élévation du niveau de la mer était attribuable à l'amincissement de l'inlandsis antarctique. Cependant, on croit que la cause du dernier interglaciaire serait imputable à un changement de l'orbite terrestre, qui aurait entraîné un réchauffement disproportionnément plus important dans l'hémisphère Nord que dans l'hémisphère Sud. Les auteurs concluent que, partant du fait que le changement climatique anthropique affectera la planète entière, et non pas un seul hémisphère, la contribution de l'inlandsis antarctique sera plus importante pour un réchauffement d'une même ampleur que ce qu'on avait estimé s'être produit pendant le dernier interglaciaire. De plus, la contribution de l'Antarctique pourrait provoquer une élévation plus importante du niveau de la mer et à une vitesse plus rapide que ne le projettent les modèles.

Parker, D.E. A Demonstration That Large-Scale Warming is Not Urban, Journal of Climate, 19 (14), 2006, 2882-2895.
Une étude menée récemment au Royaume-Uni a comparé les tendances des températures planétaires et régionales par temps venteux et par temps calme pour évaluer la contribution globale de l'urbanisation et d'autres influences locales ou instrumentales aux tendances au réchauffement observées au XXe siècle. L'auteur a utilisé le Système mondial d'observation du climat (SMOC) pour obtenir les données de températures minimales et maximales quotidiennes de 1950 à 2000 à 26 stations; les vents à proximité de la surface ont été obtenus de la NOAA pour la même période. Les résultats ont montré que les effets de réchauffement du climat urbain sur les températures minimales pendant les nuits sans vent, où l'impact devrait être maximal, étaient non existants, puisque les conditions, qu'elles soient venteuses, calmes ou autres, montraient des tendances au réchauffement similaires de 0,20 °C ± 0,06 °C par décennie. Une analyse plus poussée a révélé qu'il n'y avait pas de relation statistiquement significative entre les nuits calmes et les nuits venteuses, ni entre les tendances des minimums et des maximums. Enfin, on a obtenu une tendance annuelle positive en calculant les maximums annuels pour les conditions venteuses moins les conditions calmes, qui était contraire au signal d'urbanisation typique, puisque l'impact du réchauffement urbain devrait être maximal par temps calme. Cette étude, qui appuie des résultats antérieurs présentés dans Jones et Moberg (2003), conforte les conclusions du TRE du GIEC, à savoir que l'impact du réchauffement urbain sur les tendances tant à l'échelle planétaire qu'à celle de grandes régions est faible et responsable d'une « incertitude » de 0,06 ° dans le réchauffement planétaire du XXe siècle.

Parmesan, C. 2006. Ecological and evolutionary responses to recent climate change. Annual Reviews of Ecology, Evolution and Systematics 37:637-669.
Une importante revue de la manière dont les espèces animales et végétales ont réagi au récent réchauffement du climat vient d'être publiée. Les résultats montrent que des impacts directs du changement climatique anthropique ont maintenant été documentés sur tous les continents, dans tous les océans et chez la plupart des grands groupes taxonomiques. La revue couvre des études des changements tant de la répartition (surtout sur les animaux) que de la phénologie (surtout sur les plantes). La littérature présente un biais en faveur des espèces terrestres, mais les études sur les environnements marins et dulcicoles se font plus nombreuses. Les grandes lacunes de données sont d'ordre géographique plus que taxonomique, puisqu'on dispose de peu d'études sur l'Amérique du Sud, l'Afrique et l'Asie. Chez les espèces à aire de répartition réduite, en particulier les espèces polaires et les espèces de haute montagne, on note de graves réductions de l'aire de répartition; de plus, les amphibiens et les récifs coralliens des tropiques sont considérés comme des groupes très affectés à ce jour. Les études phénologiques montrent que, pour nombre d'espèces, l'impact premier du changement climatique pourrait être une perturbation du synchronisme entre les cycles biologiques des prédateurs et de leurs proies, ceux des insectes herbivores et de leurs plantes hôtes et d'autres relations d'interdépendance du même ordre. Les indications recueillies jusqu'ici fournissent peu d'appui à des sautes génétiques évolutionnaires qui pourraient atténuer les effets négatifs au niveau de l'espèce. Cependant, de telles sautes pourraient jouer un rôle en modulant les réponses locales des populations.

Perovich, D.K., J.A. Richter-Menge, K.F. Jones et B. Light. 2008. Sunlight, water, and ice: Extreme Arctic sea ice melt during the summer of 2007. Geophys. Res. Lett., 35, L11501, doi:10.1029/2008GL034007. Schweiger, A. J., J. Zhang, R. W. Lindsay, and M. Steele. 2008. Did unusually sunny skies help drive the record sea ice minimum of 2007?, Geophys. Res. Lett., 35, L10503, doi:10.1029/2008GL033463.
Des mesures sont prises vers une explication complète de la fonte extrême de la glace marine de l'Arctique à l'été 2007. Les rétroactions glace­albédo sont montrées comme étant importantes, alors que les cieux ensoleillés de 2007 ne sont pas des contributeurs.
Deux récents articles apportent des éléments de solution au casse­tête concernant la diminution atteignant des records de l'ampleur de la couverture de la glace marine de l'Arctique à l'été 2007. Les causes éventuelles qui ont été proposées sont les tendances de réchauffement, les changements de la circulation atmosphérique, l'exportation de glace plus ancienne par le détroit Fram, les nuages bas, les cieux clairs, l'advection de la chaleur océanique du Pacifique et le réchauffement de l'océan. Toutes ces causes ont des conséquences par rapport à la trajectoire future de la couverture de glace marine. Le rôle des températures de surface de l'océan est examiné dans l'Arctique par Perovich et al. Les observations de la croissance de la glace et de la fonte montrent une augmentation dramatique de la fonte de fond de la glace dans la mer de Beaufort qui est six fois la moyenne annuelle au cours des années 1990 en cet été de 2007. Les auteurs croient que l'intrant de radiation des eaux ouvertes de la mer de Beaufort a été la principale source de chaleur (de 400 à 500 % plus élevé que la moyenne) dans l'océan produisant une plus grande fonte des glaces. De plus, l'amincissement de la glace marine attribuable à la fonte de fond excessive a permis à une plus grande radiation solaire d'être transmise à l'océan. Ces processus sont conformes à la rétroaction classique glace­albédo. Chez Schweiger et al., les auteurs confirment qu'une cellule de haute pression anormale a contribué à des cieux relativement clairs au cours de l'été de 2007 (une réduction de 57 % du volume moyen de nuages). Un modèle dynamique de la glace marine, le Système de modélisation de la glace arctique et d'assimilation (PIOMAS) a ensuite été utilisé pour mettre à l'essai si les cieux plus ensoleillés que d'habitude ont contribué à l'anomalie de la glace marine. Le modèle faisant enquête sur le rôle des nuages (utilisant une comparaison simplifiée de la réduction en 2007 des flux de radiation à court et à long termes par rapport à la moyenne) montraient que les « cieux ensoleillés » n'ont pas contribué au minimum record de glace marine de 2007. L'évaluation complète de l'impact total des nuages n'est pas terminée. Globalement, l'amincissement de la glace qui survie indique une plus grande vulnérabilité de la glace marine d'été à l'avenir à des forces qui contribueraient à sa fonte.

Rahmstorf, S., A. Cazenave, J.A. Church et coll. «Recent climate observations compared to projections» (comparaison des observations climatiques récentes avec les prévisions), Science, vol. 316, 2007, p. 709.
Les résultats d'une étude internationale, dans laquelle on compare les tendances des températures du globe et les niveaux de la mer depuis 1990 avec ceux prévus par les modèles climatiques, laissent entendre que les prévisions du GIEC sur les changements climatiques futurs ne sont pas exagérées et pourraient en fait sous-estimer ce qui devrait probablement se passer.
Les auteurs de l'étude mentionnent que l'augmentation observée des concentrations de dioxyde de carbone (CO2) est presque semblable à celle qui était prévue dans les scénarios de CO2 élaborés par le GIEC. Toutefois, l'augmentation de 0,33 °C de la température depuis 1990 est à un échelon plus élevé que celui qui était prévu par les modèles pour la même période. De même, l'augmentation observée du niveau de la mer entre 1993 et 2006 a été de 0,3 mm/année, soit 50 p. 100 plus rapide que la meilleure estimation prévue par le GIEC. Les auteurs mentionnent que 16 ans est une période trop courte pour attribuer avec précision la cause de ce changement rapide récent dans la température et le niveau de la mer. Donc, la variabilité du climat interne ou les forçages climatiques autres que de CO2 pourraient être des facteurs d'augmentation. Toutefois, tout au moins, ces résultats permettent de présumer que le GIEC n'a pas surestimé dans ses prévisions les risques liés aux changements climatiques futurs.

Rayback, S.A. et G.H.R. Henry. 2006. Reconstruction of Summer Temperature for a Canadian High Arctic Site from Retrospective Analysis of the Dwarf Shrub, Cassiope tetragona. Arctic, Antarctic, and Alpine Research, 38 (2), 228-238.
Une étude récemment publiée et réalisée par deux scientifiques de l'Université de Colombie-Britannique se base sur l'arbuste nain Cassiope tetragona pour établir une reconstruction du climat du dernier siècle sur l'île Ellesmere. De tels travaux visent à compléter les rares données d'observation du climat de l'Extrême-Arctique canadien provenant de stations météorologiques. Des séries chronologiques fondées sur la morphologie des végétaux ont été construites pour des périodes allant de 80 à 118 ans. Des modèles de régression multiple ont ensuite été utilisés pour reconstruire les températures de l'air pendant l'été (de juillet à septembre) sur 100 ans (1895-1994). Les résultats montrent une élévation des températures depuis environ 1905 jusqu'au début des années 1960, suivie d'une tendance au refroidissement dans les années 1970. La reconstruction se termine sur un réchauffement qui s'amorce au début des années 1980. Cette tendance concorde avec les résultats d'autres études à l'échelle de l'Arctique et avec les observations des 50 dernières années, ce qui porte à croire que Cassiope Tetragona est un indicateur substitutif approprié des températures et que cet arbuste contient un signal des températures à grande échelle.

Rayner, N.A., P. Brohan, D.E. Parker, C.K. Folland, J.J. Kennedy, M. Vanicek, T.J. Ansell et S.F.B. Tett, 2006. Improved analysis of changes and uncertainties in sea surface temperature measured In Situ since mid-nineteenth century: the HadSST2 dataset. J. Climate, 19 (3), 446-469.
La présente étude a eu recours au nouvel ensemble international de données détaillées océan-atmosphère (EIDDOA) pour examiner les changements de la température de la surface de la mer (TSM) entre les années 1850 et 2005. Cet ensemble de données corrige les biais introduits par les différentes méthodes et plateformes de mesure, et utilise des méthodologies de maillage plus avancées. Les résultats indiquent une élévation de 0,67 °C de la TSM à l'échelle mondiale; un réchauffement de 0,71 °C des eaux de l'hémisphère Nord et de 0,64 °C des océans de l'hémisphère Sud. Il s'agit de tendances non linéaires, et le gros du changement survient principalement après 1900.

Rignot, E., et P. Kanagaratnam. 2006. Changes in the Velocity Structure of the Greenland Ice Sheet. Science 311: 986-990.
Rignot et Kanagaratnam ont utilisé des données d'interférométrie radar satellitaire pour mesurer le changement de la vitesse de la glace du Groenland survenu entre 1996 et 2005 et imputable au réchauffement de l'Arctique au cours de la dernière décennie. Les résultats indiquent une accélération de l'écoulement de plusieurs gros glaciers, qui touchait le sud-est et le nord-ouest en 1996 à 2000 et a gagné le centre-est et l'ouest en 2005. En outre, la superficie touchée s'est agrandie rapidement, passant de sous 66° N à 70° N au cours de la période d'étude. Cette accélération du glacier draine l'inlandsis dans la mer. Outre qu'ils feront croître la fonte en surface et le ruissellement dans un climat plus chaud, tous ces facteurs accentueront la fonte à venir de l'inlandsis du Groenland. Les auteurs estiment que la perte de glace du Groenland a doublé dans la dernière décennie, passant de 90 à 220 km3/an, ce qui équivaut à une élévation du niveau de la mer de 0,23 à 0,57 mm/an. Comme les modèles actuels ne prennent pas en compte l'accélération glaciaire qui se produit de nos jours au Groenland, Rignot et Kanagaratnam pensent que leurs projections ne donnent que la limite basse de la contribution potentielle du Groenland à l'élévation du niveau marin.

Rignot, E., J.E. Box, E. Burgess et E. Hanna. 2008. Mass balance of the Greenland ice sheet from 1958 to 2007, Geophys. Res. Lett., 35, L20502, doi:10.1029/2008GL035417.
Étroit rapprochement entre les variations du bilan massique total de l'inlandsis groenlandais et les fluctuations du climat et lien important avec la décharge de glaces.
Une nouvelle étude établit un lien entre l'augmentation de la vitesse de fonte de l'inlandsis du Groenland et le réchauffement des températures moyennes de l'air en été depuis 15 ans. Cette étude actualise les travaux précédents des mêmes auteurs sur la perte de masse de l'inlandsis à l'aide d'une comparaison à une échelle annuelle et spatiale entre les données résolues pour la décharge de glaces et le bilan massique à la surface pour la période de 1958 à 2007. Les valeurs de la décharge des glaces ont été établies à partir des données satellitaires et des données sur l'épaisseur de la glace recueillies lors des sondages par écho radio. Le bilan massique à la surface a été établi par un modèle utilisé pour évaluer le taux de fonte et d'accumulation de la neige. Les auteurs ont estimé le bilan massique total comme la différence entre le bilan massique de surface et la décharge des glaces pour 37 unités de drainage de l'inlandsis. Depuis 1958, la variabilité temporelle du bilan massique de l'inlandsis est importante et bien corrélée avec les fluctuations du climat. Depuis 1996, le déficit massique annuel a triplé et atteint maintenant 267 gigatonnes/an. L'étude semble indiquer que les variations de la décharge des glaces occupent une place plus importante dans le bilan massique total (que la fonte en surface). De plus, il existe une étroite corrélation entre les variations de la décharge des glaces et le bilan massique à la surface.

Robock, Alan, et Haibin Li. 2006. Solar dimming and CO2 effects on soil moisture trends. Geophysical Research Letters 33, L20708, doi: 10.1029/2006GL027585
En Ukraine et en Russie, l'humidité du sol en été a augmenté significativement de 1958 au milieu des années 1990, tendance qui ne peut pas être expliquée par les seuls changements de la température et des précipitations. Les auteurs ont examiné la contribution qu'ont pu y apporter l'atténuation solaire et l'augmentation des concentrations de dioxyde de carbone, en utilisant un modèle sophistiqué de la surface des terres (version modifiée du modèle communautaire des terres 3.0). Quand on appliquait à l'expérience modélisée une atténuation lente, avec une diminution de 0,5 % par an de l'insolation entre 1961 et 1980 (et les concentrations atmosphériques de CO2 de 1960), les résultats projetaient une réduction de l'évapotranspiration de 5 % en Ukraine, et de 9 % en Russie. Ces valeurs montaient respectivement à 16 % et 20 % lorsque le taux d'atténuation était porté à -1 % par an. En répétant ces expériences avec des concentrations croissantes de CO2 telles qu'on les a observées depuis 1960, les chercheurs ont obtenu des résultats qui ne réduisaient que légèrement l'évapotranspiration par rapport à des niveaux de CO2 constants. La comparaison avec les changements observés de l'humidité du sol donne à penser que la meilleure concordance survient pour les expériences avec renforcement de l'atténuation solaire. Bien que les effets de la fertilisation par le CO2 semblent avoir été très faibles dans cette région, les auteurs font remarquer qu'ils pourraient être beaucoup plus significatifs dans les régions où l'évapotranspiration est composée surtout de transpiration primaire (p. ex. dans la forêt pluviale d'Amazonie).

Santer, B.D., Thorne, P.W., Haimberger, L. et al., 2008. Consistency of modeled and observed temperature trends in the tropical troposphere. Int. J. Climatolgy, DOI: 10.1002/joc.1756.
Une nouvelle étude révèle qu'après la correction des erreurs d'analyse, les tendances observées des températures troposphériques dans les Tropiques par rapport à celles des températures de surface sont conformes aux tendances prévues par les modèles du climat.
Ces dernières années, il y a eu de nombreux débats autour de la question de la conformité des projections des modèles avec les tendances observées des températures troposphériques. Bien que la plupart des modèles avec des forçages reflétant les changements passés des concentrations de gaz à effet de serre et d'aérosols prévoient un réchauffement des températures troposphériques plus grand que celui des températures à la surface, les analyses des données d'observation ne semblent pas montrer ce réchauffement troposphérique plus important. Cette anomalie apparente était particulièrement significative dans les Tropiques, ce qui a incité certains critiques à affirmer que cela constituait la preuve que les projections des modèles du climat n'étaient pas fiables. Une nouvelle étude menée par une équipe de 17 experts de l'analyse des données climatiques et dirigée par le scientifique américain Ben Santer, laisse maintenant entendre que ces anomalies disparaissent en grande partie lorsque les données d'observation sont corrigées de manière appropriée pour tenir compte des erreurs vérifiables. La correction des données de surface provenant des bouées océaniques et des satellites, qui a donné un réchauffement à la surface légèrement plus faible dans les régions tropicales, a été un facteur clé dans la réconciliation des données. Autre facteur important : le recours à une procédure améliorée pour corriger les données de températures troposphériques enregistrées par les satellites afin d'éliminer les biais présents d'un sous ensemble de données à l'autre provenant des différents satellites. Les résultats obtenus nous rappellent que les anomalies entre les projections des modèles et les observations peuvent souvent être attribuables à la mauvaise qualité des données d'observation ou aux méthodes utilisées pour analyser ces données.

Saunders, M.A. et A.S. Lea. 2008. Large contribution of sea surface warming to recent increase in Atlantic hurricane activity. Nature, 451:7178, pp. 557-561; Wang, C. and S.-K. Lee. 2008. Global warming and United States landfalling hurricanes. GRL, 35: L02708; doi:10.1029/2007GL032396.
Deux études récentes tentent de mieux expliquer la contribution des changements du cisaillement vertical du vent et des températures de la surface de la mer à l'activité passée des ouragans dans l'Atlantique. L'une, qui prend en compte uniquement les données de grande qualité sur les ouragans de l'Atlantique pour les 40 dernières années, note une augmentation significative de cette activité au cours de la dernière décennie. Ses auteurs concluent que les changements du cisaillement du vent et des TSM dans la principale région de formation (PRF) des ouragans peuvent expliquer la plus grande partie de la variabilité observée de l'activité, et que la seule hausse des TSM peut expliquer environ 40 % de la forte augmentation d'activité des ouragans constatée dans la dernière décennie. La seconde étude examine les relations entre ces deux facteurs et les arrivées à terre d'ouragans aux États-Unis au cours des 150 dernières années. Ses auteurs avancent que le manque d'indications d'un changement significatif à long terme de l'activité d'ouragans qui touchent terre serait dû aux effets compensateurs de l'augmentation du cisaillement du vent et de l'élévation des TSM.
Pour certains chercheurs, tant le cisaillement vertical du vent que la température de surface de la mer (TSM) sont des facteurs importants de la formation d'ouragans, mais il n'y a pas unanimité sur l'importance relative de ces facteurs dans les tendances à long terme du comportement des ouragans de l'Atlantique. Deux études récentes sont venues ajouter à cette controverse. Dans la première, Saunders et Lea, des chercheurs britanniques, utilisent un modèle statistiques pour étudier la contribution du réchauffement de l'océan et du cisaillement du vent locaux dans la principale région de formation (PRF) des ouragans de l'Atlantique à l'augmentation récente de leur activité. Les auteurs montrent que leur modèle peut reproduire environ 75 à 80 % de la variance de l'activité observée des ouragans dans l'Atlantique tropical entre 1965 et 2005 - période pour laquelle on dispose d'enregistrements très fiables sur les ouragans. Les saisons d'ouragans actives sont associées à des alizés à 925 hPa (leur indicateur substitutif pour les cisaillement du vent) inférieurs à la normale en août et septembre et à des TSM d'août et septembre supérieures à la normale dans la PRF d'ouragans de l'Atlantique. Environ 40 % de la forte augmentation d'activité des ouragans au cours de la dernière décennie peut être expliquée par la seule hausse des TSM. Les auteurs font remarquer que la capacité des modèles du climat à reproduire la relation observée entre les ouragans et les températures de surface de la mer constituera un outil utile pour évaluer s'ils peuvent fournir des projections fiables des changements à venir de l'activité des ouragans de l'Atlantique. Dans la seconde étude, Wang et Lee, des scientifiques des États-Unis, examinent les tendances sur une beaucoup plus longue période, soit de 1851 à 2006. Comme on ne dispose pas de beaucoup de données fiables sur les ouragans pour la période antérieure à 1965, ils ne prennent en compte que les données sur les ouragans qui ont touché terre aux États-Unis. Bien que les données pour ce sous-ensemble présentent encore d'importants problèmes de qualité, elles sont plus faibles que celles concernant l'activité dans la totalité du bassin de l'Atlantique. Les auteurs montrent qu'il semble y avoir eu une faible (non statistiquement significative) tendance à la baisse des ouragans touchant terre aux États-Unis au cours de cette période, malgré une élévation mondiale des TSM. Ils avancent que l'absence de tendance significative à la hausse à long terme des ouragans touchant terre est due à une augmentation du cisaillement vertical du vent dans la PRF, qui compense les effets concomitants de l'élévation des TSM. Ce renforcement du cisaillement du vent est dû à la distribution planétaire des changements des TSM, le réchauffement étant plus prononcé sur le Pacifique et l'océan Indien que sur l'Atlantique. Pendant les périodes où le réchauffement local dans la PRF des ouragans de l'Atlantique est plus marqué, le cisaillement du vent diminue et fait croître le risque d'activité d'ouragans. Donc, c'est aussi le réchauffement relatif des océans tropicaux qui déterminera si le réchauffement planétaire à venir fera augmenter ou diminuer l'activité des ouragans dans l'Atlantique.

Schiefer, E., B. Menounos et R. Wheate. « Recent volume loss of British Columbia glaciers, Canada », dans GRL, vol. 34, 2007, L16503, Interface orientée document : 10.1029/2007GL030780.
Amincissement accéléré des glaciers confirmé en Colombie-Britannique.
La perte de masse de la plupart des glaciers de montagne au cours des dernières décennies, a contribué à l'élévation du niveau de la mer et a soulevé des préoccupations concernant la réduction quant à la disponibilité de l'eau douce. Les inventaires précis des glaciers sont essentiels au suivi de la progression des changements dans les glaciers au fil du temps et à l'évaluation des implications de la perte continue des glaciers. Cette étude, menée par des chercheurs canadiens de la University of Northern British Columbia, dresse un rapport relativement à la perte de volume récente des glaciers pour toute la province de la Colombie-Britannique (C.-B.) en utilisant des modèles altimétriques numériques tirés de photographies aériennes ou provenant d'un radar spatial. Dans leur analyse, les auteurs ont souligné les biais d'élévation dans les données obtenues de la Shuttle Radar Topography Mission (SRTM). Les chercheurs examinent l'ampleur et les sources des biais d'élévation dans les altitudes de la SRTM et signalent que ceux-ci sont habituellement d'environ -12 m/km (c.-à-d. que les altitudes dérivées de la STRM sont trop basses). Pour la période entre 1985 et 1999, la vitesse d'amincissement dont la valeur des biais corrigée est de 0,78 ± 0,19 m par année, ce qui produit un taux de perte de volume annuel de 22,48 ± 5,53 km3 par année sur une couverture glaciaire estimée à 28 826 km2. Sans la correction des biais d'élévation, le changement de volume prévu est de 34,7 km3 par année (approximativement 1,5 fois plus élevé que la valeur corrigée des biais). Les auteurs mettent donc les autres chercheurs en garde concernant l'utilisation de données de la SRTM qui ne sont pas corrigées dans les études sur le changement des glaciers. Cette vitesse d'amincissement des glaciers au cours de la période de 1985 à 1999 a été comparée à la vitesse d'amincissement des montagnes côtières des deux décennies précédentes, les seules montagnes pour lesquelles des données antérieures étaient disponibles. Les auteurs signalent que la vitesse de perte des glaciers pour ces montagnes a presque doublée entre ces deux périodes de temps.

Sheffield, J. et E.F. Wood. 2007. Global trends and Variability in Soil Moisture and Drought Characteristics, 1950-2000, from Observation-Driven Simulations of the Terrestrial Hydrologic Cycle. Journal of Climate, Vol. 21. DOI:10.1175/2007JCLI1822.1.
Malgré une tendance générale à l'humidification au cours de la période 1950-2000, on a observé depuis les années 1970 une tendance à l'assèchement, pour l'ensemble de la planète et dans de nombreuses régions, surtout aux hautes latitudes nordiques, qui coïncide avec l'élévation des températures. Bien que la durée, l'intensité et la gravité des sécheresses soient régies surtout par la variabilité des précipitations, la température est maintenant de plus en plus jugée constituer un facteur important.
La sécheresse peut être considérée comme une des catastrophes naturelles les plus destructrices, en termes humains, environnementaux et économiques. Elle est causée par des extrêmes climatiques, eux-mêmes régis par la variabilité naturelle et, plus récemment, par des activités humaines. Cette étude a examiné les tendances mondiales et régionales de la sécheresse entre les années 1950 et 2000, en utilisant un indice de sécheresse basé sur l'humidité du sol pour les régions terrestres de la planète, exception faite du Groenland et de l'Antarctique. Les champs d'humidité du sol ont été dérivés d'une simulation modélisée du cycle hydrologique terrestre, régi par un ensemble de données hybride réanalyse-observation du forçage météorologique. L'étude a observé une tendance générale à l'augmentation de l'humidité du sol à l'échelle planétaire, découlant de l'augmentation des précipitations qui est particulièrement évidente sur l'Amérique du Nord. On notait aussi, cependant, des variations continentales significatives. L'étendue touchée par la sécheresse augmentait sur l'ouest de l'Afrique et le sud-est de l'Asie, mais diminuait sur l'Australie et les Amériques. À l'échelle mondiale, les variations étaient surtout liées à la variabilité de l'ENSO. L'oscillation atlantique pluridécennale semble aussi jouer un rôle important; cependant, du fait de cette échelle temporelle, la longueur de l'enregistrement (50 ans) était insuffisante pour qu'on puisse tirer des conclusions certaines quant à son rôle dans les tendances des sécheresses. Malgré une tendance générale à la baisse de l'étendue mondiale des sécheresses au cours de la période 1950-2000, les années 1970 ont vu une bascule vers une tendance à l'assèchement, tant planétaire que dans de nombreuses régions, surtout aux hautes latitudes nordiques, qui coïncide avec une élévation des températures. Même si la sécheresse est surtout régie par la variabilité des précipitations, cette étude a mis en évidence que l'effet des températures semble être devenu de plus en plus important depuis une dizaine d'années. Cette constatation suggère qu'il pourrait y avoir de plus en plus de sécheresses au 21e siècle en raison de la poursuite du réchauffement.

Stroeve, J., M. Holland, W. Meier, T. Scambos et M. Sereze. «Arctic sea ice decline: faster than forecast» (diminution de la glace marine dans l'Arctique : plus rapide que prévue). Geophysical Research Letters, vol. 34, 2007, L09501, doi: 10.1029/2007GL029703.
D'après deux études, les changements climatiques futurs, selon les prévisions de modèles climatiques, pourraient être modérés.
D'après une nouvelle analyse, la glace marine dans l'Arctique fond à un taux beaucoup plus rapide que prévu par les modèles informatiques les plus modernes. La réduction de la glace d'été est environ trente ans en avance par rapport aux prévisions des modèles climatiques. Les prévisions actuelles du retrait de la glace marine pourraient donc être sous-estimées.
Dans une étude publiée cette semaine dans la revue Geophysical Research Letters, des scientifiques américains ont comparé les changements observés quant à l'étendue de la glace marine au cours de la période de 1953 à 2006 avec des simulations produites par des modèles utilisés dans le Quatrième rapport d'évaluation du GIEC. Les auteurs ont utilisé un registre de données récemment émis pour la compilation de données sur l'Arctique issues de différentes sources. La tendance observée de l'étendue de la glace marine en septembre (conditions climatiques minimales des glaces des eaux maritimes) de 1953 à 2006 est -7,8 ± 0,6 %/décennie, trois fois plus grande que la tendance moyenne du modèle de -2,5 ± 0,2 %/décennie. Les tendances de mars n'ont pas été aussi grandes (1,8 ± 0,1 %/décennie), mais encore trois fois plus grandes que la tendance moyenne de plusieurs modèles. Bien que plus marquée, la plus importante tendance négative de tout modèle individuel utilisé était de -5,4 ± 0,4 %/décennie, ce qui est toujours beaucoup moins que la tendance observée. L'entente qualitative entre les modèles et les observations sur le plan de la diminution globale de la glace montre clairement une réaction au mécanisme de forçage des gaz à effet de serre (GES). Toutefois, étant donné qu'à titre de groupe les modèles font une sous-estimation de la réaction de la glace marine aux changements climatiques, les auteurs donnent à penser que l'Arctique pourrait devenir saisonnièrement libre de glace plus tôt que la période prévue par le GIEC de 2050 à 2100 et par la suite. Les minimums actuels de glace marine d'été sont environ 30 ans en avance par rapport aux prévisions moyennes des modèles.

Thompson, D.W., J.J. Kennedy, J.M. Wallace et P.D. Jones. 2008. A large discontinuity in the mid-twentieth century in observed global-mean surface temperature. Nature 453:646-650; Forest, C.E. and R.W. Reynolds. 2008. Hot questions of temperature bias. Nature 453:601-602; Schiermeier, Q. 2008. Climate anomaly is an artifact. Nature 453:569.
Les chercheurs signalent que des changements dans les observations des températures de l'océan à partir de navires au cours de la Seconde Guerre mondiale ont inséré un biais dans les dossiers sur les températures mondiales moyennes qui se terminaient par une anomalie artificielle abrupte de refroidissement entre 1945 et 1946. Ceci pourrait expliquer une partie de l'anomalie apparente de refroidissement au milieu du siècle notée dans les dossiers sur la température mondiale.
Depuis de nombreuses années, les experts ont tenté d'expliquer pourquoi les températures mondiales semblent s'être rafraîchies pour une période de temps au cours du milieu du XXe siècle, même si les concentrations de gaz à effet de serre augmentaient à ce moment­là. Une nouvelle étude propose que tout ce refroidissement apparent n'a pu être réel. L'équipe de chercheurs américains et britanniques travaillant à cette étude a commencé par filtrer les dossiers des températures mondiales pour éliminer les effets des fluctuations naturelles connues provoquées par les oscillations océaniques et les volcans. Il est resté une anomalie abrupte dans le dossier des données océaniques entre 1945 et 1946 qui est demeurée inexpliquée par la variabilité naturelle. Un examen plus minutieux des données a indiqué qu'avant la Deuxième Guerre mondiale, la plupart des températures en surface de la mer étaient recueillies par des navires britanniques et américains. Les études passées ont confirmé qu'il y a une différence de quelques dixièmes de un degré entre les différentes méthodes utilisées (les données américaines étant un peu plus chaudes). Cependant, au cours de la guerre, les Britanniques ont cessé de prendre la température de l'océan. La reconstitution de la base de données mondiale a dû donc principalement se fier sur les données un peu plus chaudes des Américains au cours de cette période. Lorsque les Britanniques ont recommencé leurs observations en 1945, cela a éliminé le biais plus chaud des années précédentes provoqué par l'utilisation principale des données des navires américains, ce qui a introduit un changement de refroidissement abrupt causé par l'utilisation principale des données des navires américains et donc introduit un changement de refroidissement abrupt de jusqu'à 0,3C dans les moyennes mondiales à ce moment­là. Les auteurs signalent que, bien que plusieurs autres erreurs afférentes de cueillette de données aient été corrigées, cette erreur ne l'avait pas été. Ils n'hésitent pas à signaler que puisque cette erreur n'avait aucune incidence sur les données recueilles avant 1940 ou au cours des dernières décennies, cette nouvelle donnée n'a pas d'effet sur les tendances mondiales de la température pour le siècle. Cependant, elle est importante dans les études qui tentent d'expliquer le refroidissement au milieu du siècle et dans l'utilisation des données observées pour mettre à l'essai les modèles climatiques.

Thorne, P.W. 2008. The answer is blowing in the wind. Nature geoscience on-line. Allen, R.J., and Sherwood, S.C., 2008. Warming maximum in the tropical upper troposphere deduced from thermal winds. Nature 25 May 2008;doi:10.1038/ngeo208.
Nouvel éclairage selon la prévision des tendances de la température tropicale troposphérique par l'utilisation des données sur le vent obtenues par radiosonde.
Au cours des 30 dernières années, il y a eu peu d'uniformité dans les saisies de données par radiosonde et par satellite quant à leur dossier sur le réchauffement troposphérique. Cette incertitude entre les séries de données a rendu difficile d'évaluer le rendement des modèles climatiques qui prévoient une tendance de réchauffement plus élevée dans la troposphère supérieure à comparer à la tendance de la température en surface de la Terre. Une nouvelle possibilité de recherche a été rapportée qui utilise les données du vent pour inférer le changement de la température dans la troposphère. L'utilisation de radiosondes pour prendre la température et les mesures du vent dans la troposphère existe depuis le début des années 1900. Ceci a permis aux météorologues de comprendre les processus dans la troposphère et à aider à améliorer les prévisions météorologiques. Cependant, puisque les radiosondes ont été conçues pour la prévision du climat, elles n'ont pas été conçues pour prendre des mesures à l'exactitude requise pour confirmer le comportement du modèle climatique. Dans le présent article, les chercheurs utilisent les tendances dans les vents pour inférer la température par l'application de l'équation thermal­vent. Les vents sont observés en contrôlant l'information de la radiosonde et ils sont indépendants des observations de la température. Par cette approche, les enquêteurs ont constaté une tendance de réchauffement maximale de 0,65±0,47 K par décennie dans la troposphère supérieure depuis 1970. Cette tendance de réchauffement est conforme aux prévisions du modèle et donc augmente la confiance globale dans les modèles actuels du climat mondial lorsqu'ils sont utilisés dans des applications telles que des prévisions du changement futur du climat.

Tian, J., D.M. Nelson et F.S. Hu. 2006. Possible linkages of late-Holocene drought in the North American midcontinent to Pacific Decadal Oscillation and solar activity. GRL vol.33, L23702.
Cet article, qui s'appuie sur des enregistrements paléoclimatologiques (reconstitués à partir de varves) d'un petit lac du Minnesota, porte sur les épisodes de sécheresse qui se sont produits au centre du continent nord-américain au cours des quelque 3 100 dernières années. Les résultats présentés par les auteurs correspondent à ceux d'autres études qui indiquaient que les épisodes de sécheresse n'ont pas été rares au cours de la fin de l'Holocène et que certaines de ces sécheresses auraient pu toucher l'ensemble du centre du continent nord-américain. Comparativement aux sécheresses survenues au XXe siècle, celles que font ressortir les enregistrements paléoclimatologiques auraient été plus intenses, plus longues et plus fréquentes, principalement avant l'an 300 de notre ère. De plus, les auteurs ont constaté une plus grande variabilité des épisodes de sécheresse avant l'année 1900, tandis que les valeurs pour le XXe siècle sont anormalement faibles et non typiques des 3 100 dernières années. Les auteurs ont ensuite tenté d'évaluer les mécanismes qui régissent de telles sécheresses. Ils estiment que la variabilité de la température superficielle du Pacifique Nord, par l'entremise de l'oscillation décennale du Pacifique (ODP), aurait pu avoir une incidence majeure sur le transport de l'humidité vers cette région à la fin de l'Holocène. Les auteurs ont également fait ressortir une correspondance entre les minima d'activité solaire et les périodes de précipitations et de temps plus froid.

Turner, J., A. Lachlan-Cope, S. Colwell, G.J. Marshall et W.M. Connolley. 2006. Significant Warming of the Antarctic Winter Troposphere. Science 311: 1914-1917.
Turner et al. (en collaboration avec le British Antarctic Survey) ont utilisé des ensembles récemment améliorés de données de radiosondes pour l'Antarctique, qui avaient été numérisés et soumis à un contrôle de qualité dans le cadre d'un projet du comité scientifique de recherche sur l'Antarctique. Les données proviennent de 8 stations côtières de l'Antarctique ainsi que de la station de l'île Amundsen-Scott, au pôle Sud. Les auteurs ont pu observer dans les données de radiosondage une nette tendance au réchauffement de la troposphère au dessus de l'Antarctique, le réchauffement étant maximal pendant l'hiver. La tendance des températures hivernales moyennes pour les neuf stations au cours de la période 1971-2003 indique une hausse de 0,15 oC par décennie à la surface et de 0,70 oC par décennie dans la troposphère moyenne (à 600 hPa). Les auteurs n'ont pas noté d'indication d'aucun changement de la circulation atmosphérique qui pourrait expliquer la tendance des températures; ils postulent donc que les processus in situ sont responsables de cette hausse. La capacité des MCG actuels de simuler les tendances du climat de l'Antarctique est limitée et ne permet pas d'attribuer une cause au réchauffement de la troposphère, mais les auteurs avancent l'hypothèse que la modification de la quantité et/ou des propriétés des nuages et un accroissement des gaz à effet de serre pourraient bien jouer un rôle dans ce phénomène. Le réchauffement signalé de la troposphère antarctique pendant l'hiver est plus important que tout autre élévation des températures à l'échelle régionale de la troposphère de la Terre déjà relevée.

Velicogna, I. and J. Wahr. 2006. Measurements of Time-Variable Gravity Show Mass Loss in Antarctica. ScienceExpress 2 March 2006, 10.1126/science.1123785.
Cette étude, qui met à contribution le satellite Gravity Recovery and Climate Experiment (GRACE), donne le premier relevé exhaustif de la totalité de l'inlandsis de l'Antarctique. En se basant sur 34 estimations mensuelles des champs de gravité, effectuées entre avril 2002 et août 2005, les auteurs estiment le changement de masse de l'inlandsis de l'Antarctique dans son ensemble et celui des inlandsis de l'Antarctique de l'Est (IAE) et de l'Antarctique de l'Ouest (IAO), pris séparément. Ils corrigent les champs de GRACE en fonction des erreurs internes, puis des fuites externes comme l'hydrologie continentale à l'extérieur de l'Antarctique et la variabilité de la masse océanique, et enfin des effets de relèvement postglaciaire (RPG), qui sont aussi grands que la variabilité de la glace (de l'ordre de 192 ± 79 km3/an). Les auteurs constatent ainsi que la masse de l'inlandsis de l'Antarctique a significativement diminué entre les étés 2002 et 2005, à raison de 152 ± 80 km3/an. Ce taux de perte correspond à une élévation du niveau planétaire de la mer de 0,4 ± 0,2 mm/an. Pour la même période, les résultats pour l'IAE et l'IAO sont respectivement de 0 ± 56 km3/an et 148 ± 21 km3/an; ils confirment les résultats d'autres études qui ont révélé d'importantes pertes de masse de l'IAO.

Viau, A.E., K. Gajewski, M.C. Sawada et P. Fines. 2006. Millennial scale temperature variations in North America during the Holocene. JGR 111, D09102, doi:10.1029/2005JD006031, 2006.
Une équipe de chercheurs de l'Université d'Ottawa a utilisé des données palynologiques provenant de quelque 750 sites d'Amérique du Nord pour reconstruire les tendances des températures en juillet et les régimes à l'échelle du continent depuis 14 000 ans. Ils ont constaté que les températures de juillet au cours au présent interglaciaire ont atteint des sommets il y a entre 6 000 et 3 000 ans, puis ont légèrement baissé jusqu'au XXe siècle. Les auteurs de l'étude ont ensuite superposé à cette tendance un régime de variabilité à long terme avec une fréquence d'environ 1 150 ans. Fait à noter en particulier : l'élévation observée des températures au XXe siècle ne semble avoir aucun précédent dans cet enregistrement couvrant 14 000 ans.

Vincent, L.A, et E. Mekis. Changes in Daily and Extreme Temperature and Precipitation Indices for Canada over the Twentieth Century. Atmosphere-Ocean, 44 (2) 2006, 177-193.
Le présent article fait état des travaux de deux scientifiques d'Environnement Canada (Direction de la recherche climatologique) en vue d'examiner les tendances observées au Canada dans le dernier siècle de divers indices de températures et de précipitations, en particulier les indices de phénomènes extrêmes. Ces travaux actualisent des analyses de données allant jusqu'à 2003 publiées antérieurement par des scientifiques de la DRC. Les scientifiques ont dégagé et analysé les tendances pour les périodes de 1950-2003 (sur l'ensemble du Canada) et de 1900-2003 (sur le sud du Canada) à l'aide de données homogénéisées provenant de 210 stations de mesure des températures et de 495 stations de mesure des précipitations réparties dans tout le Canada. Entre 1950 et 2003, les résultats indiquent une tendance à la hausse des épisodes chauds (nombre de jours et de nuits de chaleur) et une tendance à la baisse des épisodes froids (nombre de jours et de nuits de temps froid). Des résultats similaires ont été obtenus pour la période de 1900-2003, mais on observe en outre une réduction significative de l'amplitude thermique quotidienne pendant la même période. Le nombre de jours de gel a également baissé de façon marquée au cours des deux périodes. L'analyse des indices de précipitations pour 1950-2003 révèle une augmentation du nombre de jours avec précipitations, une baisse de l'intensité des précipitations quotidiennes et une diminution du nombre maximum de jours consécutifs de temps sec. Dans le sud, les chutes de neige totales annuelles ont considérablement diminué; en revanche elles ont augmenté dans le nord et le nord est. On peut généralement dresser un parallèle entre les changements survenus sur le siècle et ceux observés depuis 54 ans. La plupart des indices de précipitations extrêmes ne présentent aucun changement uniforme au cours de l'une ou l'autre des périodes, sauf un : une augmentation importante du nombre de jours avec fortes précipitations ( 10 mm) pendant la période 1900-2003. Les résultats concordent avec ceux des analyses des températures et des précipitations publiées antérieurement par Bonsal et al. (2001) et ceux de Zhang et al. (2001), et élargissent ces résultats, qui renforcent l'idée que le climat du Canada n'est pas tant en train de se réchauffer que de devenir moins froid, et que les augmentations observées des quantités totales de précipitations sont dues en majeure partie à la hausse du nombre de phénomènes de petite à moyenne envergure.

Vincent, L.A., W.A. Van Wijngaarden et R. Hopkinson, 2007. Surface Temperature and Humidity Trends in Canada for 1953-2005. J. of Climate, vol. 20: 5100-5113.
Une étude récente confirme que le climat se réchauffe au Canada, particulièrement dans les régions situées à l'Ouest et au Sud durant l'hiver et le printemps. C'est dans la région de la forêt boréale de l'Ouest que l'on constate le réchauffement le plus important durant l'hiver. Les grandes tendances au réchauffement s'accompagnent d'une forte augmentation des concentrations d'humidité atmosphérique.
Lucie Vincent, une scientifique d'Environnement Canada, a entrepris, avec deux autres scientifiques canadiens, d'étudier les tendances annuelles et saisonnières de la température superficielle de l'air, du point de rosée ainsi que de l'humidité relative et spécifique au Canada pour la période entre 1953 et 2005 en utilisant, pour la première fois, des valeurs horaires uniformisées. Pour ce faire, l'équipe a utilisé des données de 75 stations climatologiques. Elle a évalué les tendances pour huit régions climatiques différentes et pour l'ensemble du pays. De plus, elle a comparé les tendances saisonnières de nuit et de jour dans les huit régions en question. Dans l'ensemble, les résultats indiquent qu'il y a eu un réchauffement important au Canada (1,2 °C entre 1955 et 2005), le réchauffement le plus grand étant survenu en hiver (1,6 °C) et au printemps (1,4 °C). Le réchauffement durant la saison d'hiver a été observé principalement dans les régions canadiennes de l'Ouest et du Sud, plusieurs stations ayant affiché des augmentations de 2,5 à 4,0 °C entre 1953 et 2005. Le réchauffement le plus important (4,0 °C) a été observé dans la région de la forêt boréale de l'Ouest entre 1955 et 2005. Durant la même période, les relevés effectués au printemps indiquent un réchauffement moins marqué (de 1,5 à 2,5 °C) dans certaines stations, mais conforme à un modèle très semblable à celui du réchauffement en hiver. Dans la plupart des cas, les grandes tendances au réchauffement s'accompagnent d'une augmentation de la concentration d'humidité, ce qui démontre que les températures plus élevées permettent à l'air de retenir davantage l'humidité. Ce phénomène est particulièrement perceptible dans l'Ouest et dans les régions des Grands Lacs et du Saint-Laurent. Enfin, durant la période de 1955 à 2005, rien n'indique de façon évidente que le réchauffement observé au Canada soit plus prononcé la nuit que le jour. Ces constatations concordent avec les résultats publiés précédemment sur les tendances des températures au Canada durant une période similaire. Toutefois, l'humidité durant la nuit a augmenté un peu plus que l'humidité durant le jour, surtout au printemps et en été.

Vinnikov, K.Y., N.C. Groody, A. Robock, R.J. Stouffer, P.D. Jones et M.D. Goldberg, 2006. Temperature trends at the surface and in the troposphere. J. Geophys. Res., 111, D03106, doi:10.1029/2005JD006392.
Il arrive souvent que les sceptiques citent les tendances des températures dérivées des données satellitaires à titre de preuve qu'il existe une faible tendance au réchauffement des températures dans la troposphère. Or, ces dernières années, les scientifiques ont perfectionné l'analyse des données satellitaires, qui confirment maintenant le réchauffement de la troposphère. Pour pousser plus loin la vérification du réchauffement, le présent article fournit des données de sondeurs hyperfréquences (MSU) et établit les tendances du climat de la troposphère. À l'aide de nouvelles techniques statistiques permettant d'étalonner les mesures satellitaires, les auteurs ont constaté que la tendance des températures troposphériques est de +0,2 °C/décennie, avec un écart-type d'environ 0,05 °C/décennie. Il s'agit d'une hausse légèrement plus grande que celle des températures de surface, qui est d'environ 0,18 °C/décennie.

Wagner, T., Beirle, S., Grzegorski, M., et Platt, U. Global trends (1996-2003) of total column precipitable water observed by Global Ozone Monitoring Experiment (GOME) on ERS-2 and their relation to near-surface temperature. Journal of Geophysical Research 11, D12102, doi: 10.1029/2005JD006523, 2006.
Une étude récente a tenté de déterminer si l'humidité relative reste constante avec le changement climatique. Les auteurs ont utilisé des données de l'Expérience de surveillance mondiale de l'ozone (GOME) recueillies par le satellite de recherche européen. La méthodologie utilisée pour analyser la teneur en vapeur d'eau de l'atmosphère faisait appel à la plage rouge du spectre, ce qui augmente la sensibilité aux changements de la vapeur d'eau tant sur les terres que sur l'eau et donne une vue d'ensemble plus exacte. On a obtenu, pour la période allant de janvier 1996 à juin 2003, les valeurs totales de la vapeur d'eau précipitable de la colonne moyennées sur la planète et sur l'année, ainsi que les températures à proximité de la surface moyennées sur la planète. Les résultats ont montré que les valeurs de la vapeur d'eau précipitable totale de la colonne augmentaient d'environ 0,19 g/cm² par degré K d'élévation des températures à proximité de la surface, et jusqu'à 0,29 g/cm² dans les régions tropicales. Bien qu'on ait observé au-dessus des océans une forte corrélation entre les cartes globales des régimes des tendances pour l'eau totale et les températures à proximité de la surface, ces tendances étaient nulles et, dans de nombreux cas, inverses sur les continents. Sur la période de près de 7 ans qu'a duré l'étude, l'eau précipitable totale de la colonne a augmenté de 2,8 % à l'échelle planétaire, et on a observé une élévation de 0,175 K de la température planétaire annuelle moyenne. Comme la teneur en vapeur d'eau montre une corrélation avec le changement de la température (surtout positive mais négative dans certains cas) due à une forte rétroaction de la vapeur d'eau, cet état de choses conforte l'hypothèse que l'humidité relative reste effectivement constante quand la température à proximité de la surface change.

Wild, M., J. Grieser et C. Schär. « Combined surface solar brightening and increasing greenhouse effect support recent intensification of the global land-based hydrological cycle », dans Geophysical Research Letters, vol. 35, no L17706, doi:10.1029/2008GL034842, 2008, 5 pages.
Une étude permet d'établir un lien entre l'éclaircissement solaire et l'accroissement de l'effet de serre et l'intensification du cycle hydrologique depuis le milieu des années 1980.
Il est bien connu que le cycle hydrologique global est conduit principalement par l'énergie de rayonnement disponible sur la surface de la Terre. Dans une étude récente, les scientifiques européens ont mené une enquête sur le rôle du rayonnement solaire par rapport au rayonnement thermique dans la récente intensification du cycle hydrologique. En utilisant les observations de la surface, les mesures satellitaires et les données d'autres analyses de la période 1986-2000, ils calculent les modifications récentes du bilan radiatif de la surface et de la précipitation terrestre annuelle. Leurs résultats constituent une preuve que le réchauffement radiatif solaire et le réchauffement radiatif thermique des surfaces des terres ont contribué de manière semblable à l'intensification du cycle hydrologique depuis le milieu des années 1980. L'accroissement du rayonnement solaire a été attribué à l'« éclaircissement solaire » - la transparence accrue de l'atmosphère qui résulte, principalement, des réductions des concentrations de l'aérosol atmosphérique. L'accroissement du rayonnement thermique au niveau de la surface se produit en raison de l'effet de serre accru. Ces résultats sont intéressants puisqu'ils font en sorte de contredire ceux d'une étude précédente. (Wild et coll. 2005). Dans le travail précédent, on avait examiné la période entre les années 1960 et les années 1980, et aucune évidence d'un accroissement du rayonnement net de surface n'avait été révélée. À cette époque, l'accroissement du rayonnement thermique descendant produit par l'effet de serre semblait avoir été surpassé par le rayonnement solaire de surface décroissant (« assombrissement global »), endiguant ainsi une intensification du cycle hydrologique. Dans leur conclusion, les auteurs remarquent que des études récentes permettent de démontrer que les modèles climatiques conduits par des forçages historiques simulent des augmentations de la précipitation plus faibles que celles observées. Les résultats de la présente étude portent à croire que l'effet récent de l'éclaircissement, qui ne peut pas être reproduit entièrement dans ces simulations, peut être la raison de quelques unes de ces divergences.

Willerslev, E., Cappellini, E., Boomsma, W. et plusieurs autres auteurs. 2007. Ancient biomoelcules from deep ice cores reveal a forested Southern Greenland. Science Vol 317 6 juillet 2007 p 111 - 114.
Une nouvelle étude soulève des questions sur la contribution de l'inlandsis groenlandais à la hausse du niveau de la mer durant la dernière période interglaciaire (période chaude). L'étude démontre que le recul de l'inlandsis groenlandais avait été moindre qu'on ne le croyait et qu'il avait donc moins contribué à la hausse du niveau de la mer. Cela signifie que l'inlandsis est moins sensible au réchauffement climatique; il faut cependant être prudent puisque les chercheurs ont utilisé de nouvelles méthodes pour dater la glace.
Une étude portant sur une nouvelle méthode permettant de recréer les conditions climatiques et environnementales au Groenland il y plusieurs centaines de milliers d'années a reçu une grande couverture médiatique parce qu'elle porte sur la stabilité de l'inlandsis groenlandais dans une situation de réchauffement climatique. Le document visait principalement à mettre à l'essai une nouvelle méthode de reconstruction de la faune et de la flore passée en extrayant l'ADN et les aminoacides contenus dans les couches inférieures de la glace profonde. Les fragments d'ADN extraits ont ensuite été comparés à des séquences d'ADN connues et les chercheurs leur ont attribué une classification taxonomique. Les auteurs ont appliqué cette méthode à des carottes de glace du sud du Groenland (carotte Dye-3), du sommet central du Groenland (carotte GRIP) et d'un glacier sur l'île Ellesmere. Cette dernière carotte de glace a été incluse comme un témoin pour vérifier la contamination potentielle des carottes de glace du Groenland par de l'ADN dispersé depuis de grandes distances. Ils ont découvert que la couche de glace basale contenait de l'ADN biotique qui pouvait être utilisé pour recréer les conditions environnementales du passé. L'analyse de l'ADN biotique extrait de la carotte Dye-3 a révélé qu'il y avait déjà eu une forêt boréale nordique à cet endroit. La question clé consiste pour certain à déterminer quand cette forêt a existé. Comme il n'y a aucune méthode établie de datation de la couche de glace basale, les auteurs ont obtenu un âge approximatif en appliquant plusieurs techniques de datation. Les quatre méthodes qu'ils ont appliquées suggèrent que la glace du sud du Groenland (Dye-3) et les fragments de biote qu'elle contient avaient au moins 450 000 ans et précèdent la dernière période interglaciaire d'au moins 300 000 ans. Cela signifie que l'inlandsis groenlandais n'a pas reculé aussi loin que l'emplacement de la carotte Dye-3 au cours de la dernière période interglaciaire (il y a de 130 000 à 116 000 ans), puisqu'on y aurait retrouvé dans ce cas de l'ADN plus jeune. Si la datation est exacte, cela signifie que la contribution de l'inlandsis groenlandais à la hausse du niveau de la mer de 4 à 6 mètres au cours de la dernière période interglaciaire a été moindre qu'on ne l'a d'abord cru. La dernière évaluation du GIEC estimait à 2 à 4 mètres la contribution du recul à grande échelle de l'inlandsis groenlandais et des autres champs de glace arctiques à la hausse du niveau de la mer. Les résultats de cette étude semblent indiquer que la contribution de l'inlandsis groenlandais était moindre, ce qui implique que celle de l'Antarctique à la hausse du niveau de la mer a été plus importante que prévu, affirmation qui doit être prouvée avant d'être acceptée à grande échelle.

Zhang, X., A. Sorteberg, J. Zhang, et R. Gerdes. 2008. Recent radical shifts of atmospheric circulations and rapid changes in Arctic climate system. GRL, Vol. 35, L22701, doi:10,1029/2008GL035607.
Comprendre les changements dans la circulation atmosphérique peut aider à expliquer la rapidité du récent réchauffement de l'Arctique et pourrait être utile aux prévisions futures du changement climatique de l'Arctique.
Les changements du système climatique de l'Arctique se sont énormément accélérés ces dernières décennies, le meilleur exemple étant la disparition extrême de glace observée à la fin des étés 2007 et 2008. Il a été démontré que le changement climatique anthropomorphique est un facteur contribuant à la récente réduction de la glace de mer dans l'Arctique. Cependant, l'accélération globale des changements climatiques dans l'Arctique n'est pas clairement liée à la lente augmentation des gaz à effet de serre ni avec l'oscillation arctique nord atlantique, qui a affiché une tendance générale positive depuis 2000, mais s'est affaiblie ces dernières années. Le processus physique fondamental du changement accéléré dans l'Arctique demeure inconnu, mais il pourrait s'agir d'un changement de circulation, l'hypothèse à l'étude dans le présent compte rendu. Zhang et al. tentent de comprendre ce processus en comparant les récentes tendances climatiques aux modifications d'un vaste spectre de tendances de circulation atmosphérique au-dessus de l'Arctique. Ils utilisent dans leur étude une analyse des données de pression médiane au niveau de la mer, fournissant de simples représentations des états spatiaux des circulations atmosphériques qui changent au cours d'une période de 30 moins constants d'hiver. À l'aide de données de 1958 à 2006, les chercheurs ont constaté un transfert des centres de variabilité climatique maximale du nord-est de l'Atlantique Nord à la mer de Barents. Ils ont aussi observé des changements spatiaux systématiques de la circulation atmosphérique reflétant un changement dans la tendance OA/ONA. Ces changements des tendances de circulation seraient le résultat du transfert polaire des trajectoires de tempêtes et de l'intensification des tempêtes dans l'Arctique. Ces transferts de la circulation pourraient représenter une incitation à la récente accélération de la réponse du système climatique de l'Arctique au changement climatique et semble appuyer les arguments favorables à un point de basculement du système climatique de l'Arctique. Ces transferts spatiaux radicaux peuvent aussi être utilisés comme précurseur au changement extrême et donc être utiles aux prévisions atmosphériques futures.

Zhang, Y., W. Chen et D.W. Riseborough. 2006. Temporal and spatial changes of permafrost in Canada since the end of the Little Ice Age. Journal of Geophysical Research 111, D22103, doi:10.1029/2006JD007284.
À l'aide du modèle Northern Ecosystem Soil Temperature (NEST - modèle de la température du sol dans les écosystèmes nordiques), trois chercheurs de Ressources naturelles Canada ont simulé la réponse du pergélisol canadien aux changements du climat survenus pendant les 19e et 20e siècles. La limite sud du pergélisol modélisée pour les dernières décennies est semblable à celle de la carte publiée courante, et les valeurs simulées de l'épaisseur de la couche active et de la profondeur jusqu'à la base du pergélisol sont comparables aux valeurs des mesures sur place. Les résultats issus de l'expérience de modélisation ont montré que la superficie totale sous-tendue par du pergélisol avait diminué de 5,4 % entre les années 1850 et les années 1990, avec deux périodes de réduction rapide, des années 1920 au début des années 1940 et après les années 1950. Pour l'épaisseur moyenne de la couche active dans l'ensemble de la région canadienne de pergélisol persistant, la simulation a montré qu'elle passait de 0,65 m à 0,87 m, soit une augmentation de 34 %, alors que la profondeur jusqu'à la table de pergélisol avait aussi augmenté de 0,39 m. Il y a également eu une dégradation du pergélisol par le bas, puisque la profondeur moyenne jusqu'à la base du pergélisol a été réduite de 3 m, la plus grande partie du changement étant survenue après les années 1940. Pour les auteurs, la prochaine étape devrait être de coupler le modèle NEST avec des modèles de la biogéochimie et de la dynamique de la végétation.

Date de modification :