Cette page Web a été archivée dans le Web

L'information dont il est indiqué qu'elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n'est pas assujettie aux normes Web du gouvernement du Canada et elle n'a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Projections du changement climatique 2010

Davis, S.J., K. Caldeira et H.D. Matthews; 2010; Future CO2emissions and climate change from existing energy infrastructure. Science, 10 septembre 2010, vol. 328, p. 1330 à 1333.

La longue vie des infrastructures actuelles de transport et énergétiques signifie qu’il est probable que ces sources continueront d’émettre du CO2 pendant quelques décennies. On projette qu’à elle seule, cette « inertie infrastructurelle » conduira à une hausse de température de 1,3 °C comparativement à la période précédant l’industrialisation. Ce résultat appuie le principe selon lequel on devra prendre des mesures extraordinaires pour limiter les émissions produites par les nouvelles sources d’énergie et moyens de transport si l’on souhaite limiter la hausse mondiale de la température à moins de 2 °C.

La modélisation climatique a montré que, même si la composition de l’atmosphère demeurait fixée aux niveaux actuels, le réchauffement climatique se poursuivrait en raison de l’inertie du système climatique. Cette forme de poursuite du changement climatique est maintenant largement acceptée. Davis et coll. se concentrent sur l’inertie des systèmes des humains, en se demandant quels niveaux le CO2 et la température mondiale moyenne atteindront si aucun dispositif émetteur de CO2 additionnel (p. ex., centrale électrique ou véhicule à moteur) n’est construit, mais si tous les émetteurs de CO2 actuels fonctionnent jusqu’à la fin de leur vie normale. Écartant les possibilités d’adaptation des éléments actuels des infrastructures ou leur mise au rencart précoce, les émissions en cours représentent « l’inertie infrastructurelle ». Les auteurs ont élaboré des scénarios d’émissions mondiales de CO2 par les infrastructures actuelles qui émettent directement du CO2 dans l’atmosphère pour la période allant de 2010 à 2060 (leurs émissions avoisinant zéro à la fin de cette période) et ils ont utilisé le modèle du système climatique de la Terre (Earth System Climate Model - ESCM) de l’Université de Victoria pour produire des projections des changements résultants touchant le CO2 atmosphérique et la température mondiale moyenne. Les projections utilisées en prenant pour hypothèses des niveaux d’émissions faibles, moyens et élevés prévoient un réchauffement mondial moyen de 1,3 °C (1,1°à  1,4 °C) par rapport à l’ère pré-industrielle. Comme de nouvelles sources de CO2 seront probablement créées afin de satisfaire la demande croissante en matière d’énergie et de transport afin de satisfaire la demande croissante, le réchauffement prévu causé par les infrastructures existantes signifie que la satisfaction de ces demandes fera qu’atteindre la cible de 2 °C établie dans l’Accord de Copenhague sera un défi énorme.


Diffenbaugh, N.S. et M. Ashfaq. 2010. Intensification of hot extremes in the United States. Geophysical Research Letters, Vol. 37, L15701, doi:10.1029/2010GL043888.

Selon une récente étude de modélisation, l’accroissement des concentrations de gaz à effet de serre pourrait occasionner une intensification considérable des épisodes de chaleur extrême aux États-Unis au cours des trente prochaines années.

Diffenbaugh et Ashfaq ont utilisé un ensemble de modèles climatiques intégrant aussi bien la circulation atmosphérique à grande échelle que les interactions à petite échelle entre la surface et l’atmosphère afin d’évaluer les changements que sont susceptibles de connaître, au cours des prochaines décennies, les épisodes de chaleur extrême qui surviennent pendant la saison chaude dans la zone continentale des États-Unis. Les projections relatives au scénario A1B – un scénario d’émission intermédiaire – sont évaluées à partir d’ensembles dérivés d’un modèle climatique régional à haute résolution (le RegCM3) intégré à un modèle climatique global (MCG) couplé (le NCAR CCSM3) et comparées à un ensemble de sorties de MCG issues de 22 modèles (provenant des archives du modèle climatique CMIP3). Les projections concernant les changements que pourraient connaître les épisodes de chaleur extrême (saison la plus chaude, vague de chaleur la plus longue et température extrême maximum) sont présentées sous forme de cartes illustrant le nombre de fois où les valeurs pourraient excéder les conditions de référence (de 1951 à 1999) au cours de trois périodes distinctes, soit de 2010 à 2019, de 2020 à 2029 et de 2030 à 2039. Les simulations réalisées à l’aide du modèle régional indiquent que des valeurs dépassant la saison la plus chaude à ce jour pourraient être enregistrées dans la majeure partie des États-Unis au cours de la présente décennie (2010 à 2019). Les simulations obtenues à l’aide du MCG donnent des résultats similaires, si ce n’est que les changements projetés ne se produiraient pas aussi rapidement que dans le cas du modèle régional. Les épisodes de chaleur extrême ne cessent de s’intensifier d’une décennie à l’autre et tout indique que ce phénomène est plus prononcé dans l’ouest du pays. À titre d’exemple, les projections pour 2030-2039 indiquent que la majeure partie de l’ouest des États-Unis connaîtra au moins sept fois des saisons plus chaudes que la saison la plus chaude enregistrée à ce jour, 46 jours où la température excédera la température extrême maximale atteinte à ce jour et plus de cinq vagues de chaleur plus longues que la plus longue vague de chaleur survenue à ce jour. Des analyses plus poussées ont permis d’établir un lien entre les changements dans les épisodes de chaleur extrême et la sécheresse qui sévit dans la majeure partie des États-Unis pendant la saison chaude et qui pourrait amplifier les effets de l’augmentation des concentrations de gaz à effet de serre dans cette région du monde. Le réchauffement projeté du climat, d’ici 2040, au-dessus des températures qui prévalaient pendant l’ère préindustrielle varie de 1,8 à 2,5oC pour l’ensemble du CMIP3 et de 1,9 à 2,1oC pour l’ensemble du CCSM3 (scénario A1B). Les auteurs concluent que limiter le réchauffement climatique à 2oC de plus que les conditions qui prévalaient pendant l’ère préindustrielle pourrait ne pas être suffisant pour prévenir de dangereux changements climatiques (en l’occurrence une intensification des chaleurs extrêmes potentiellement dangereuses) dans la zone continentale des États-Unis. 


Fischer, E.M. et C. Schär. 2010. Consistent geographical patterns of changes in high-impact European heatwaves. Nature Geoscience, Vol. 3, pp 398-403, doi: 10.1038/NGEO866.

Une nouvelle étude présente les projections à haute résolution des futures vagues de chaleur à incidence élevée en Europe. Il est attendu que les répercussions sur la santé soient plus importantes dans les vallées de rivières à basse altitude et sur la côte méditerranéenne, incluant les régions urbaines densément peuplées d'Athènes, Bucharest, Marseille, Milan, Rome et Naples.

Il est estimé que la vague de chaleur de l'été 2003 a causé 40 000 décès en Europe. Fischer et Schär (2010) évaluent la probabilité future de vagues de chaleur à incidence élevée en Europe à l'aide de simulations provenant du Modèle régional du climat à haute résolution (MRC) dans le cadre de l'expérience ENSEMBLES comprenant plusieurs modèles de mise en situation. Les six MRC utilisés dans cette étude sont dictés par trois différentes exécutions du modèle climatique global (MCG) renforcées par le scénario d'émissions SRES A1B du Groupe d'experts intergouvernemental sur l'évolution du climat. Les statistiques de la température estivale quotidienne (moyenne et écart), de même que les caractéristiques de la vague de chaleur (longueur et amplitude) et les indicateurs de santé (fondés sur l'humidité, la plage des températures diurnes et la durée de la vague de chaleur) sont évalués pour trois tranches de temps de 30 ans (1961-1990; 2021-2050 et 2071-2100). Les auteurs insistent sur le fait qu'il y a une forte ressemblance générale entre les changements géographiques projetés à l'aide de différents MRC. Les résultats moyens de l'expérience ENSEMBLE laissent entendre que les plus grandes augmentations de la fréquence et de la durée des vagues de chaleur estivales auront lieu dans la région la plus méridionale de l'Europe. Par exemple, on s'attend à ce que le nombre de journées de vague de chaleur par été dans la péninsule Ibérique et la région méditerranéenne augmente d'une moyenne de deux jours pendant la période de 1961 à 1990 à 13 jours pendant la période de 2021 à 2050 et qu'il atteigne un record de 40 jours pendant la période de 2071 à 2100. Il est attendu que les répercussions les plus sévères sur la santé touchent les bassins hydrographiques densément peuplés à basse altitude dans le sud de l'Europe et les côtes méditerranéennes. Les auteurs concluent que les risques pour la santé dans ces régions peuvent en fait être plus grands que leurs projections puisque les modèles utilisés n'incluent pas les effets d'îlot thermique urbain.


Jevrejeva, S., J.C. Moore and A. Grinsted. 2010. How will sea level respond to changes in natural and anthropogenic forcings by 2100? GRL Vol. 37, L07703, doi:10.1029/2010GL042947.

Les projections de la montée du niveau de la mer d'ici 2100 à l'aide d'un modèle semi-empirique sont deux fois supérieures aux estimations du Quatrième rapport d'évaluation du Groupe d'experts intergouvernemental sur l'évolution du climat.

Les estimations de l'augmentation du niveau de la mer pour le XXIe siècle dans le Quatrième rapport d'évaluation du Groupe d'experts intergouvernemental sur l'évolution du climat étaient fondées essentiellement sur des prévisions modélisées climatiques de dilatation thermique (avec une estimation hors ligne de la contribution supplémentaire provenant de la glace terrestre en fonction des résultats modélisés climatiques). Une autre démarche est d'utiliser un modèle statistique fondé sur des relations semi-empiriques entre les changements passés qui se sont produits pour divers paramètres et les observations du niveau de la mer basées sur les marégraphes. Jevrejeva et al. utilisent ce type de modèle; dans ce cas, il est fondé sur des changements de forçage radioactif dans le passé, pour étudier la manière dont le niveau de la mer à l'échelle mondiale réagira aux futurs changements de forçage ainsi que l'influence relative des forçages naturels par rapport aux forçages d'origine anthropique. Ils rapportent que l'augmentation du niveau de la mer au XXIe siècle est clairement dominée par des forçages d'origine anthropique, même dans des scénarios de changements extrêmes en matière de forçage naturel (de grandes et fréquentes éruptions volcaniques, par exemple). La projection de l'augmentation du niveau de la mer était comprise entre 0,6 et 1,6 mètre, un résultat semblable aux résultats issus d'autres études récentes utilisant des modèles statistiques limités du point de vue des observations pour mesurer l'augmentation du niveau de la mer. Celle-ci est approximativement deux fois supérieure aux estimations fournies dans le Quatrième rapport d'évaluation du Groupe d'experts intergouvernemental sur l'évolution du climat.


Pechony, O. et D.T. Shindell. 2010. Driving forces of global wildfires over the past millennium and the forthcoming century. PNAS, Vol. 107, p. 19167-19170, DOI: 10.1073/pnas.1003669107.

Une étude récente porte à croire que le principal facteur responsable des feux de forêt dans le monde sera à l’avenir la hausse des températures, et non plus l’influence directe de l’humain, qui a été le principal facteur en cause au cours des deux derniers siècles.

Malgré les progrès réalisés en matière de suppression des feux et de capacité de lutte contre ceux-ci, la fréquence des grands feux de forêt a augmenté à l’échelle mondiale. Cette augmentation récente coïncide avec des changements du climat mondial et des activités humaines, qui ont un impact sur l’allumage et la suppression des feux, ce qui soulève des inquiétudes quant aux conséquences futures de ces changements sur les feux de forêts partout dans le monde. Cependant, l’importance relative des principaux facteurs responsables des tendances des feux à l’échelle mondiale (influences du climat et influences anthropiques directes) n’a pas été bien documentée dans le passé. Une étude récente effectuée par Pechony et Shindell (2010) explore les principaux facteurs responsables des feux de forêt à l’échelle mondiale au cours du dernier millénaire, et fournit des projections des feux de forêts futurs à l’échelle mondiale jusqu’en 2100. Les auteurs ont élaboré une méthode permettant de modéliser l’historique des feux en se basant sur des estimations de la densité de la végétation et de la population, des conditions climatiques, de la disponibilité des sources d’inflammation et des taux de suppression des feux. L’estimation des feux de forêts passés présente une bonne correspondance avec l’historique des feux reconstitué de façon indépendante pour le dernier millénaire. Le modèle a donc été utilisé pour prévoir les feux à l’avenir au moyen de simulations de climat provenant d’un modèle de circulation générale (MCG) (version AR4 du GISS) et de données sur la densité de la population et de la végétation provenant de trois des scénarios SRES du GIEC (A2, A1B et B1). Les résultats indiquent que, avant la révolution industrielle, le principal facteur responsable des feux de forêt, à l’échelle mondiale, était la quantité de précipitations, alors que ce sont les influences anthropiques directes qui ont été le principal facteur responsable pendant les 19e et 20e siècles. Les projections semblent indiquer que, à l’avenir, le principal facteur responsable des feux de forêt à l’échelle mondiale sera la hausse des températures, une forte augmentation des feux étant prévue après ~2050 pour les trois scénarios. Il est intéressant de noter que le scénario comportant les projections de température les plus élevées (A2) n’est pas celui qui donne comme résultat la plus forte activité de feux de forêt, ce qui s’explique par l’effet neutralisant qu’auront les changements de densité de population et de végétation. À l’échelle régionale, on prévoit que les changements du cycle hydrologique auront plus d’incidence sur les feux que les changements de température (qui sont censés se produire de façon beaucoup plus uniforme). Les auteurs concluent que les politiques futures de gestion des feux devront probablement tenir compte de l’incidence grandissante du climat mondial sur les tendances des feux. Cette incidence sera plus grande qu’au cours des deux derniers siècles et l’emportera sur l’influence directe de l’humain.


Solomon, S., J.S. Daniel, T.J. Sanford, D.M. Murphy, G-K. Plattner, R. Knutti et P. Friedlingstein. 2010. Persistence of climate changes due to a range of greenhouse gases. Proceedings of the National Academy of Sciences 107 (43) 18354-18359; publié avant impression, 11 octobre 2010, doi:10.1073/pnas.1006282107.

Une étude montre que le réchauffement climatique associé aux émissions anthropiques de GES autres que le CO2, telles que les émissions de méthane et d’oxyde de diazote, persiste bien plus longtemps que ne le laisse prévoir la durée de vie atmosphérique de ces substances. En conséquence, on notera une persistance du réchauffement climatique, même si les mesures d’atténuation visant les agents dont la durée de vie est plus courte contribueront à réduire le réchauffement maximal.

La réduction des émissions de gaz à effet de serre de courte durée autres que le CO2 peut entraîner une baisse rapide des concentrations de ces substances dans l’atmosphère. Celles‑ci sont donc fondamentalement différentes du CO2 atmosphérique, dont les concentrations continueront d’augmenter même si les émissions diminuent, en raison de la durée de vie très longue du CO2 dans l’atmosphère. On s’est demandé à quelle vitesse la réduction des concentrations atmosphériques de GES de courte durée entraînerait un changement du climat. L’étude réalisée par Solomon et ses collaborateurs porte sur les processus qui contribuent à la persistance du réchauffement climatique due à des gaz à effet de serre de plus courte durée, en l’occurrence le méthane et l’oxyde nitreux (leur durée de vie atmosphérique est de ~10 ans et 100 ans, respectivement). Solomon et ses collaborateurs ont utilisé un modèle du système Terre de complexité intermédiaire (Bern 2.5CC EMIC) afin de modéliser le réchauffement en surface en réaction à une augmentation des émissions de CO2, de CH4 et de N2O selon le scénario intermédiaire SRES A1B du GIEC, suivie d’une interruption soudaine des émissions en 2050. Les auteurs déterminent le réchauffement en surface pour les forçages individuels et combinés. Comme l’ont montré d’autres études, un important réchauffement climatique persiste pendant au moins 1 000 ans, en grande partie à cause des concentrations élevées de CO2 atmosphérique. Fait intéressant à noter, environ 66 % du réchauffement futur attribuable au N2O persiste 114 ans (durée de vie atmosphérique) après l’interruption des émissions, malgré le fait que les concentrations atmosphériques et le forçage radiatif qui y est associé ne représentent plus que le tiers environ des valeurs maximales. De même, environ 75 % du réchauffement futur attribuable au CH4 persiste une décennie (durée de vie atmosphérique) après l’interruption des émissions, environ 20 % du signal persistant même après 50 ans. En examinant les contributions des deux principaux facteurs – soit les effets de l’épaisseur optique et l’inertie du système climatique (attribuable à l’absorption de chaleur par les eaux profondes des océans) – les auteurs ont conclu qu’en dépit du fait que ces deux facteurs contribuaient à la persistance du réchauffement climatique due au CO2 (et, dans une certaine mesure, au CH4), la libération lente de la chaleur emmagasinée dans les eaux profondes des océans était la principale cause de la persistance du réchauffement climatique attribuable aux trois gaz. Comme le maintien d’un forçage sur une plus longue période entraîne le transfert d’une plus grande quantité de chaleur de l’atmosphère à l’océan, plus vite les émissions de GES de courte durée (et de CO2) seront réduites, plus on pourra éviter le transfert de chaleur aux eaux profondes des océans.


Zahn, M. et H. von Storch. 2010. Decreased frequency of North Atlantic polar lows associated with future climate warming. Nature, Vol. 467, p. 309-311,doi:10.1038/nature09388.

Une étude avec réduction d’échelle récente prévoit qu’une diminution du nombre d’occurrences de dépressions polaires dans l’Atlantique Nord, c.-à-d. des tempêtes violentes de taille moyenne accompagnées de vents forts et de précipitations intenses, et un décalage vers le nord de leur emplacement moyen seront liés au réchauffement anthropogénique futur.

Les dépressions polaires de l’Atlantique Nord ne sont pas bien saisies par les simulations mondiales à basse résolution du climat futur. Zahn et von Storch utilisent un modèle régional avec réduction d’échelle, qui est en mesure de simuler des dépressions polaires au-dessus de l’Atlantique Nord, pour établir des projections sur la fréquence et les caractéristiques spatiales de leurs occurrences en appliquant trois scénarios de réchauffement futur (IPCC SRES B1, A1B et A2) qui sont simulés au moyen du modèle climatique mondial ECHAM5/MPI-OM. Les projections à échelle réduite révèlent, pour les trois scénarios, une diminution du nombre d’occurrences des dépressions polaires de l’Atlantique Nord comparativement à une simulation pour la période actuelle effectuée avec le même modèle climatique. Les simulations ECHAM5/MPI-OM simulations montraient que la température troposphérique moyenne (500 hPa, oct. à mars) augmentait plus que les températures de surface (SST sans glace, oct. à mars) au-dessus de la région à l’étude. Une comparaison des températures obtenues par simulation des trois mêmes scénarios (B1, A1B et A2) au moyen d’un ensemble de modèles climatiques (CMIP3) montrait un profil vertical de réchauffement similaire. Les auteurs attribuent la diminution du nombre de dépressions polaires à un accroissement de la stabilité atmosphérique au-dessus de la région. Les changements spatiaux projetés touchant la genèse des dépressions polaires incluent des décalages des principaux centres d’activité et un décalage d’ensemble vers le nord d’environ 2de latitude, ce qui est conforme au décalage vers le pôle de la marge de la glace arctique. Cette étude constitue un rare exemple d’événement météorologique extrême dont on s’attend à ce que les occurrences diminuent au lieu de croître dans les simulations de changements climatiques anthropogéniques futurs.


Zhang, J., M. Steele et A. Schweiger. 2010. Arctic sea ice response to atmospheric forcing with varying levels of anthropogenic warming and climate variability. Geophysical Research Letters, Vol 37, L20505, doi: 10.1029/2010GL044988.

Une récente étude de modélisation laisse croire qu’il est peu probable que l’océan Arctique soit libre de glaces de mer en été avant 2050 si le réchauffement arctique est inférieur à 4 oC.

La majorité des modèles climatiques mondiaux (MCM) couplés utilisés pour le Quatrième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) sous-estiment le déclin observé ces dernières années dans l’étendue des glaces de mer en été dans l’océan Arctique. Cette sous-estimation a mené à des spéculations voulant que les déclins futurs soient plus rapides que ce qu’indiquent bon nombre des projections des modèles climatiques mondiaux. Zhang et ses collègues ont tenté de déterminer si l’océan Arctique deviendrait libre de glaces en été et, dans l’affirmative, à quel moment cela surviendrait. Pour répondre à cette question, les auteurs utilisent un modèle glace arctique-océan (qui reproduit les modèles spatiaux et temporels observés de la concentration, de l’étendue et de l’épaisseur des glaces) dans une série d’expériences menées pour la période 2010-2050. Les expériences sont menées avec deux niveaux de réchauffement anthropique futur possible pour l’Arctique (2 oC ou 4 oC) et avec deux séries de données représentant la variabilité historique du climat (température de l’air en surface dans l’Arctique entre 1948 et 2009 et entre 1989 et 2009) pour un total de quatre projections futures. Les résultats indiquent que même avec le réchauffement le plus élevé (4 oC) et une variabilité du climat similaire à celle des deux dernières décennies, lesquelles ont été relativement chaudes, l’océan Arctique ne serait pas libre de glaces en permanence en été avant 2050. Les expériences indiquent également qu’un réchauffement moins important, ou une hausse de l’ampleur de la variabilité du climat passé, viennent diminuer la probabilité que l’océan Arctique soit libre de glaces en été d’ici 2050. Le volume des glaces en été semble plus sensible au réchauffement anthropique que l’étendue des glaces en été, avec des pertes projetées d’ici 2050 allant de 71 à 92 % du volume moyen en septembre enregistré entre 1978 et 2009. Les tendances annuelles dans le volume des glaces devraient diminuer fortement jusqu’à 2025 environ, mais ce rythme s’aplanit de 2030 à 2050 en raison d’une croissance accrue des glaces durant l’hiver (les glaces plus minces ont un taux de croissance plus élevé) et d’une exportation des glaces de l’Arctique moins élevée.


Zhang, X. 2010. Sensitivity of summer sea ice coverage to global warming forcing: towards reducing uncertainty in arctic climate projections. Tellus 62A:220-227.

Les simulations des changements climatiques avec des modèles qui reproduisent le mieux les conditions actuelles des glaces de mer semblent indiquer que la couverture des glaces de mer dans l'Arctique en été pourrait dépasser le seuil de perte de 80 % dès 2030.

En général, les simulations avec différents modèles climatiques produisent des projections sensiblement différentes quant à la rapidité avec laquelle la couverture des glaces de mer dans l'Arctique réagira au futur réchauffement. Ce grand désaccord est causé principalement par des différences dans les modes de calcul du bilan massique des glaces de mer et des rétroactions connexes ainsi dans les conditions initiales des glaces de mer utilisées au début des simulations. En outre, les modèles ont également véritablement sous-estimé la rapidité de la diminution récente de la couverture des glaces de mer. Lors d'une nouvelle étude, consignée dans le journal Tellus, Xiangdong Zhang, chercheur en Alaska, a évalué les futures projections des glaces de mer en n'utilisant qu'un sous-ensemble de modèles climatiques qui étaient le plus à même de reproduire les observations passées relatives à la sensibilité de la zone des glaces de mer de l'Arctique aux changements de température de l'air à la surface. La plage d'incertitudes dans les projections des pertes de glace au cours du siècle à venir en utilisant ce sous-ensemble de modèles est bien inférieure à celle de l'ensemble plus vaste et illimité de résultats modélisés. Le sous-ensemble de scénarios limités indique aussi que la zone de glace en été dans l'océan Arctique pourrait diminuer de plus de 80 % dès 2030 et que les températures hivernales et estivales régionales moyennes de l'air à la surface vont probablement augmenter de 8,5 oC et de 3,7 oC, respectivement, d'ici 2100. 


Zickfeld, K., M.G. Morgan, D.J. Frame et D.W. Keith. Expert judgments about transient climate response to alternative future trajectories of radiative forcing. PNAS Early edition. Publié en ligne avant impression le 28 juin 2010, doi: 10.1073/pnas.0908906107.

L'avis expert d'un échantillon de chercheurs du domaine climatique a été évalué dans le but de déterminer la nature de l'incertitude dans la réaction physique du système climatique aux changements de forçage radiatif. Bien qu'un grand désaccord ait opposé les experts au sujet de l'ampleur du réchauffement climatique attendu selon les divers scénarios de forçage, il a été largement admis qu'un scénario de forçage important (c.-à-d. constant avec de fortes concentrations de gaz à effet de serre) déclencherait très probablement un bouleversement et le passage à un état climatique mondial fondamentalement différent.

Bien que les processus d'évaluation scientifique formels consistant à examiner l'importance du volume de publications analysées par des pairs soient le moyen le plus solide d'évaluer le degré de compréhension scientifique des changements climatiques, l'avis des experts peut constituer une forme d'évaluation complémentaire et utile. Un article publié récemment dans la revue Proceedings of the National Academies of Science et rédigé par une équipe d'auteurs internationaux dirigés par le scientifique canadien Kirsten Zickfeld (qui travaille actuellement à Environnement Canada) rapporte les conclusions d'une méthode de sollicitation officielle d'experts pour évaluer le point de vue d'un petit groupe de scientifiques éminents au sujet des incertitudes liées à la réaction physique du système climatique à trois différents scénarios de forçage radiatif (faible, modéré, important). Les 14 experts de renommée internationale interrogés pour cette étude comptaient deux Canadiens. Les experts ont été unanimes pour désigner la rétroaction de la couverture nuageuse comme le facteur contribuant le plus à l'incertitude liée aux futurs changements climatiques, quel que soit le scénario de forçage. Cela concorde avec les conclusions de la dernière évaluation du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) publiée en 2007. L'incidence relative d'autres processus sur l'incertitude a fait l'objet de désaccords. L'avis des experts différait notamment au sujet de l'ampleur que prendrait le réchauffement mondial en fonction de différents scénarios de forçage et du degré d'incertitude associé à ces prévisions. Par exemple, l'intervalle de confiance de 90 % lié au changement de la température moyenne à la surface du globe en 2050 par rapport à l'an 2000 (délai au cours duquel le forçage des trois scénarios était relativement similaire) s'étendait entre 0,1 °C et 3,8 °C, les estimations moyennes variant entre 0,8 °C et 1,8 °C. Cependant, un large consensus s'est établi entre les experts (13/14) quant au fait que la probabilité d'un « changement d'état de base » du système climatique, qui durerait au moins plusieurs décennies et aurait des conséquences planétaires, est ³ 50 % dans le cas du scénario de forçage important. Cette étude présente une analyse intéressante de l'ampleur et des causes de l'incertitude liée à la réaction physique du système climatique par rapport à la composition atmosphérique changeante. Si l'on considère une autre conclusion, selon laquelle les avancées permettant de résoudre ces incertitudes seront vraisemblablement modestes à court terme, cet article sert à rappeler que les stratégies de réaction aux changements climatiques devront prendre en compte ces incertitudes et les risques connexes.


Date de modification :