地球温暖化の真実: ②研究の歴史

Published: Nov. 1, 2023, 3:39 a.m. (UTC) / Updated: June 20, 2024, 6:37 a.m. (UTC) 🔖 3 Bookmarks
👍 1 👎 0

研究の歴史

実は地球温暖化に関する研究の歴史は2世紀ほど前から脈々と行われている。
この歴史について技術や理論の進展によって新たな知見が確立していった過程を概観する。人類の英知の積み重ねである科学の発展とともに地球温暖化の議論が成熟してきた経緯を説明する。

19世紀前半 ~産業革命の勃興~

地球を暖めているのは太陽光である訳で、まずはこの太陽光をよく理解することが必要になるがこれがなかなか難しい。光の研究として重要な技術はまずはプリズムで、ニュートンによる1704年の「光学」で最初にプリズムが紹介された。そこから100年、19世紀に入った1802年にこのプリズムを用いることで太陽光の暗線(フラウンホーファー線)が観測出来ることをウイリアム・ウォラストンが最初に報告した。
フラウンホーファー線とは、太陽光のプリズム分光の中に現れる暗線のことで、そこだけ光が弱い場所がある。そもそも太陽光は自然光なのでプリズムで分解すればもれなくすべての波長を見出すはずだが、実際には所々で光が弱くなっている箇所があり、それが線のように見える。当時はまだこの線が地球温暖化の理解に関係があるとは誰も知らなかった。

大気に温室効果があるということを初めて予想したのは数理物理学者でフーリエ変換で有名なフーリエと言われており、それは1820年代の論文とのことなのでほぼ2世紀前ということになる。大気は太陽から降り注ぐエネルギーに対しては透明でそれによって温まることは無いが、地球から放射されるエネルギー(赤外線)についてはこれを捉えて大気を温めているという、大気の非対称効果についての推測を行った。また、この場合に熱収支を均衡させるのに十分な赤外線放射を可能にするためには、気温を上げなければならないとフーリエは考えた。フーリエは、エネルギーバランスの原理と、入射光と出射赤外線に関する大気の非対称効果という、温室効果の本質を正しく理解していた。しかし、フーリエは温室効果を発揮する気体の特定やそのメカニズムへの理解には至っていなかった。当時は温暖化の定量的な議論を行うための様々な道具が足りていなかった。

1837年経済学者のジェローム=アドルフ・ブランキによって「産業革命」という言葉が初めて使われた。その後、1844年にフリードリヒ・エンゲルスによって広まり、アーノルド・トインビーが著作の中で使用したことから学術用語として定着した。産業革命自体は18世紀後半のイギリスに始まったとされる。地球温暖化の議論をする際には、「産業革命前の大気の$CO_2$濃度に比べて、現在はどれくらい増加した」と言った具合にベンチマークとして使われるため、産業革命は非常に重要な転換期だ。

19世紀後半

1859年、気体の構成成分のうちどの分子が温室効果を発揮するのかを特定したのは、ティンダル(Tyndall, 1859, 1861)で、窒素や酸素などの主要気体成分は長波放射を吸収しないが、水蒸気、二酸化炭素、メタン、一酸化二窒素、オゾンといった気体分子が温室効果を発揮することを突き止めた。

同じ1859年にキルヒホッフ(Kirchhoff)と化学者のブンゼン(Bunsen)は「フラウンホーファー線について」の中で、これらの暗線の波長(スペクトル)が太陽の上層部や大気中の酸素などによって吸収されてしまったスペクトルであることを示した。温暖化のメカニズムを理解するための重要な一歩が記された。

同じ1859年にキルヒホッフは「光と熱の放出と吸収の関係について」という論文で「同一温度では同一の波長の放射に対して、吸収率と反射率の比が物質の違いによらず一定となる」というキルヒホッフの法則を発表した。その研究の中で、今日でも太陽光由来のエネルギーを地表面が赤外線として跳ね返して大気がそれを吸収して温暖化をもたらす過程を説明する上で大前提となる「黒体放射」という概念が提案された。黒体放射に関する問題は言ってみれば「(測定して分かっている)一定の温度の炉があった時に、その炉の中ではどんな光のスペクトル(波長)が分布しているかを再現する数式を求めよ」、という問題だった。
そしてこの黒体放射の分布がどういうメカニズムで起きるのかという物理学的研究が後の量子力学を生じさせる強い動機となった。

1884年、シュテファン=ボルツマンの法則「熱輻射により黒体から放出されるエネルギーは絶対温度の4乗に比例する」について理論的証明が与えられた。これを用いることで太陽の表面温度がおよそ6000${}^\circ K$であることが示された。つまり、太陽から地球に降り注ぐエネルギー量を概算出来るようになった。
しかし、この法則は温度については分かるものの、放射のスペクトル分布(ある温度の時に何色の光がどの位の量放射されるのか)は分からないままであり、キルヒホッフの黒体放射についての理論は未完成のままであり、それだと温暖化における$CO_2$の役割を特定することも出来ない。

1890年代になると、アレニウスによって「大気中の$CO_2$濃度が2~3倍になると、氷期と間氷期の全球平均地表温度の差に匹敵する規模の気候変化引き起こす可能性がある」という定量的な研究結果が発表された(Arrhenius, 1896)。アレニウスは氷期と間氷期の気温差を生み出す要因として温室効果ガスがどのような役割を果たすのかに興味があった。
アレニウスの定量モデルはかなり複雑で地球のリアルな動力学を構築しようとしている野心的なものであった。アレニウスが考慮に入れた要因は以下の通りだった。

  • 長波放射の射出による冷却、及び吸収による加熱
  • 太陽放射の吸収による加熱
  • 地表面から大気への正味上向き熱輸送による加熱
  • 大気中の大規模循環によって南北方向に運ばれる熱による加熱と冷却
  • 上記の上から3つの要因が地表面上で正味ゼロとなってバランスしている

アレニウスは上記の数理モデルを様々な緯度や季節で適用してモデルのパラメータを得て、「大気中の$CO_2$濃度が2倍に増えると地球の平均気温は$5 ~ 6 {}^\circ C$上昇する」という結論を得た。これは現代の観測事実からすると大きすぎる値であるが、最初の定量分析として、また重要な問題提起が1世紀前になされたということは非常に有意義だと考えられる。
ちなみに、アレニウスはこのことから氷河期の原因は$CO_2$濃度に起因すると考えた。

20世紀前半

20世紀は量子力学の幕開けで始まった。
1900年12月14日、ドイツの物理学協会でプランク(Plank)が後に「量子力学の誕生日」と言われる発表を行った。キルヒホッフが考案した黒体放射について、ミクロなメカニズムから物理学的に説明しようとして量子力学的な考え方(量子化説)を導入し、黒体放射を理論的に説明することに成功した。これによって地球温暖化にかかる太陽光の理論的な理解は完成した。

「量子力学」(quantum mechanics)は、1920年代初頭のゲッティンゲン大学で、マックス・ボルン、ヴェルナー・ハイゼンベルク、ヴォルフガング・パウリらの物理学者のグループによって作られたもので、ボルンの1924年の論文 "Zur Quantenmechanik" が初出である。その後数年間、この理論的基礎は化学構造や反応性および化学結合に徐々に適用され始めた。この結果やっとのことで「何故、大気の主要成分である窒素($N_2$)や酸素($O_2$)は温室効果を発揮しないにもかかわらず、大気においてたった0.04%程度しか含まれない二酸化炭素($CO_2$)が強い温室効果を発揮するのか?」という素人でも気づく素朴な問について探求する道具が揃ってきた。

1920から30年代にセルビアの地球物理学者ミルティン・ミランコビッチ(Milutin Milanković)が①地球の公転軌道の離心率の周期的変化、②自転軸の傾きの周期的変化、③自転軸の歳差運動という3つの要因により、日射量が変動する周期である「ミランコビッチ・サイクル」を発見し、北極や南極の氷床の規模の変化や氷期や間氷期がおとずれたりする年代を理論上は極めて正確に求めることが出来るようになった(が、コンピュータが発展していない時代においては計算が困難だったためあまり使われなかった)。またこのミランコビッチサイクルが原因で地球の氷期と間氷期が数万年で入れ替わるサイクルが出来ていることが分かった。

1931年になってやっとハルバート(Hulbert)が、対流圏と成層圏の鉛直方向のメカニズムを考慮に入れた「大気柱の鉛直一次元モデル」を開発した。このモデルによると
$CO_2$が倍増した場合、地表面の温度は$4{}^\circ C$高くなった。この結果を得て、ハルバートもまたアレニウス同様に氷河期の原因は$CO_2$濃度に起因すると考えた。

1938年にはカレンダー(Callendar)が、「人間活動による気候への影響が起きている」ということを明確に主張し始めた。カレンダーは地表面のエネルギー収支に着目して簡単な微分方程式を用いて、$CO_2$濃度変化と地表面温度の変化の関係式を得た。この結果、$CO_2$が倍増した場合、地表面の温度は$2{}^\circ C$高くなった。このように実は1世紀弱前の科学者が既に地球温暖化の警鐘を鳴らしていたのだが、残念ながら当時の人々が真剣に受け止めるには至らなかった。

20世紀後半以降

1960年にはカプラン(Kaplan)が雲の影響を考慮に入れて、$CO_2$が倍増した場合、地表面の温度は高々$1.5{}^\circ C$の上昇に留まるという結果を得た。1963年にはメラー($M\ddot{o}ller$)が$1{}^\circ C$という結果を得た。この時代は推定を更新するたびにより低い値が発表されていたが、実は$CO_2$の濃度変化への応答は考えたが、それによって水蒸気が発揮する温暖化効果も上昇する点は上手く考慮することが出来ていなかった。

1964年には真鍋(Manabe)とストリックラー(Strickler)がより洗練されたモデル(放射対流モデル)を考案した。放射対流モデルは以下の4つのプロセスによって構成された。

  • 太陽放射の吸収
  • 長波放射の射出と吸収
  • 地表面から対流圏大気への上向き熱輸送
  • 対流圏無いでの対流による上向き熱輸送

このモデルでは大気は鉛直方向に18もの異なる層に分かれており、各層ごとに気温が計算されるため、当時のコンピューターを最大限利用した研究だった。
このモデルではまた、水蒸気による温暖化効果も計算された。結果的に $CO_2$が$300ppm$から倍増した場合、水蒸気効果が無い場合は地表面の温度は$1.3{}^\circ C$上昇、水蒸気効果がある場合は$2.3~2.4{}^\circ C$上昇するという結果となった。

ハルバートの研究から30年ほどかけて、(水蒸気を無視した場合)$CO_2$濃度が倍増した場合の地表面の温度上昇幅の推定値が$4{}^\circ C$から$1.3{}^\circ C$まで狭くなり、人類が段々と知性を高めることで敵を追い詰めていく様が見て取れるだろう

1965年には「ムーアの法則」(Moore's law)が発表されて「集積回路あたりの部品数が毎年2倍になると予測」した。
この時代以降、大気のシミュレーションはコンピューターパワーとの闘いになっていく。より複雑な現象をシミュレーションするために理論とプログラムだけ先に書いておいて、コンピューターパワーが追いついてくる時代を待つ、などということも当然に起こっていた。現在では当たり前のコンピュータを用いて実用的な天気予報を行うための研究がこの時代から始まった。一方で現代の気候についてのメカニズムを説明するモデルが大枠で出来上がってくるとその応用範囲を拡大する取組が始まる。最新のモデルが普遍的な力があるのであれば、氷河期や間氷期の気候変動も説明出来るのではないか?そしてその研究によって、地球の気候への理解が必ずや深まるはずであるというアプローチで研究が行われた。

1971年にインブリーとキップ(Imbrie and Kipp)が、最終氷期極大期の気候に関する定量解析への道を拓く研究成果を発表した。深海の堆積物に見られるプランクトンの生物相の分類と当時の海水面の温度の関係を解き明かした。こうした成果を皮切りに70年代、80年代に古気候学を定量的に、理論的に説明する取り組みがなされ、氷河期時代の大気がどのような状態だったのかが次第に明らかになっていった。しかし、ここで明らかにしたのは氷河期の大気の様相であって、どのようなメカニズムで氷期と間氷期が繰り返し入れ替わるかでは無かった。

1988年にはIPCC(Intergovernmental Panel on Climate Change:気候変動に関する政府間パネル)が設立され、気候変動に関する最新の科学的知見を取り纏め評価し、各国政府にアドバイスとカウンセルを提供する取り組みが始まり、地球温暖化が世界共通問題として確立された。

ところで大気の理論はおおよそ出来上がってきているものの、実際の地球全体の大気や地表面の実測値を集めるという仕事は一体誰がどうやってやるのだろうか?これまでは何かモデルを作った時に必要なパラメータがあれば、誰かが実証研究をしていないかを探してその値を参照して自分のモデルを作ると言った作業をしてきたが、その方法だと行き当たりばったりなところがある。しかし、一方で網羅的な実測値を得るとなると大気の実際のサンプルを測定しなければならないため、地球のあちこちで気球を飛ばして実測する、あるいは地球から宇宙に向けて実際に射出されている赤外線を人工衛星から実際に捉えて本当のところどれだけ射出しているのか確認する、といった仕事は大変な予算と時間が必要なものであることは容易に想像できる。典型的には以下のようなことが行われている。

  1. 気象観測機関のネットワーク: 各国には気象観測ネットワークが存在し、地上の気象観測所や気球、気象レーダー、気象衛星などを使用して大気の様々なパラメータを測定する。これにより、気温、湿度、気圧、風速、降水量などが観測される
  2. 気球観測: 気球を用いて大気の垂直プロファイルを得る。気球に気象観測装置を取り付け、上昇する過程で気象データを収集する
  3. 衛星観測: 人工衛星は地球全体を観測し、大気や地表面の異なる特性を測定する。これにより、広範囲での気象状況や気候変動をモニタリングする
  4. 気象飛行機: 気象研究用の飛行機を用いて、大気中の微小な粒子や気体の濃度を直接測定する

こうした取り組みは例えば「より実用的な天気予報が出来るようにするために」と言った目的を持って先進国が莫大な国家予算でつけて行う必要があり、そうした取り組みもなされていった。更に世界中で行われたそうした研究結果がバラバラに発表されている中で、その成果を地球温暖化の推定に資する形でまとめ上げて後の研究の基盤を作るという仕事も非常に重要な仕事である。

1997年に米国国立大気研究センターのキール(Kiehl)とトレンバース(Trenberth)が「地球の年間全球平均エネルギー収支」という論文で、これまでの様々な研究結果を踏まえつつ、地球のエネルギー収支の各要素について実際の値を網羅的に調べて公表している。内容は本稿の日光のエネルギー収支の章で詳しく説明する。また地球温暖化のメカニズムの章ではこの論文の結果を利用した簡単なモデルを提案した。

1999年には地球の平均気温の推定値がより厳密に与える成果が発表された。それによると1961年から1990年の世界の年平均気温は$14.0{}^\circ C$(北半球(NH)は14.6${}^\circ C$、南半球は13.4${^\circ}C$)であった。この値はその後よく参照される値として定着した。

21世紀前半

21世紀に入ってからは観測技術も計算技術も理論も飛躍的に進化した。一方で地球温暖化はより重要な国際問題として認識され、持続可能な地球環境への意識が人々に浸透していった。そうした中でIPCCは大きな役割を果たしてきた。
2021年のIPCCの「第6次報告書」を発表した。この報告書によれば、将来のシナリオ別に地球の平均気温の上昇率が短期(2021-2040年)、中期(2041-2060年)、長期(2081-2100年)それぞれ、1850~1900 年を基準として平均気温の上昇幅(${}^\circ C$)が示されている。


排出シナリオ 内容 2021-2040 2041-2060 2081-2100
非常に少ない(SSP1-1.9) $CO_2$排出が 2050 年頃又はそれ以降に正味ゼロになり、その後少な目の排出を継続 1.5 1.6 1.4
少ない(SSP1-2.6) $CO_2$排出が 2050 年頃又はそれ以降に正味ゼロになり、その後やや少な目の排出を継続 1.5 1.7 1.8
中間(SSP1-4.5) $CO_2$排出が今世紀半ばまで現在の水準で推移 1.5 2.0 2.7
多い(SSP1-7.0) $CO_2$排出量が2100年までに現在の約2倍になる 1.5 2.1 3.6
非常に多い(SSP1-8.5) $CO_2$排出量が2050年までに現在の約2倍になる 1.6 2.4 4.4

Shared Socioeconomic Pathways
  

この結果は一覧表として非常に分かり易く人々に行動を促すインパクトがある。しかし、一方でこの値は純粋に科学的な研究結果というよりも人々に行動を促すための調整や、国際間の利害など政治的な調整を経た結果であることも忘れてはならない。この成果に織り込まれていてる各種の温暖化効果が何なのか、それは十分に織り込まれているのか、など検討することなしに鵜呑みにするべきでは無い。

シリーズへのアクセス