2019年10月14日月曜日

世界規模観測網(レゾー・モンディアル)と国際政治 (Global meteorological observing system and international politics)


 現在、気象観測網は原則的に各国が国内を自前で観測し、その観測結果を世界中で共有している。そしてそのための共有の仕組みを世界気象機関(WMO)が調整している。WMOが世界中で観測を行っているわけではない。しかし、気象は地球規模の現象なので、統一された一つの組織が世界中を観測すれば良いようにも思える。もしそれができれば、本の111「国際気象機関の設立」で述べているように、観測についての細かで複雑な調整も不要でより効率的になろう。だがそうではなく、現在の形になっているのには政治的・歴史的な経緯がある。

 19世紀に気象観測を国際的に調整するための組織である国際気象機関(IMO)ができた当初は、何度か独自に世界規模の気象観測網を構築しようとたことがあった。その最初は1872年にオランダ気象研究所所長でIMOの総裁だったボイス・バロット(Christophorus Buys Ballot, 1817-1890)が行った「地表の遠隔地や島での気象台設立のための国際基金(the formation of an International Fund for the establishment of Meteorological Observatories on islands and at distant points of the Earth's surface)」の提唱だったが、多くの賛同を得ることはできなかった[1]

 1905年のインスブルックで開催されたIMOの長官会議において、テスラン・ド・ボールが、「世界規模観測網(Réseau Mondial: レゾー・モンディアル)」と命名した世界規模の気象観測網を提案した。当時でも国や地域毎の観測方法の違いは大きな課題となっており、世界中の約500の気象観測地点で統一した観測を実施し、電報で観測値を一か所に収集することが計画された。そのためにIMO1907年に「世界規模観測網の専門委員会」を設立した。しかし、おそらく費用や各国の意向によりこの計画は縮小され、一部の観測地点からの報告を後日気候値としてとりまとめることだけになった。これは「気候学の歴史(5)で述べているように世界気象記録(World Weather Records: WWR)として発行され、現在は地球温暖化問題に対する歴史的な検証データの一部となっている。

 当時、もしIMOの「世界規模観測網の専門委員会」が主導して、電報を使った気象観測データの収集が実現していたら、その後統一された一つの国際的な気象観測網が実現していたかもしれない。しかし、実際は各国の独立性、独自性の主張は強く、それを侵すような仕組みを各国は容易に認めようとはしなかった。それどころかIMOは非政府間組織であったため、各国間の気象観測結果の統一化と共有化さえ困難を極めた。交通や産業の発展に伴って、気象情報の重要性が増していた。そのため第二次世界大戦後に国際条約に基づいた政府間組織である世界気象機関(World Meteorological Organisation)が設立された。その辺の経緯は本の11章「国際協力による気象学の発展」に述べているとおりである。

 現在は、WMOで調整された合意に基づいて各国で行われている「統一的な」気象観測結果を国際的に「共有・交換」することが行われている。この典型的な例は、本の11-6「世界気象監視プログラム」で述べているように、戦後に始まったWMOの世界気象監視プログラム(World Weather Watch)である。これはアメリカのケネディ大統領(John F. Kennedy, 1917-1963)が1960年に国連総会で行った演説がトリガーになっている。これによって、世界各地の気象観測データが統一的な形でほぼ即時的に世界各国で交換・共有されることになった。このような各国に決まった作業を強いる国際協力は、考えようによっては国際政治上の特異な例かもしれない。これが可能になった背景には1960年頃の衛星による気象観測とコンピュータを用いた数値予報の発達、そして皮肉なことに当時の東西冷戦が関係している[2]

 何れにしても、本の10-2-3「数値予報への胎動」で述べているように、地域で閉じた数値予報は実質的に不可能であり、現在の数値予報の基本は全球モデルであるため、その計算には世界中の気象データが必要になる。世界気象監視プログラムにおいて各国が少し譲歩して気象観測データの共有を可能にしたことが、実は各国に気象に関しての莫大な利点や利益をもたらしている(もし他国の気象データが手に入らなかったら、現在の気象予報や気象ビジネス、気候問題がどうなるか考えていただきたい)。世界気象監視プログラムによる世界規模の気象観測網は、いまや気象災害や気候問題に対する人類の安心・安全のための基本的なインフラストラクチャーとなっている。

 そして、1905年の世界規模観測網(レゾー・モンディアル)の提案は、現在の世界気象監視プログラム(World Weather Watch)に至る第一歩だと考えられている。世界的な気象観測網とその観測に強く依存する気候問題は、昔から国際政治の最先端の部分でもある。

(次は「気温測定の難しさ」)

参照文献

[1] H. Daniel-1973-One Hundred Years of International Co-Operation in Meteorology (1873-1973), WMO Bulletin.
[2] Edwards-2013-A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming, MIT Press.

2019年10月7日月曜日

気候学の歴史(10): モデル技術を用いた気候再解析 (History of Climatology (10): Reanalysis based on Data Assimilation)


 気候の将来予測に欠かせなくなった気候モデル、地球システムモデルであるが、そのベースとなっている気象モデルの技術はこれまでの歴史的な気候データに対しても大きな変革をもたらそうとしている。本の11-5-6「プリミティブモデルの発達」で述べているように、過去数十年間の既存地点の観測値から、その期間の気象要素の全球格子点での気象データを、数学的な手法(データ同化手法: Data Assimilation)を用いて物理学的に合理的に推測することが行われている。

 これはいってみれば過去の気候の数値的な再現であり「気候再解析(Climate reanalysis)」と呼ばれている。気候再解析はこれまで観測値がなかった地域や上空を含めて、全球の格子点上の気象データを時間的・空間的にシームレスに推測する。こうやって算出した再解析値を用いれば、過去の気象や気候のイベントをあたかもタイムマシンを使ったように詳しく分析することが可能になる。気候再解析は新たな気候学研究を支えるようになってきている。

なお、このブログの「データ同化に革新を引き起こした佐々木嘉和」で、データ同化と彼の功績を補足した。

(このシリーズおわり:次は「世界規模観測網(レゾー・モンディアル)と国際政治」)

2019年10月4日金曜日

気候学の歴史(9): 気候モデルとコンピュータ (History of Climatology (9): Climate model and computer)


 気象学(数値予報)とコンピュータ発達の黎明期(ENIACなど)との関係は本の10-2-2「電子計算機(デジタルコンピュータの出現)」の所で記している。同様にコンピュータの発達は気候モデルとも密接に関連している。コンピュータ発達の初期段階では、一部の核兵器研究と高エネルギー物理学分野を除いて、気象モデルや気候モデルはコンピュータに一般的な利用者をはるかに凌ぐ計算能力を要求したため、それがコンピュータのさらなる発達を促した面がある。

 また当初のコンピュータは、ハードウェアとソフトウェアが一体となって開発されていたわけではなく、コンピュータ会社が納入したのはハードウェアだけの場合も多かった。そのため、気象や気候の研究者と研究所のスタッフは、場合によってはオペレーティングシステム(OS)を含めて必要なソフトウェア類を自らプログラミングする必要があった。気象や気候のモデル研究者は、気象や気候の専門知識だけでなく、コンピュータ動作の高度なプログラミング能力を求められることも多かった[1]。

NCAR Mesa Laboratory, Boulder, Colorado
 さらに気候モデルを走らせるためのスーパーコンピュータは、一時期日米のハイテク摩擦を引き起こした。1985年にアメリカの国立大気研究センター(NCAR)はスーパーコンピュータの入札を行い、NECSX-2が落札した。しかしアメリカ議会の圧力でSX-2を購入できず、NCARCray社のスーパーコンピュータCray-2を導入した。

 19941996年に、再びスーパーコンピュータを巡る日米のハイテク摩擦が再燃した。NCARは老朽化したCray社のスーパーコンピュータを更新するための入札を行ったが、落札したのはやはり日本のNECだった。NECのスーパーコンピュータSX-4は当時のどんなコンピュータよりはるかに高い性能を持ったベクトルマシンだった。この抜群の価格対性能比の高さは波紋を引き起こした。Cray社は米国商務省に対してNECが入札で「ダンピング」を行ったと訴えた。商務省はCray社に味方して、454パーセントの関税をNECに課した。このためNCARSX-4を購入することができなかった。

 この商務省の決定を、再び議会の圧力によるものと見た人も多かった。訴訟が起こされ、それは最高裁判所まで行ったが、1999年の最高裁判所の判決は商務省を支持した。NCARは、世界で最も高性能なベクトル・コンピュータを購入できないことを嘆いた[1]。気候科学といえども国際政治と無関係というわけにはいかないのである。

 ちなみに次世代のNECのスーパーコンピュータSX-5は、その圧倒的な価格対性能比にCray社はついていくことができず、Cray社は結局NECのSX-5OEM化して販売することになり、スーパーコンピュータを巡る日米のハイテク摩擦は終焉した。

つづく

参照文献

[1] Edwards-2013-A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming, MIT Press.

2019年10月3日木曜日

気候学の歴史(8): 気候モデルと日本人研究者 (History of Climatology (8): Climate model and Japanese researchers)

気候モデルの開発には、日本人研究者が大きく貢献している。その初期の代表格は以下の3名であろう。彼らによるモデル開発の内容は、本の10-7-2「大循環モデルの発明」と10-7-3「気候モデルへの発展」で詳しく述べたので、ここでは概略のみを記す。

真鍋淑郎

 GFDLのスマゴリンスキーは東京大学から真鍋淑郎をスカウトした。真鍋は東京大学の正野重方教授の弟子で、いわゆる「正野スクール」の一人である。地球大気の熱収支に重要な役割を果たす二酸化炭素に高い関心を持っていた真鍋は、二酸化炭素濃度が上昇していることを知って、それによって気候システムがどう変わるのかに興味を持った。それを調べるためには、熱収支に大きな影響を及ぼす水蒸気を含んだ数値モデルを開発する必要があった。

 彼は1967年に同僚のウェザラルド(Richard Wetherald)と一緒に計算量が比較的少なくて済む簡潔な1次元数値モデルを開発し、二酸化炭素濃度を当時の2倍(600 ppm)にして計算を行った。そして、平均的な雲量のもとで地球の平均気温が2.36℃上昇するという結論を出した [1]。また地表が温暖化するだけでなく、地球全体の放射バランスから成層圏が寒冷化することも示した。

 さらに真鍋らは、1960年代後半から3次元の大循環モデルを開発した。1975年にそれを用いて2倍の二酸化炭素濃度で2.93°Cの気温上昇を予測しただけでなく、水循環の活発化、放射量の変化による成層圏の寒冷化、積雪域や海氷の後退などによる極域でのより強い温暖化が起こる予測を示した [2]。このモデル計算によって、「放射強制力」 という指標を用いた温室効果の定量的な議論が可能になった。

 これらの気候研究は、気候変動についての国際的な関心を高め、政治家や民衆へも影響した。1979年には、アメリカ科学アカデミーが暫定委員会で気候モデルによる将来予測結果を検討し、気候モデルの予想する気温上昇が将来起きるという結論を政府に提出した [3]。さまざまな気候モデルを用いた地球温暖化の将来予測の研究結果から、世界気象機関(WMO)などの主導によって、1988年に「気候変動に関する政府間パネル(Intergovernmental Panel on Climate Change: IPCC)」が設立され、また1992年には地球温暖化防止のための「気候変動に関する国際連合枠組条約」の採択へとつながった。 

 地球の将来気候の予測には大きな比熱を持つ海洋と大気間の相互作用を取り入れる必要があり、そのためには大気と海洋を結合した数値モデルが必要だった。彼は1969年に海洋学者ブライアン(Kirk Bryan)と協力して簡単な大気海洋結合モデルを作った。その結果、実際に近い気温と水温の高度(深度)緯度断面の結果を示すことができた [4]。さらに1975年に彼らはより現実に近い海陸分布や水蒸気の循環を入れた大気海洋結合モデルを開発し、そのモデルは全球の平均的な気温分布、風の分布、蒸発域、降雨域などの基本的な特徴をおおむね正しく表現した [5]。これは数値モデルによって温室効果ガスなどが変化した場合の気候を予測できる可能性を意味した。現在、大気海洋結合モデルは、気候予測や地球温暖化予測において広く使われている。

荒川昭夫

 一方で、UCLAのミンツは日本の気象庁にいた荒川昭夫をUCLAに招聘した。数学に秀でた荒川は、それまでできなかったGCMでの長期間計算を安定して行える新たなモデル手法を開発した。これによってGCMは気候を数か月以上にわたって計算することが可能になった[6]。また雲の効果を数値モデルで扱うための一般的なモデルプロセス手法(Arakawa-Schubert スキーム)を開発して、これらは世界中の多くのモデルで使われた。また、UCLA気象学部出身の研究者は世界各地の研究機関に移って、そこでUCLAGCMを広めた。

 笠原彰

 笠原彰は1954年に東大地球物理学教室からテキサスA&M大学などを経て1963年にアメリカの気象学者フィリップ・トンプソン(Philip Thompson, 1922-1994)の招聘でNCARへ移った。彼はそこで同僚とともにGCMをコミュニティ化したコミュニティ気候モデルを開発した。コミュニティ化とは、モデル内の主な過程をモジュール化し、またモデルの中身について徹底した文書化を行って、複雑で大規模な気候モデルを大勢の研究者が比較的容易に利用、改修できるようにしたものである。これは今日でいうソフトウェアの「オープンソース化」という発想に似ているかもしれない。NCARは多数の大学から成る大気研究大学連合(UCAR)によって組織されており、彼らのモデルはその関連大学の多くで使われた。

 気温などの予測を行うことによって、GCMは実質的に気候モデルとなり、さらに化学物質の循環の組み込みなどを通して地球化学や生物科学(植生など)とも関わるようになった。これらに関連するような過程を組み込んだモデルは地球システムモデル(Earth System Model)と呼ばれている。地球システムモデルは、IPCCでまとめられている地球温暖化の将来予測など、近年の地球環境問題の研究に欠かせないものとなっている。

つづく

(真鍋淑郎博士のノーベル賞受賞を受けて、2021年10月6日に補筆した。)

参照文献

[1] Manabe and Wetherald (1967), Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity. Journal of The Atmospheric Sciences, American Meteorological Society, 24, 241-259.
[2] Manabe and Wetherald (1975) The Effects of Doubling the CO2 Concentration on the climate of a General Circulation Model. Journal of Atmospheric Sciences, American Meteorological Society, 32, 3-15.
[3] 田家 康 (2016) 異常気象で読み解く現代史. 日本経済新聞社. ISBN-13: 978-4532169879.
[4] Manabe and Bryan, (1969) Climate Calculations with a Combined Ocean-Atmosphere Model. Journal of Atmospheric Science, American Meteorological Society, 26, 786-789.
[5] Manabe S., K. Bryan , M.Spelman, (1975) A Global Ocean-Atmosphere Climate Model. Part I. The Atmospheric Circulation, Journal of Physical Oceanography, 5, 3-29.
[6] Spencer Weart-The Discovery of Global Warming-Arakawa's Computation Device-https://history.aip.org/history/climate/arakawa.htm

2019年10月2日水曜日

気候学の歴史(7):気候モデルの登場 (History of Climatology (7): Advent of General Circulation Model)


ノーマン・フィリップス
 回転水槽での実験のように地球上の大規模な大気の流れが普遍的な力学法則に従っているのであれば、コンピュータを使ったモデル計算で地球大気の平均的な流れを再現してみようと考えたのが、アメリカの気象学者ノーマン・フィリップス(Norman Phillips, 1923- 2019)だった。彼は第二次世界大戦の間に、空軍士官として気象学を勉強した後、シカゴ大学で数値予報実験に関わっていたアメリカの気象学者ジョージ・プラッツマン(George Platzman, 1920- 2008)の下で経験を積んだ。フィリップスは1951年にノイマンらが主催していたプリンストンにある高等研究所(Institute of Advanced Study)の気象学プロジェクトに加わるとともに、19531954年にはスウェーデンのストックホルムでロスビーのグループにも加わった。そういう意味では彼は当時最先端の数値予報のモデル開発の中心部にいた。

 ところがフィリップスは、当時開発していた数値予報のための準地衡風モデルを用いて、上記のように地球上の大気循環の再現という全く別な発想をするに至った。それは数時間から数日先の気象がどうなるかではなく、モデルを1か月近く走らせて、モデル内の風が地球の大気循環の平均的特徴を実際に再現するかどうかを調べるものだった。本の10-7-2「大循環モデルの発明」に記しているように、彼が1956年に準地衡風モデルを用いて行った計算結果は、地上風、ジェット気流、赤道から極域までの熱の正味の輸送、風の帯状分布などの現実の地球大気の基本的特徴を一部再現した。

これは気象モデルを使った計算結果が数値予報だけでなく、地球大気の物理学的メカニズム、ひいては気候のメカニズムの解明に使える可能性を示していた。このように地球大気の流れを比較的長い期間計算する数値モデルは大循環モデル(General Circulation Model: GCM)と呼ばれる。このフィリップスのモデルは、最初の実用的なGCMと考えられている。

 フィリップスによる結果は、気象学者たちにたいへんな興奮を引き起こした。数値予報の開発を牽引していた天才ジョン・フォン・ノイマン(John von Neumann, 1903 -1957)は、この成果を受けて直ちにプリンストンで会議を開催することを決め、また地球規模の大気循環解明のための研究提案を作った(「フォン・ノイマンについて(10)数値予報への貢献2」参照)。ノイマンはまもなく亡くなったが、いくつかの研究所でGCMの改善とそのモデルを使った計算実験が始まった。

 コンピュータを使ったGCMは、気候学を地域気候の特徴に重点を置いた統計科学から、全球規模の大気変動に焦点を置いた実験的な科学に変えた。それだけではなく、GCMはこれまであまり交流のなかった気象学の主な3つの分野、気象予報、力学的理論気象学、経験的な統計気候学を再統一した。[1]。そのため、GCMのようなモデルを用いた研究を気候科学と呼ぶ場合がある。

 GCMの開発が始まったが、本の「10-7-2 大循環モデルの発明」で記したように、当時GCMの開発とモデル実験を行ったアメリカの主な3つの研究所は、数値予報モデルの開発に携わったアメリカ気象局のジョセフ・スマゴリンスキー(Joseph Smagorinsky , 1924-2005)が率いる地球物理学流体力学研究所(GFDL)、ヤコブ・ビヤクネスの弟子であるイエール・ミンツ(Yale Mintz, 1916-1991)を中心としたカリフォルニア大学ロサンゼルス校(UCLA)、アメリカ気象局が1960年に設立した国立大気研究センター(NCAR)だった。そして、それぞれが特徴的な手法でGCMの開発を行った際に、その何れの研究所でも日本人研究者が大きな役割を果たすこととなった。

つづく

参照文献

[1] Nebeker-2013-Calculating the Weather, Academic Press.

2019年10月1日火曜日

気候学の歴史(6):気候学の変革 (History of Climatology (6): New evolution of Climatology)

 地球は、太陽から放射エネルギー(熱)を受けている。地球全体で見ると年平均気温はほとんど変わらないので、これは物理学の法則からみるとこの惑星が熱平衡状態であることを意味している。言い換えると、最終的に地球が太陽から受け取る熱と同量の熱を宇宙へ放射している。これは地球が熱平衡状態にある限り、たとえ地球温暖化が起こっても変わらない。

 ただし、地球が太陽から受け取る熱は熱帯や極域など地域によって異なっている。地球の気温分布を考えると、熱帯では宇宙に放射するより多くの熱を太陽から受領して、極域では太陽から受け取るより多くの熱を放射している。したがって気候システムは、熱力学エンジンとして、熱帯で受け取った余剰熱を極域へ運搬する役目を果たしている。

 それゆえ、地球の気温分布は基本的に地球の「エネルギー・バランス」で決定されている。したがって、気候を何らかモデル化することは、地球の「エネルギー収支」から始まる。この「エネルギー収支」から地球気温を計算するためには、太陽放射、地表アルベド(反射率)、大気の吸収と放射のような要素を考慮する必要がある。さらに気温分布を知るには、大気や海の流れによる熱輸送を動的に考慮する必要がある。 

 ハンの「気候学ハンドブック」以来50年以上変わらなかった気候学だが、コンピュータと数値モデルが出現すると、状況が全く変わった。その発想が変わるトリガーの一つとなったのは、本の10-7-1「回転水槽(洗い桶)実験」に記したように、回転水槽実験である。これは第二次世界大戦後にアメリカとイギリスで始まった。アメリカのシカゴ大学では実験に当初食器洗いの桶を使ったことから「洗い桶(dishpan)」実験とも呼ばれている。この実験はアナログ・モデルの一種で、地球に見立てた粘り気がある流体を満たした水槽(桶)を一定の場所を熱しながら(太陽熱に相当する)、水平に回転させる。そうすると回転速度と温度勾配の条件(つまり熱輸送の状況)によっては、地球の高・低気圧と関連するプラネタリー波に似た流れの蛇行が水槽内に形成される。

 この実験から、地球上の大規模な大気の流れは、地球独特のものではなく力学と熱力学の法則に従った普遍的な現象であることが明確になった。これは物理学を使った気候学へのアプローチ、つまり数値モデルを用いた気候研究が可能であることを示した。

つづく