Previous ToC Next

60. 地球シミュレータ後継 (2008/6/15)

5/12 地球シミュレータのリプレースの落札結果がでました。 JAMSTEC のプレスリリースによるなら

  システム概要
  ベンダー:日本電気株式会社
  方式:ベクトル型プロセッサアーキテクチャ(共有メモリ型マルチノード)
  ピーク性能※1:131テラフロップス(現行:40テラフロップス)
  アプリケーション実効性能※2:現行の2倍(予測)
  主記憶容量:20テラバイト(現行:10テラバイト)
  更新時期:平成20年度下半期
です。 SX-9 80 ノードですが、興味深いのはメモリ容量で、 20TB と、 SX-9 の仕様(1ノード当り 1TB または 512GB)には存在していない、1ノード当 り 256GB のものです。地球シミュレータは SX-6 相当 640 ノードだったのが ノード数で 1/8 なのでコンパクトで消費電力が少ないシステムになったかと 勘違いする向きもあるかもしれないのですが、そんなことはなくて消費電力は 7割程度までしか落ちていないようです。これは、 ES/SX-6 では8プ ロセッサで1ノードだったのを 16 プロセッサで1ノードとしたので1ノードが 大きくなっていることが大きな理由で、物理的にも1ノードの匡体サイズは大 きいもので、消費電力も大きくなっています。

レンタル費用は 6年レンタルで 189億とのことで、 1Tflops 当り 1.4 億です。 他のところにいれた価格よりも若干安いめな気がしますが、 NEC の公式の説 明はメモリが小さいので安い、というのだと思います。もうひとつ興味深いの は

  アプリケーション実効性能※2:現行の2倍(予測)
というところで、ピーク性能は 3.2 倍なのに実行性能は「予測値」で 2 倍に 過ぎないとなってます。これが予測であるのはとりあえずさておいて、ピーク 性能に対する実効性能が 60% まで落ちるのはどういうわけか、ということで すが、単純にには ES では(SX-8まで) B/f が4であったのが 2.5 に落ちるか らそうなるはずである、というのとあってます。なので、これは本当に予測で あって実マシンでどうという数字ではまだなさそうです。

天文台では3月に Cray XT4 と NEC SX9 が納入されて、運用が始まっています。 どちらも提案書の性能には達しているものの本来の数字にはちょっとまだ、と いうところがあるのでここで2つのマシンの直接の比較はまだしませんが、 流体系の、富士通VPPや地球シミュレータに最適化されたコードで、 Cray XT4 (Quadcore Opterion, 2.1GHzクロック)の性能はコア当りで SX-8 1プロセッサの大体 1/10 といったところになります(ばらつきはもちろ んあります)。プロセッサチップ当りで比べると大体 1/2.5 というところ、ピー ク性能に対する実効性能の比にすると、5倍程度の違いになります。

つまり、 SX-9 では、同じピーク性能の Cray XT4 と比べた実効性能の違いは、 流体系のコードで 3倍くらい、となるわけです。粒子系等では(大域 FFTを使 うものを除いて)この差はずっと小さくなりますし、流体系でもベクトル向き に最適化されたコードをスカラー向きに最適化しなおせば3倍の差はもっと小 さくなるでしょう。

とはいえ、 SX-9 には Cray XT4 にはない大きな魅力があることも確かで、そ れは 1.6Tflops, 1TB という強力な演算性能と広大なメモリを、共有メモリで 並列化するだけで利用可能である、ということです。全てのプログラムが MPI 等で分散並列化されるわけでもないので、このような機械というのはあるとあ りがたいものです。

しかし、計算のほとんどは分散メモリでできて、しかも高度に並列むけに最適 化されたものであるはずの地球シミュレータセンターで、1ノード当りの性能や メモリサイズが重要かというとそれは疑問です。地球シミュレータセンターな らまあこういう選択になるであろうというのは予想された通りだったわけです が、使ってシミュレーションする人に本当にベストな選択だったのかどうかは 難しい気がします。

例えば、ベクトル計算機は地球シミュレータ程度の演算性能はもたせ、これを 80億程度ですませてあとの 100億をスカラー機に使ったとすると、天文台や筑 波程度の価格なら 400Tflops ほどになり、並列化がちゃんとできるなら ベクトル向けに最適化されたままのコードでもこれだけで現行の地球シミュレー タの2倍程度の性能は実現できる計算になります。

計算センターとして、アプリケーション、ユーザーの多様な要求に応えること を考えると、シングルアーキテクチャで大きな機械をいれる、というのが最適 かどうかは難しい問題だと思います。もちろん、そういった計算センターがい くつもあり、(応用分野ではなくて)計算アルゴリズムやコード毎に使いわける ことができれば話は違うのですが、現在では例えば天文台の計算センターは天 文学研究者の様々な要求に応える必要があり、これは地球シミュレータセンター でも同じでしょう。

天文台では実際に複数の計算機システムを用意するという選択をしたわけです が、もちろん運用コストは計算機の種類に比例する成分があり、また 計算センターの予算の構造的な問題として、計算機レンタルの費用と運用スタッ フの費用の間の使いかたの自由度がないと、運用コストをレンタルコストの中 にいれざるを得ず、そうすると複数のアーキテクチャを混ぜたシステムの運用 をベンダー側にやって貰うことになりコスト的に見合わない、といった問題も でてくることになります。

歴史的には国立大学や国立の研究所の計算機システムの予算は「レンタル費」 として査定されており、それ以外の目的に使えなかった(独立法人化以前には) のだそうです(私が計算機センター運用に関わる以前のことなので良く知らな いですが、例えば 電子計算機借料の契約に関する要望書を参照のこと)。このような、現在となっては非合理的な予算配分のシステムが残ってい たことが国立大学や研究所の計算機センターのありかたに大きな悪影響をもた らしてきたことは明らかですが、独立法人化されてそのような制約が なくなった現在ではもう少し違う考え方をするのが計算機センターの責任であ るともいえます。
Previous ToC Next