• 検索結果がありません。

スーパーコンピュータ「京」の概要

N/A
N/A
Protected

Academic year: 2021

シェア "スーパーコンピュータ「京」の概要"

Copied!
10
0
0

読み込み中.... (全文を見る)

全文

(1)

あ ら ま し スーパーコンピュータ「京」は,文部科学省が推進する「革新的ハイパフォーマンス・コ ンピューティング・インフラ(HPCI)の構築」計画のもと,富士通が独立行政法人理化学 研究所と共同で開発した,超大規模並列スーパーコンピュータである。これまで培って きた先端技術を結集し,CPU,インターコネクトなどのハードウェア,およびOS,ファ イルシステム,運用管理ソフトウェアなどを開発した。システムの規模としてLINPACK 性能10 PFLOPSが実現できるレベルを目標とし,CPU数にして8万個以上を結合するアー キテクチャを採用している。このような大規模システムの運用には,高性能であるとと もに省電力および高い信頼性を実現することが必要である。 本稿では,システムのハードウェア構成の概要を提示するとともに,性能,電力,信 頼性という観点でどのような施策を講じたかを中心に概説する。 Abstract

RIKEN and Fujitsu have been working together to develop the K computer, with the aim of beginning shared use by November 2012, as a part of the High-Performance Computing Infrastructure (HPCI) initiative led by Japan s Ministry of Education, Culture, Sports, Science and Technology (MEXT). Since the K computer involves over 80 000 compute nodes, building it with lower power consumption and high reliability was important from the availability point of view. This paper describes the K computer system and the measures taken for reducing power consumption and achieving high reliability and high availability. It also presents the results of implementing those measures.

● 宮崎博行   ● 草野義博   ● 新庄直樹   ● 庄司文由   ● 横川三津夫

● 渡邊 貞

(2)

体の設置と運用を1か所で可能にするために消費電 力を抑えること,および,大規模システム全体の 実運用に耐え得るだけの信頼性を備えることも必 要であった。 そのため,次に述べる4点を開発目標として掲 げた。 ・科学技術計算向け高性能CPUの開発 ・超大規模並列計算機向け新インターコネクトアー キテクチャの開発 ・低消費電力 ・高信頼性・高可用性 CPUおよびインターコネクトアーキテクチャに ついては本特集掲載の別稿(2),(3)で詳説することと し,本稿では「京」システムの概要を説明し,シ ステムレベルにおける低消費電力,高信頼性・高 可用性に対する施策と成果について述べる。 「京」の計算ノード構成 まず,「京」システムの中心である,計算ノード の概要を示す。計算ノードは,CPU,メモリおよ びインターコネクトで構成されている。 「京」の計算ノード構成 ま え が き 富士通は,1977年に日本初のスーパーコンピュー タ「FACOM230-75 APU」を開発して以来30年以 上にわたり最先端のスーパーコンピュータの開発・ 提供を続けてきた(図

-1

)。その中で,プロセッサ をはじめとするハードウェアやソフトウェアなど を自社開発し,技術力を培ってきた。 その技術力を結集し,世界最高の性能を持つ超 大規模並列計算機システムとして開発したのが, スーパーコンピュータ「京」(注)である。 「京」は,文部科学省による「京速計算機システム」 開発計画に応じて富士通と理化学研究所が共同で 開発したもので,その名のとおり1秒間に1京回の 計算(浮動小数点演算,10 PFLOPS)性能を持つ ことを目標とした。また,開発に当たっては,ベ ンチマークテストにおけるピーク性能だけでなく, 実際の研究で用いられるアプリケーションでの高 い実効性能を出すことも目標とした。システム全 ま え が き (注) 理化学研究所が2010年7月に決定したスーパーコン ピュータの愛称。(1) 図-1 スーパーコンピュータ開発の歴史 FACOM230-75 APU VPP5000 AP3000 VPP500 AP1000 VP Series

ベク

トル

スカ

MP

P

PRIMERGY BX900 Cluster node HX600 Cluster node PRIMEQUEST FX1 SPARC Enterprise PRIMERGY RX200 Cluster node

x8

6

スカ

ラ機

スカ

ラ機

K computer VPP300/700 PRIMEPOWER HPC2500

ペタ

スケ

ール

ペタ

スケ

ール

∼1985 1990 1995 2000 2005 2010 2015

(3)

質を保つことが可能であり,電力などでも最善の ものを選択できるというメリットがあった。その 上で,1CPUあたり8チャネルのメモリインタフェー スを備えることで,メモリバンド幅はピーク64 G バイト/秒と競合を凌駕し,科学技術計算で必要と される高いメモリスループットを確保した。 (3) インターコネクト 計算用ネットワーク(インターコネクト)とし ては,8万ノード超の超大規模並列計算機に向けイ ンターコネクトアーキテクチャ Tofuを開発・適用 した。(5) Tofuインターコネクトは,超大規模のCPU 群をスケーラブルに接続する低レイテンシ,高 スループットの直接網インターコネクトであり, 6次元メッシュ /トーラス構成を採ることで高い可 用性,運用性を実現している(図

-3

)。Tofuでは, 拡張次元オーダによるルーティングアルゴリズム を適用することで,システム内に故障ノードを内 包する状況でもユーザに対しては故障ノードが存 在しないように1 ∼ 3次元トーラス結合したCPUグ ループを提供できる。また,ユーザに割り当てる CPUグループとして,システムの一部を切り出し た場合でも,ユーザには完全な1 ∼ 3次元トーラス 結合したCPUグループを提供できる。 「 京 」 の 計 算 ノ ー ド は, 上 記CPU/DIMMお よ びインターコネクトを実装したICC-LSI(Inter- Connect Controller-LSI)から構成される。Tofu インターコネクトは直接網であることから,ICCに は他ノード間のパケットを中継する機能が存在す る。この部分をルータ部と呼び,残りの部分をノー ド部と呼んでいる(図

-4

)。ノード部が故障すると 該当ノードを利用していたジョブだけが影響を受 けるが,一方ルータ部故障の場合は該当ノードを (1) CPU 「京」のCPUとしては,理論性能128 GFLOPSの 8コアCPUである「SPARC64 VIIIfx」を開発した (図

-2

)。(4) SPARC64 VIIIfxは富士通が開発した最先 端45 nm半導体プロセス技術を利用し,プロセス技 術と設計の両面から低消費電力化を図ったことで, 電力性能で世界トップレベルの2.2 GFLOPS/Wを 実現した。また,科学技術計算・解析に適する大 規模な命令拡張HPC-ACEを適用した上,L2キャッ シュとして6 Mバイト/12wayのセクタキャッシュ, およびハイエンドテクニカルコンピューティング サーバFX1で有効性を実証したVISIMPACT(ハイ ブリッド並列を高効率に実現するアーキテクチャ 技術)を発展的に適用することで,HPC(High Performance Computing)分野での高い実行性能 を実現した。さらに,従来別LSIで実現されていた システムコントローラ・メモリアクセスコントロー ラ(MAC)の機能をCPUに統合することで,強力 なメモリスループットと低レイテンシを実現した。 (2) メモリ メインメモリとしては,汎用のDDR3-SDRAM-DIMM(Dual Inline Memory Module)を採用し た。このDIMMはサーバやPCクラスタなどでも用 いられているコモディティなモジュールであるた め,マルチソースを可能とし,約1年の製造期間で 合計約70万枚というボリュームで安定した供給と 図-3 Tofuインターコネクト 図-2 SPARC64 VIIIfx L2キャッシュ データ L2キャッシュ データ L2キャッシュ データ L2キャッシュ データ システムバスIF システムバスIF L2キャッシュ コントロール L2キャッシュ コントロール MACMAC コア7 コア7 コア6 コア6 コア3 コア3 コア2 コア2 D D R 3 イ ン タ フ ェ ー ス D D R 3 イ ン タ フ ェ ー ス MAC MAC コア5 コア5 コア4 コア4 コア1 コア1 コア0 コア0 D D R 3 イ ン タ フ ェ ー ス D D R 3 イ ン タ フ ェ ー ス 6次元メッシュ/トーラス ノードグループ

(4)

パケットの中継点として利用していた全てのジョ ブへ影響がある。ルータ部の故障率は回路物量に ほぼ比例するため,ノード部の故障率より圧倒的 に低い。このことから,影響の差異に応じてICC-LSIの故障を分類し,かつ故障発生時のリアクショ ンを変えることで,ノード部故障の場合にはシス テムの動作を継続する仕組みを実現している。 「京」のラック構成 「京」の計算ノードは,専用に開発されたラック に搭載される。ラックには,計算ノードを四つ実 装するシステムボード(SB)(図

-5

)を24枚,シ ステムブートやファイルシステムアクセスのため のIO用ノードを一つ実装するIOシステムボード (IOSB)を6枚搭載でき,合計で102ノードが1ラッ クに搭載される。 計算ノードおよびIOノードに使用されるCPU/ ICCおよび電源パワーデバイス用の素子には水冷 を適用し,ラック側に搭載した水冷配管および水 冷ホースから各SB/IOSBへ冷却水を供給してい る。水冷を適用した理由は,システムの信頼度確 保と実装の高密度化,低消費電力化(リーク電流 減)のためである。SB/IOSBに搭載されるDIMM 「京」のラック構成 は汎用品を使用するため空冷されるが,ボードを 横向きに実装したため風向も横向きにしなければ ならない。しかし,ラック同士も高密度に配置さ せるため,SBをラック内で斜めに実装させること で,角度のついた部分の前面から吸気し,SBを通 しDIMMを冷却した後,後面から排気する構造と した(図

-6

)。 「京」では,ラックに搭載される6IOノードを3種 類の用途に分けて定義している。 ・Boot-IOノード(BIO):2ノード ・Local-IOノード(LIO):3ノード ・Global-IOノード(GIO):1ノード 図-4 ノード部/ルータ部の概念 図-5 システムボード・IOシステムボード

MAC: Memory Access Controller ICC: InterConnect Controller TNI: Tofu Network Interface コア コア コア コア コア コア コア コア L2キャッシュ コントロール MAC MAC MAC MAC L2キャッシュ データ DIMM DIMM DIMM DIMM DIMM DIMM DIMM DIMM システム バスIF PCIe コア PCIeコア TNI TNI TNI TNI ク ロ ス バ ポート CPU ICC Tofu インターコネクト メモリ ノード部 ルータ部 システム バスIF ポート ポート ポート ポート ポート ポート ポート ポート ポート PCIe ICC CPU メモリ メモリ メモリ CPU システムボード IOシステムボード PCIe ライザ

(5)

また,ラックには電源ユニット(PSU),空調ファ ン,およびシステム制御機構(SP)を搭載しており, それぞれが冗長構成を採ることで単一故障による ラックのダウンを防いでいる。 「京」のシステム全体構成 「京」の計算ラックは,システム全体で864ラッ クによって構成される。図

-7

に示すように計算 ラックは隣接2ラックでZ軸接続(IOノードを含め 17ノード)を構成する。計算ラック4ラックに対 してディスクラックを1ラックの割合で,Y軸方向 (横方向)に45ラック(計算ラック:36ラック,ディ スクラック:9ラック)を配置する。また,X軸 方向には24ラックを配置し,フロア全体では24× 45の長方形に配置している。ディスクラックには ローカルディスクを12台搭載し,各ローカルディ スクにはX軸方向に隣接するLIOの2ノードが接続 される。 「京」システムは,計算ラックやディスクラッ ク,並列ファイルシステムだけで構成されるので 「京」のシステム全体構成 BIOノードは,「京」ラック内に実装されるシ ステムブート用ディスク(ETERNUS DX80)と 8G-FCインタフェースで接続されている。BIO自 身はディスクブートにより起動し,ラック内の残 り100ノードに対するTofu経由のブートサーバとし て動作する。(6) ラック内の二つのBIOノードは運用 系・待機系としての役割を持ち,運用系故障時に は待機系BIOがブートサーバの役割を担う。 LIOノードは,「京」ラックと隣接して設置され るディスクラックに搭載されるローカルディスク (ETERNUS DX80)と接続される。 GIOノードは,Infi niBand-QDRインタフェース を1本持ち,外部グローバルストレージシステムに 接続される。これらストレージシステムは,大規 模かつ高性能,高信頼なファイルシステムとして

FEFS(Fujitsu Exabyte File System)(7)を採用し,

LIOまたはGIOがダウンした場合は隣接する別ラッ クに搭載されるLIO/GIOのパスを経由してファイ ルシステムへのアクセスを継続可能な構成を採っ ている。 B断面 A断面 前面 背面 IOSB ×6 電源 システムディスク ファン ファン SB ×12 SB ×12 水 冷 配 管 電源 IOSB IOSB部の空気の流れ (B断面) 前面 背面 SB部の空気の流れ(A断面) 前面 背面 SB SB 図-6 ラック実装および冷却風向

(6)

を大幅に低減した。 LSIの消費電力削減のためにクロックゲーティ ング設計を行うと負荷変動がより顕著となるため, 電源の過渡応答特性を改善することが重要な課題 となった。過渡応答特性改善と大規模ラックへの 効率的な電源供給,そして高密度実装を両立する ため,中間バスコンバータ方式を採用した。過渡 応答特性改善のために負荷の近傍へ非絶縁タイプ の小型POL(point of load)電源を配置し,一方筺 体全体へ効率良く電源供給するために筺体電源か ら各SBへは48 V給電としている。SB上には絶縁型 バスコンバータを搭載することで48 Vを降圧して POL電源へ電力を供給している。このような方式 にすることで,絶縁トランスの個数を減らすこと ができ,高効率でかつ高密度な電源供給系を実現 した。 はなく,システム管理,ジョブ管理のための周辺 サーバハードウェアおよび運用管理ソフトウェ アによる制御が必要不可欠である。(8) また,故障 時のハードウェア交換に際し,リモート通報シス テムおよび保守サーバによる保守オペレーション が行われる。理化学研究所に設置されている「京」 システム全体の概略を図

-8

に示す。 システムレベルの省電力施策 「京」システム全体での低消費電力化のため,ま ずCPU/ICCの開発において徹底的な省電力化を 行った。クロックゲーティングによるダイナミッ ク電流の削減,およびHigh-Vthトランジスタの採 用で,動作周波数は2.0 GHzに抑えリーク電流を大 幅に低減した。(9) さらにリーク電流はジャンクショ ン温度が高くなると急激に増加する特性があるこ とから,水冷を採用しジャンクション温度を通常 の85℃から30℃にまで落とすことで,リーク電流 システムレベルの省電力施策 図-7 計算ラック構成 SB×12 SB×12 SB×12 SB×12 システムディスク システムディスク IOSB×6 X軸ケーブル Y軸ケーブル IOケーブル ディスク ラック 36ラック+9ディスクラック+通路(2か所) ローカルディスク IOSB×6 ローカルディスク ローカルディスク ローカルディスク ローカルディスク ローカルディスク ローカルディスク ローカルディスク ローカルディスク ローカルディスク ローカルディスク ローカルディスク Z軸ケーブル X Y 24ラ ッ ク

(7)

● 高信頼性施策 高信頼に対しては個々の部品の信頼度を上げる ことと,部品の利用方法により信頼度を上げる取 組みを行っている。システムの信頼性を向上させ る取組みについては, ・ジョブ運用の継続 ・システム可用性確保 という二つの枠組みで捉えている。表

-1

では,ジョ システムレベルの高信頼性・高可用性施策 SOC(System-on-a-Chip)とすることで,LSI 上の回路量は増大する一方で,LSI以外の部品点数 は減少する。よって大規模LSIの故障率がシステム のそれに占める割合は年々大きくなっており,大 規模LSIの故障率を低減することは「京」システム の安定運用において大変重要な意味を持つ。 システムレベルの高信頼性・高可用性施策 図-8 システム全体の概略 x16 : OS LAN(管理用) セキュアパーティション構成(最大2) x864 保守ノード PG RX300 2CPU(E5620) 12GB MEM DX80 39.5 TB x12 x16 x4 x8 x4 x2 x45 グローバル FS 用 OSS ノード群(31 PB) x180 x1620 x180 グローバル FS 用 MDS ノード PQ 1800E 8CPU(E7540) 512 GB MEM グローバル FS 用 MDS ノード PQ 1800E 8CPU(E7540) 512 GB MEM x48 x20 台(300 TB) x16 x52 x16 ストレージクラスタ 管理ノード PG RX300 2CPU(E5620) 12 GB MEM ストレージクラスタ 管理ノード PG RX300 2CPU(E5620) 12 GB MEM x4 x2 x4 x4 x6 x8 x72 x144 x10 利用者ネットワーク環境 利用者 ユーザ持込ディスク (NASサーバなど) Pre/Post 処理 ノード PQ 1800E 8CPU(X7560) 1 TB MEM x36 x20 x10 x20 x4 x4 x4 x4 ユーザ持込ディスク (NASサーバなど) 利用者 ジョブ管理 ノード PG RX200 2CPU(X5680) 24 GB ジョブ管理 ノード PG RX200 2CPU(X5680) 24 GB x4 x4 ログインノード PG RX300 2CPU(E5620) 72 GB MEM 管理者端末 : InfiniBand(IB) GigabitEther : FibreChannel 凡例 x5184 x10 368 : 10 GigabitEther 制御ノード PG RX300 2CPU(X5680) 96 GB MEM 制御ノード PG RX300 2CPU(X5680) 96 GB MEM ログインノード PG RX300 2CPU(E5620) 72GB MEM ジョブ管理 ノード PQ 1800E 8CPU(X7560) 64 GB MEM ジョブ管理 ノード PQ 1800E 8CPU(X7560) 64 GB MEM DX80 1.02 TB DX80 14.4 TB PQ : PRIMEQUEST PG : PRIMERGY DX80 : ETRNUS DX80 管理者端末 管理者端末 M3000 : SPARC Enterprise M3000 ローカル FS 用 MDS ノード PQ 1800E 8CPU(E7540) 256 GB MEM ローカル FS 用 MDS ノード PQ 1800E 8CPU(E7540) 256 GB MEM テープ 装置 DX80 4.25 TB ローカル FS 用 MDS ノード PG RX300 2CPU(X5680) 72 GB MEM ローカル FS 用 MDS ノード PG RX300 2CPU(X5680) 72 GB MEM SAS IA 機用 ダンプ解析ノード PG RX300 2CPU(E5620) 192 GB MEM /data 用 x4 x4 利用者ネットワーク環境 x4 台(60 TB) x48 432 キャビネット,864 ラック,82 944 計算ノード,5184 IO ノード,(11.280 PFLOPS),216 ディスクラック(11 PB) X軸 24キャビネット(39.2 m) Y軸 18キャビネット(36ラック) +9ディスクラック +通路(2か所) (37.6 m) 本体システム(ユニットA本体) 管理用ネットワーク[GigabitEthernet] 制御用ネットワーク[GigabitEthernet] 管理用ネットワーク[GigabitEthernet] (セキュアパーティション用ネットワーク) 1IOグループ= 4計算ノードラック+1ディスクラック 1キャビネット ディスク ラック 57.6 TB ディスク ラック 57.6 TB 計算ノード ラック 12 TFLOPS 計算ノード ラック 12 TFLOPS 計算ノード ラック 12 TFLOPS 計算ノード ラック 12 TFLOPS x4 x10 フロントエンドネットワーク フロントエンドネットワーク [GigabitEthernet] [GigabitEthernet] L2スイッチ L2スイッチ ロードバランサ BIG-IP 8900 ロードバランサ BIG-IP 8900 x10 x10 x2 x2 x5 予備ノード PG RX300 2CPU(E5620) 72GB MEM x4 x2 x2 制御ノード PG RX300 2CPU(E5620) 24 GB MEM 制御ノード PG RX300 2CPU(E5620) 24 GB MEM x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 ジョブ管理 サブノード PG RX200 2CPU(E5620) 12GB MEM ジョブ管理 サブノード PG RX200 2CPU(E5620) 12GB MEM x2 x2 x2 x2 システム 統合ノード PG RX200 2CPU(E5620) 12 GB MEM x4 x4 x2 x2 x2 x2 x2 x6 x2 SPARC 機用 ダンプ解析ノード M3000 1CPU(2.75 GHz) 16 GB MEM システム バックアップノード PG RX300 2CPU(E5620) 48 GB MEM データ転送用ネットワーク[InfiniBand QDR] x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 外部中継 ノード PG RX300 2CPU(E5620) 12 GB MEM 外部中継 ノード PG RX300 2CPU(E5620) 12 GB MEM x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 x2 x4 x2 x2 x4x4 x2 x8 x2 x2 x8 x8 x2 x8 x8 x2 x8 x2 x2 x2 x2 x16 台(688 TB) グローバル FS 用 OSS ノード PG RX300 2CPU(X5680) 192 GB MEM グローバル FS 用 OSS ノード PG RX300 2CPU(X5680) 192 GB MEM SN200 M600 SN200 M600 x8 x8 x16 x16 x2 x2 x2 x2 x2 x2 x2 : Management LAN : OS LAN(制御用) : OS LAN(そのほか) 利用者管理 ノード PG RX200 2CPU(E5620) 48 GB MEM DX80 6.52 TB x2 DX80 14.81 TB 14.81 TBDX80 x2 x2 ジョブ管理 サブノード PG RX200 2CPU(E5620) 12 GB MEM ジョブ管理 サブノード PG RX200 2CPU(E5620) 12 GB MEM 保守ノード PG RX300 2CPU(E5620) 12 GB MEM ログインノード PG RX300 2CPU(E5620) 72 GB MEM 予備ノード PG RX300 2CPU(E5620) 72 GB MEM /home 用 DX80 1.02 TB 80 TB 80 TB DX80 15 TB 15 TBDX8080TBTB80 DX80 43TB DX80 43TB DX80 43TB DX80 43TB DX80 43TB DX80 43TB DX80 43 TB DX80 118 TB DX80 12.8 TB DX80 12.8 TB DX80 10.8TB DX80 10.8TB DX80 4.25TB DX80 4.25 TB 表-1 冗長構成/活性交換による高信頼化 主要部品 冗長構成 活性交換 筺体電源 Yes Yes 冷却用ファン Yes Yes サービスプロセッサ(SP) Yes(二重化切替え) Yes システムボード(SB/IOSB) No ⇒ B軸で故障回避 Yes CPU/ICC No ⇒ 水冷,リトライ,ECCで改善 (SB活性交換) POL電源 No ⇒ 水冷で信頼度確保 (SB活性交換) 中間コンバータ Yes (SB活性交換) DIMM No ⇒ 拡張ECCで救済 (SB活性交換) システムディスク Yes ⇒ コントローラ,電源は冗長HDDはRAID5+ホットスペア Yes(モジュール)

(8)

標に閉じるよう,SB上にはA軸・C軸接続を持たせ, B軸接続がSBの外に出るよう実装した。 また,前述したIOノード3種については,IOノー ド故障で配下計算ノードのIOパスが使えなくなら ないよう,IOパス冗長として共通の接続先を持つ 交替IOノードを用意しておき,計算ノード群は Tofu経由で交替IOノードへアクセスを継続できる よう構成されている(図

-10

)。BIOはラックに2ノー ブ運用継続観点から主要部品の冗長構成による運 用継続性を担保し,システム可用性観点では活性 交換によるシステム全体停止を伴わない故障部品 交換により可用性を担保することを示している。 ジョブ運用継続観点では,ハードウェア冗長構 成,1ノード1CPU構成などによる部品点数の削減, ECC(Error Correcting Code)やリトライによる エラー訂正,およびLSIやPOL電源を水冷し稼働温 度を低減させることによる半導体故障発生率低減 の施策を行い,故障発生によるノードダウン・ジョ ブダウンが起きる確率を下げている。Tofuケーブ ルとして電気ケーブルを採用したこともジョブ運 用継続性を高めるための施策の一つである。 ● 高可用性施策 システム可用性確保の観点では,6次元メッシュ / トーラスによる故障ノード回避の仕組みをSB故 障・活性保守時にも拡張して適用できるように, SB1枚4ノードの縮退でも迂回ルーティング可能に なるようなSB内Tofu座標配置を持たせた。具体的 には,図

-9

のようにSB上の4ノードが同一Y,B座 図-10 IO冗長パス FC N/C システムディスク ローカル ディスク ローカル ディスク ディスクラック BIO ノード GIO ノード BIO ノード ローカル ディスク ローカル ディスク ローカル ディスク システムディスク ローカル ディスク LIO ノード LIO ノード LIO ノード FC GbE FC N/C FC GbE IB N/C N/C GbE FC N/C FC GbE FC N/C FC GbE FC N/C FC GbE FC N/C FC GbE FC N/C FC GbE IB N/C N/C GbE FC N/C FC GbE FC N/C FC GbE FC N/C FC GbE BIO ノード GIO ノード BIO ノード LIO ノード LIO ノード LIO ノード グローバルストレージ 図-9 Tofu迂回概念 B軸 B軸 Y軸 A C A C Y軸

(9)

設計段階から取り組んだ。富士通と理化学研究所 は,目標とするピーク性能,アプリケーション実 効性能の達成,および高信頼性・高可用性システ ムの構築を推進してきた。2011年6月のTOP500ベ ンチマークで1位,Green500ベンチマークで6位 (汎用スカラCPUでは1位)を獲得し,続く2011年 11月にはTOP500ベンチマークで引き続き1位を獲 得するとともにLINPACK性能10 PFLOPSを達成 しており,計画どおり着実に目標を達成している。 今後は導入が終わり運用フェーズに入るため,実 アプリケーションでの性能およびシステム実運用 での評価を行っていく。 参 考 文 献

(1) M. Yokokawa et al.:The K computer: Japanese next-generation supercomputer development project.ISLPED,p.371-372(2011).

(2) 吉田利雄ほか:スーパーコンピュータ「京」の CPU SPARC64 VIIIfx.FUJITSU,Vol.63,No.3, p.254-259(2012).

(3) 安島雄一郎ほか:スーパーコンピュータ「京」の イ ン タ ー コ ネ ク トTofu.FUJITSU,Vol.63,No.3, p.260-264(2012).

(4) T. Maruyama et al.:SPARC64 VIIIfx: A New-Generation Octocore Processor For PETASCALE Computing.IEEE Micro,Vol.30 Issue2,p.30-40 (2010).

(5) Y. Ajima et al.:Tofu: A 6D Mesh/Torus Interconnect for Exascale Computers.Computer, Vol.42,No.11,p.36-40(2009). (6) 師尾 潤ほか:スーパーコンピュータ「京」のオペレー ティングシステム.FUJITSU,Vol.63,No.3,p.273-279 (2012). (7) 酒井憲一郎ほか:スーパーコンピュータ「京」の高 性能・高信頼ファイルシステム.FUJITSU,Vol.63, No.3,p.280-286(2012). (8) 平井浩一ほか:スーパーコンピュータ「京」の運用 管理ソフトウェア.FUJITSU,Vol.63,No.3,p.287-292 (2012).

(9) H. Okano et al.:Fine Grained Power Analysis and Low-Power Techniques of a 128GFLOPS/58W SPARC64™ VIIIfx Processor for Peta-scale Computing.Proc. VLSI Circuits Symposium'00,

ド実装され,運用/待機の冗長構成を採る。LIOは ラックに3ノード実装され,ディスクラックに実 装されるローカルディスクを共有する他ラックの LIOとの冗長構成を採る。GIOはラックに1ノード 実装され,LIOと同様に他ラックのGIOとの冗長構 成を採る。 ベンチマーク結果 前述の開発目標に沿って開発された「京」は, まだ導入作業の過程であった2011年6月の段階で, システムの一部(672ラック)を利用してHPC-LINPACKベンチマークテストを行った。その結 果,2011年6月発表のTOP500リストで1位となる 8.162 PFLOPSの性能を達成した。(10) LINPACKベ ンチマークの走行時間は28時間超であり,この期 間68 544ノードが故障なく動作し続けたことは, システムの高信頼性,ジョブ運用継続性の高さを 示すものである。詳細を2011年11月発表の結果と 合わせて表

-2

に示す。 スパコンの総合的な性能を評価するHPCチャレ ンジベンチマークにおいても,2011年11月発表の HPCチ ャ レ ン ジ 賞( ク ラ ス1) の4部 門{Global HPL,Global RandomAccess,EP STREAM (Triad) per system,Global FFT}全てで1位を獲 得した。また,「京」を用いた実アプリケーション による成果が認められ,2011年11月発表のゴード ン・ベル賞の最高性能賞に選出された。これらは, LINPACKベンチマークに特化したマシンではな く,幅広い範囲のアプリケーションに対応できる 汎用性を備えていることを示すものである。 む  す  び 「京」システムは,その開発目的から大規模HPC システムであり,高信頼性・高可用性を重視して ベンチマーク結果 む  す  び 表-2 TOP500/Green500結果 2011/6 2011/11 単位 TOP500 ランキング 1 1 位 コア数 548 352 705 024 個 性能(Rmax) 8162.00 10 510.00 TFLOPS 電力(Power) 9898.56 12 659.9 kW Green500 ランキング 6 32 位 電力性能 824.56 830.18 MFLOPS/W

(10)

宮崎博行(みやざき ひろゆき) 次世代テクニカルコンピューティング 開発本部システム開発統括部 所属 現在,次世代HPCの仕様策定および LSI開発業務に従事。 草野義博(くさの よしひろ) 次世代テクニカルコンピューティング 開発本部システム開発統括部 所属 現在,次世代HPCのシステム開発に 従事。 新庄直樹(しんじょう なおき) 次世代テクニカルコンピューティング 開発本部システム開発統括部 所属 現在,次世代HPCの開発統括業務に 従事。 渡邊 貞(わたなべ ただし) 独立行政法人理化学研究所次世代スー パーコンピュータ開発実施本部 所属 現在,理研においてプロジェクト全体 を統括。 庄司文由(しょうじ ふみよし) 独立行政法人理化学研究所次世代スー パーコンピュータ開発実施本部開発グ ループ 所属 現在,理研においてシステム開発作業 に従事。 横川三津夫(よこかわ みつお) 独立行政法人理化学研究所次世代スー パーコンピュータ開発実施本部開発グ ループ 所属 現在,理研においてシステム開発全般 のとりまとめに従事。 著 者 紹 介 p.167-168(2010).

(10) TOP500 Supercomputing Sites. http://www.top500.org

参照

関連したドキュメント

・M.2 Flash モジュール専用RAID設定サービス[PYBAS1SM2]とWindows Server 2022 Standard(16コア/Hyper-V)[PYBWPS5H]インストール/Windows Server 2019

This simply transitive action allows us on the one hand (fourth point) to extend now the Schreier-Mac Lane extension theorem to any exact Mal’cev category with centralizers, and on

(1) テンプレート編集画面で、 Radius サーバ及び group server に関する設定をコマンドで追加して「保存」を選択..

LC06111TMT Battery Protection Controller with Integrated MOSFET, 1-Cell Lithium-Ion LC05711ARA Battery Protection Controller with Integrated MOSFET, 1-Cell Lithium-Ion

The featured power supply is a Fixed Frequency Flyback design utilizing ON Semiconductor NCP12700 PWM controller, the NCP4306 synchronous rectifier controller, FDMS86255 primary

22 CSP1 Non−inverting input to current balance sense amplifier for phase 1 23 CSP2 Non−inverting input to current balance sense amplifier for phase 2 24 CSP3 Non−inverting input

22 CSREF Total output current sense amplifier reference voltage input, a capacitor on this pin is used to en- sure CSREF voltage signal integrity.. 23 CSSUM Inverting input of

Dock eSATA Device(eSATA ドッキングデバイス) 、LOM MAC Address(LOM MAC アドレス) 、Video Controller(ビ デオコントローラ) 、Video BIOS Version(ビデオ