• 検索結果がありません。

九州大学学術情報リポジトリ Kyushu University Institutional Repository ペタスケールインターコネクトに向けた MPI 高速化技術の研究 南里, 豪志九州大学情報基盤研究開発センター 出版情報 :

N/A
N/A
Protected

Academic year: 2022

シェア "九州大学学術情報リポジトリ Kyushu University Institutional Repository ペタスケールインターコネクトに向けた MPI 高速化技術の研究 南里, 豪志九州大学情報基盤研究開発センター 出版情報 :"

Copied!
22
0
0

読み込み中.... (全文を見る)

全文

(1)

九州大学学術情報リポジトリ

Kyushu University Institutional Repository

ペタスケールインターコネクトに向けたMPI高速化技 術の研究

南里, 豪志

九州大学情報基盤研究開発センター

http://hdl.handle.net/2324/9170

出版情報:SLRC プレゼンテーション, 2007-07-25 バージョン:

権利関係:

(2)

ペタスケールインターコネクトに向けた ペタスケ ルインタ コネクトに向けた MPI高速化技術の研究

2007 年 7 月 25 日

九州大学 南里 豪志

(3)

PSI プロジェクト PSI プロジェクト

„ 文部科学省「次世代 IT 基盤構築のための研究開発

」(研究開発領域「将来のス パ コンピュ ティン

」(研究開発領域「将来のスーパーコンピューティン グのための要素技術の研究開発」)

ペタスケール・システムインターコネクト技術の開 ペタスケ ル システムインタ コネクト技術の開 発

„

数数

1000

~数数

10000

台規模の計算ノードを相互接続する台規模の計算 ドを相互接続する システムインターコネクトの高機能化、高性能化

„

サブテーマ1:光パケットスイッチの実現を目指した物理 層技術

サブテ 2 から物理層までを通したインタ ネ

„

サブテーマ2:

MPI

から物理層までを通したインターコネ クト全体の高機能化、高性能化技術

„

サブテーマ3:ペタフロップス級マシンの振る舞いをシミ

„

サブテーマ3:ペタフロップス級マシンの振る舞いをシミ ュレーション可能とした統合型システム性能評価技術

(4)

1 分でわかる MPI

#include "mpi h" „

MPI (M P i I t f )

プログラム

#include  mpi.h

#include <stdio.h>

int main( int argc, char *argv[]) {

„

MPI (Message Passing Interface) 

プログラム

„ 文法は、普通の

C

言語

Fortran

„ 適宜MPI関数を利用して並列処理 {

int n = 1000;

int myid, numprocs, i;

double mypi, pi, h, sum, x;

„

SPMD (Single Program Multiple Data)

MPI環境初期化 yp , p , , , ;

MPI_Init(&argc,&argv);

MPI_Comm_size(MPI_COMM_WORLD,&numprocs);

MPI_Comm_rank(MPI_COMM_WORLD,&myid);

MPI環境初期化 プロセス数の取得

プロセスの番号(=ランク)の取得 h = 1.0 / (double) n;  sum = 0.0;

for (i = myid + 1; i <= n; i += numprocs){

x = h * ((double)i ‐ 0.5);

プロセスの番号(=ランク)の取得 並列計算(ランクに応じて計算)

ランク 0: i = 1, 5, 9, ...

sum += (4.0 / (1.0 + x*x));

}

mypi = h * sum;

d ( )

ランク 1: i = 2, 6, 10, ...

ランク 2: i = 3, 7, 11, ...

ランク 3: i = 4, 8, 12, ...

MPI_Reduce(&mypi, &pi, 1, MPI_DOUBLE, MPI_SUM, 0, MPI_COMM_WORLD);

if (myid == 0)

printf("pi is approximately %.16f¥n", pi);

MPI Fi li ()

全プロセスのmypiの総和を計算 して pi に格納

3

MPI_Finalize();

return 0;

}

p

MPI環境終了

(5)

ペタスケールシステムインターコネクト に向けた MPI プログラムの高速化技術 に向けた MPI プログラムの高速化技術

„ 数千~数万ノードによる大規模並列計算

„

不均等な負荷分散 不均質なネ トワ ク

„

不均等な負荷分散

不均質なネットワーク,

他のジョブの影響

„

最適化(=性能チューニング)に必要な情報が

„

最適化( 性能チュ ニング)に必要な情報が

,

実行してみるまで分からない

„負荷の不均衡による同期ポイントへの到着遅れ 通信タ る通信衝突

„ランク配置や通信タイミングによる通信衝突

„他のジョブの存在による基本通信性能の低下

本研究 実行時の性能情報に基づいた 本研究: 実行時の性能情報に基づいた

通信ライブラリ(MPI)実装の自動最適化

4

(6)

本プロジェクトで開発中の 最適化技術

最適化技術

„ 各 MPI 関数の実行タイミングを考慮した最適化

„

全体通信内部の通信順序調整

„曽我 武史(福岡

IST

)、栗原 康志(九大)

„

ランク配置最適化

„森江 善之(九大)、

Guilherme Domingues

(九州

ISIT

Guilherme Domingues

(九州

ISIT

„ 実行時の性能に応じた全体通信アルゴリズムの選択

„ 実行時の性能に応じた全体通信アルゴリズムの選択

„

性能モデルによる性能予測を利用した最適アルゴリズムの 導出

導出

„

Hyacinthe Nzigou Mamadou

(九大)、

Feng Long Gu ( g g (

九大)、

Vivien Odou

(九州

ISIT) )

⇒ Hyacinthe

さんの発表(本日午後)

(7)

全体通信内部の通信順序調整

MPI Bcast

関数における通信順序の性能への影響

send send

recv

Case 1:

負荷バランス

MPI_Bcast

関数における通信順序の性能 の影響

send recv

recv

負荷バランス 均等

send send recv

Case 2:

ランク が到着遅

work send

recv recv

recv

ランク 2が到着遅 れ(負荷不均等)

send send

Case 3:

recv

work

recv recv

recv send

ランク 2の遅れを 隠ぺいするよう順 序を変更

6

序を変更

Time

(8)

負荷の状況に応じた通信順序調整 負荷の状況に応じた通信順序調整

„ 全体通信中の待ち時間を計測

待ち時間短 ⇒ 高負荷

„ 負荷状況に応じて全体通信アルゴリズム中の 待ち時間短 ⇒ 高負荷

各ランクの位置を調整(=順序調整)

0

0

0

0

0

1 2

0

1 2

0

1

1

3

2

3

3

2

3

(9)

シミュレーションによる効果の予測

条件:

ランク

128 

のみに負荷(全体

256

ランクの

MPI_Bcast

) 通信衝突等を考慮しない簡単な通信 デ を想定

通信衝突等を考慮しない簡単な通信モデルを想定

通信最適化に要するコストを無視

Before Optimization After Optimization

8

„ MPI_Bcast

所要時間:

‐36%

„

全体の待ち時間:

‐31%

(10)

実際の効果

通信順序最適化

負荷不均等 による影響 による影響

MPI_Bcast 所要時間削減

9

(11)

計測

„ プログラム1: 擬似負荷プログラム

„

中間位置にあるランクのみ

„

中間位置にあるランクのみ

MPI_Bcast

の前で行列積の計算を実行

„

最大効果の確認最大効果 確認

„ プログラム2: 疎行列積

„ CCS(Compressed Column Storage)

で圧縮格納された疎

„ CCS(Compressed Column Storage)

で圧縮格納された疎 行列同士の積

„

ランク0:ランク0: 行を抽出して行を抽出して

MPI Bcast MPI_Bcast

それ以外: 行を受け取ってベクトル行列積計算

„ 環境:

RSCC (Riken Super Combined Cluster)

10

( p )

@理化学研究所

(12)

擬似負荷プログラム 擬似負荷 グラ

Ratio = MPI_Bcast所要時間の比

(最適化適用/最適化なし)

(最適化適用/最適化なし)

1.1 1.2

m e

0 9 1

s ed T im

0.8 0.9

of E lap

0.6 0.7

Ra ti o

Load 0

Load 30 Load 40 Load 80 0.5

1 10 100 1000 10000 100000 1e+06 1e+07 1e+08

Message Size (By te)

Load 160

11

Message Size (By te)

負荷バランスの度合いとメッセージサイズにより最適化効果が変動

(13)

MPI Bcast の総内部通信時間 MPI_Bcast の総内部通信時間

Ratio = 最適化適用/最適化なし Ratio

最適化適用/最適化なし

1.4 1.6

m e

Load 0Load 30

Load 40

1 1.2

s ed T im

Load 40

Load 80 Load 160

0.6 0.8

of E lap

0.2 0.4

Ra ti o

0

1 10 100 1000 10000 100000 1e+06 1e+07 1e+08

Message Size (By te)

12

Message Size (By te)

全ランクの合計待ち時間を大幅に削減

(14)

疎行列積 疎行列積

疎行列データ:BCSSTK32 (44609x44609)

Workload T im e Broadcast T im e T otal T im e

from Matrix Market

Num ber of

4 8 16

2530 783 350

2550 784 349

T ype Orig Opt Opt/Orig

977 1690 2090

909 1680 2070

Orig Opt Opt/Orig

3510 2470 2440

3460 2460 2420

Orig Opt Opt/Orig 1.008

1.001 0.997

0.930 0.994 0.990

0.986 0.996 0.992 of

Process

6 32 64 128

350 169 82.7 41.9

3 9 171 82.7 41.8

090 2370 2670 2890

0 0 2380 2670 2880

0 2540 2750 2930

0 2550 2750 2920 0 99

1.012 1.000 0.998

0 990 1.004 1.000 0.997

0 99 1.004 1.000 0.997

0.0032 0.0034 0.0036 0.0038

ec)

0 0025 0.003 0.0035 0.004

ec)

0.0022 0.0024 0.0026 0.0028 0.003

Time (Se

0.001 0.0015 0.002 0.0025

Time (Se

13

0.002

3 2

1 0

0.0005

7 6 5 4 3 2 1 0

(15)

課題 課題

„ 最適化コストによる性能低下

„ To do:

1 最適化 スト削減 1.  最適化コスト削減

„

特に負荷情報収集手段の改良

„

状況に応じた選択的な適用

„

状況に応じた選択的な適用

2 プログラム中の MPI Bcast の場所に応じた 2.  プログラム中の MPI_Bcast の場所に応じた

最適化

3.  他の全体通信 (MPI_Scatter, MPI_Gather, MPI Reduce 等 ) への適用

14

MPI_Reduce 等 ) の適用

(16)

ランク配置最適化

A B

A B

p1 p3 p5 p2 p4 p6

3つの通信が

1つの通信路を共有 ランク配置最適化 衝突無し

p1 p2 p3 p4 p5 p6

p1 2

p1 3 1つの通信路を共有 ランク配置最適化

p2 p3 4

p3 p5 2 p4

p5 6

p2 p4 6

p6 p6

どちらも 合計通信距離は同じ どちらも、合計通信距離は同じ

⇒ 既存の最適化技術では回避困難

(17)

ランク配置最適化の流れ

プログラム解析 短時間実行 プログラム解析

プ フ イル

短時間実行 プロファイル:

通信パターン解析

最適化 : 最適化 :

通信時間を最小にする ランク割り当ての導出 ランク割り当ての導出

16

最適ランク割り当てによる実行

(18)

通信パタ ンの解析 通信パターンの解析

時 実行 能な通信 集合 抽出

„ 同時に実行可能な通信の集合 CCS

i

の抽出

„ CCS (Concurrent Communication Set)

„ i

: 通信ステップ(

Communication Step)

CS1 CS2 CS3 CS4

タスク1 タスク2

CS1 CS2 CS3 CS4

CCS3={t14,t25,t36}

タスク3 タスク4 タスク4 タスク5

タスク6 17

(19)

最適化: 見積もり通信時間を最小にする ランク配置

ランク配置

遅延 メッセージサイズ 衝突回数 通信帯域幅

18

(20)

同期関数による CCS の分離

タスク1 タスク1

MPI_batrrier

CCSの通信との衝突発生!

CCS1 CCS2

タスク1 タスク2 タスク3 タスク4

タスク1タスク2 タスク3 タスク4 タスク5

タスク6 タスク7 タスク8

タスク5タスク6 タスク7 タスク8

„

複数の

CCS

が同時に実行

タスク8 タスク8

MPI Barrier(comm)

„

複数の

CCS

が同時に実行

予期しない衝突の発生

MPI_Barrier(comm) if(t %2 == 0)

MPI_Send( smsg, t+1 ) el se

MPI R ( t 1)

„

同期関数(

MPI_Barrier

)により

CCS 

を分離

MPI_Recv( rmsg, t-1)

MPI_Barrier(comm) if(t %2== 0)

MPI_Recv( smsg1, t+1) else

MPI_Send( rsmg1, t-1 )

(21)

実験結果

„使用プログラム

„使用プログラム

Recursive doubling 

アルゴリズムによる全対全通信

NAS Parallel Benchmark 

中の

CG

ASCI P l B h k

中の

UMT2000

ASCI Purple Benchmark  

中の

UMT2000

„実験環境

階層的なツリー構造の

Gigabit Ethernet

で接続された

PC

クラスタ

(Dual Xeon 3.0GHz x 16

ノード

)  

switch

switch switch switch switch

„通信時間の比較

Recursive Doubling

CG UMT2000

最適化無

最適化無し 53.6 31.2 109.8 通信距離による最適化 53.6 31.2 90.6 衝突を考慮した最適化 43 2 24 3 60 1

20

衝突を考慮した最適化 43.2 24.3 60.1

(msec)

(22)

課題 課題

„ 同期関数コストによる性能低下 同期関数コストによる性能低下

„

メッセージサイズが小さい場合

(=最適化による性能向上幅が小さい場合)場

⇒ 同期関数挿入箇所の削減 同期関数挿入箇所 削減

„ 最適配置の探索時間

„

現在は全探索

⇒ O(P!) (P =

プロセッサ数

)

„

現在は全探索

⇒ O(P!)  (P = 

プロセッサ数

)

発見的手法による探索

⇒ 発見的手法による探索

参照

関連したドキュメント

全国の 研究者情報 各大学の.

大学教員養成プログラム(PFFP)に関する動向として、名古屋大学では、高等教育研究センターの

東京大学 大学院情報理工学系研究科 数理情報学専攻. hirai@mist.i.u-tokyo.ac.jp

情報理工学研究科 情報・通信工学専攻. 2012/7/12

郷土学検定 地域情報カード データーベース概要 NPO

2020年 2月 3日 国立大学法人長岡技術科学大学と、 防災・減災に関する共同研究プロジェクトの 設立に向けた包括連携協定を締結. 2020年

関谷 直也 東京大学大学院情報学環総合防災情報研究センター准教授 小宮山 庄一 危機管理室⻑. 岩田 直子

・災害廃棄物対策に係る技術的支援 都民 ・自治体への協力に向けた取組