• 検索結果がありません。

NII Sangaku

N/A
N/A
Protected

Academic year: 2021

シェア "NII Sangaku"

Copied!
39
0
0

読み込み中.... (全文を見る)

全文

(1)

ビックデータ利活用のための

計算基盤

慶應義塾大学 理工学部

松谷宏紀

http://www.arc.ics.keio.ac.jp/~matutani Dec 15th, 2016 1

(2)

ICTにおけるトレンド:

ビッグデータとグリーン化

IT 機器の増強へ作用(電力増)IT 機器の省電力化への要求

Big data: the next oil Green datacenters

9000 [EB] 6000 3000 2005 2010 2015 Sensor Social media Voice Enterprise データの蓄積・利活用によってさ まざまなイノベーションが期待 Information explosion 地球温暖化防止の観点、経済 面(データセンター運用コスト) から消費電力の削減は必須

Amortized CAPEX OPEX Servers coolingPower Poweruse

2 • IT 機器の省電力化をこれまで以上に推し進めなければ、電 力がビッグデータ利活用の大きな足かせになる • 制限: IT 機器の省電力化はすでにやり尽くされている – データセンターでは、コモディティ機(コスト効率重視)が多用 – そもそも回路の電源電圧はもう下げられない 今こそ、計算機アーキテクチャのレベルからの再考が必要と言える

(3)

I/Oインテンシブ

計算インテンシブ

3 ストレージマイグレーション・ 仮想マシンマイグレーション • ビッグデータをサーバからサー バへ移動させる • ラック天井部から光ビーム  光無線による 40GbE 動 的リンク FPGA NICによるNOSQL処理キーバリューストアDBHW/SW 階層DBキャッシュ 10GbE 機械学習 NIC • 莫大な受信データの中から外 れ値以外をNICで捨てる IoT 向け 3D 積層システム • プロセッサ、アクセラレータチッ プを3次元積層 • チップ間通信はワイヤレス  KVSメモリチップを開発 In-GPU 分散データベース • グラフ型DB(グラフ探索) • ドキュメントDB(文字列)  10GbEネットワーク接続 GPUクラスタ Chip#2 Chip#1 Chip#0 GPUs Host 20Gb E FPGA Four 10GbE

ビッグデータ向け計算機アーキテクチャの研究

本発表の概要:

計算強度とI/O強度の観点から

(4)

4 ストレージマイグレーション・ 仮想マシンマイグレーション • ビッグデータをサーバからサー バへ移動させる • ラック天井部から光ビーム  光無線による 40GbE 動 的リンク IoT 向け 3D 積層システム • プロセッサ、アクセラレータチッ プを3次元積層 • チップ間通信はワイヤレス  KVSメモリチップを開発 In-GPU 分散データベース • グラフ型DB(グラフ探索) • ドキュメントDB(文字列)  10GbEネットワーク接続 GPUクラスタ

本発表の概要:

計算強度とI/O強度の観点から FPGA NICによるNOSQL処理キーバリューストアDBHW/SW 階層DBキャッシュ 10GbE 機械学習 NIC • 莫大な受信データの中から外 れ値以外をNICで捨てる

ビッグデータ向け計算機アーキテクチャの研究

I/Oインテンシブ

計算インテンシブ

本研究では、ビッグデータ利活用の要であるデータベース(構 造型ストレージ)をハードウェア化することによって、スループッ ト性能を維持しつつ、多数のサーバを専用ハードウェアに置き 換え、コストと電力効率の向上を狙う

(5)

構造型ストレージ:

データ構造の点から分類

構造型ストレージは、水平スケーラビリティに優れるが得

手不得手がある(特定用途特化型)

5

Column

Family 1 Family 2Column

Row

Key

Key Value

Shopping cart, User profile, Session, etc

Ken Yuko Jiro Taro Aya Risa Shin Hiro Customer social graph Neo4j Memcached HBase, BigTable

MongoDB { _id : ObjectId(0),name : Risa,

tel : 1234 } { _id : ObjectID(1), name : Shin, mail : shin@x.jp} Schema-less DB キーバリュー ストア型 カラム指向型 ドキュメント 指向型 グラフ型

(6)

6

Column

Family 1 Family 2Column

Row

Key

Shopping cart, User profile, Session, etc

Ken Yuko Jiro Taro Aya Risa Shin Hiro Customer social graph Neo4j Memcached HBase, BigTable

MongoDB { _id : ObjectId(0),name : Risa,

tel : 1234 } { _id : ObjectID(1), name : Shin, mail : shin@x.jp} Schema-less DB キーバリュー ストア型 カラム指向型 ドキュメント 指向型 グラフ型

ポリグロット永続化:

複数 DB を相補的に利用

ポリグロット=多言語  特定用途に特化した構造型ストレージを組み 合わせれば、複雑なサービスも実現できる Ca che & se ssi on Ke y-va lue s to re Recommendation Graph DB CMS & blogging Column-oriented Inventory & price

RDBMS Questionnaire Document DB Ap plic ation s Ba tc h pro ce ssi ng Ma pR educ e, B I Key Value

(7)

想定システム(2013年の夏から…)

8

Binary JSON

Key-value

store oriented store Document DB Graph DB Column- RDBMS

Data analysis framework

Server cluster

客層分析システム

(1) 各種 NOSQL 及び Spark Streaming が密結合され たシステムを想定し、(2) それらを FPGA/GPU/In-Kernel キャッシュなどを使って高効率化する

(8)

階層 NOSQL キャッシュ: FPGA NIC

9 通常のデータベースアクセス In-Kernel KVS Cache (L2$) Hit NIC Cache (L1$) Hit

Add

Request Reply Result NetFPGA-10G

NetFPGA-10G Device Driver

User Space 10GbE x4 In-Kernel KVS (Key-Value Store) Cache 512GB DRAM 288MB NIC HW Cache Machine Learning

(9)

階層 NOSQL キャッシュ: FPGA NIC

10 通常のデータベースアクセス In-Kernel KVS Cache (L2$) Hit NIC Cache (L1$) Hit

Add

Request Reply Result NetFPGA-10G

NetFPGA-10G Device Driver

User Space 10GbE x4 In-Kernel KVS (Key-Value Store) Cache 512GB DRAM 288MB NIC HW Cache Machine Learning 階層 NOSQL キャッシュ:

L1 NOSQL cache … FPGA NIC による HW キャッシュ L2 NOSQL cache … Linux カーネル内の SW キャッシュ

キャッシュ容量と速度のトレードオフ:

L1 NOSQL cache … 高速・高効率だか小容量 L2 NOSQL cache … 高速で大容量

(10)

階層 NOSQL キャッシュ: FPGA NIC

11 通常のデータベースアクセス In-Kernel KVS Cache (L2$) Hit NIC Cache (L1$) Hit

Add

Request Reply Result NetFPGA-10G

NetFPGA-10G Device Driver

User Space 10GbE x4 In-Kernel KVS (Key-Value Store) Cache 512GB DRAM 288MB NIC HW Cache Machine Learning アプリケーション: • データベースキャッシュ(KVS、カラム、ドキュメント、グラフ) • ビットコイン(Blockchain)公開取引台帳のキャッシング • 深層学習パラメータサーバ(確率的勾配降下法の集約) • DDoS Mitigation Box

(11)

FPGA NIC による 10Gbps 外れ値検出

12 NetFPGA-10G

NetFPGA-10G Device Driver

10GbE x4

Data Mining

機械学習アルゴリズム

 Mahalanobis Distance

 Local Outlier Factor(LOF)  K-Nearest Neighbor(KNN)

Sensor Data Explosion

Outlier

Huge

Size Small Size

Only

anomaly-valued packets are received

(12)

FPGA NIC による 10Gbps 外れ値検出

13 NetFPGA-10G

NetFPGA-10G Device Driver

10GbE x4

Data Mining

機械学習アルゴリズム

 Mahalanobis Distance

 Local Outlier Factor(LOF)  K-Nearest Neighbor(KNN)

Sensor Data Explosion

Outlier

Huge

Size Small Size

Only

anomaly-valued packets are received User Space マハラノビス距離版: • 次元ごとに分散を考慮した距離(例: 分散が小さい次元で はユークリッド距離よりも遠く扱われる) • 教師なし外れ値検出(古典的手法) • 14M samples/sec(10GbEラインレートの95.8%) [HEART’15(Best Paper Award)]

(13)

FPGA NIC による 10Gbps 外れ値検出

NetFPGA-10G

NetFPGA-10G Device Driver

10GbE x4

Data Mining

機械学習アルゴリズム

 Mahalanobis Distance

 Local Outlier Factor(LOF)  K-Nearest Neighbor(KNN)

Sensor Data Explosion

Outlier

Huge

Size Small Size

Only

anomaly-valued packets are received User Space LOF版(およびKNN版): • 判定には密度を利用(密度 = K近傍の距離) • 密度が低い  LOF 値が高い • 密度計算には過去データが必要だが FPGA NIC には全部 は置けない • 代表的クラスタ(過去データ) を FPGA NIC でキャッシュ [PDP’17] 14

(14)

15 ストレージマイグレーション・ 仮想マシンマイグレーション • ビッグデータをサーバからサー バへ移動させる • ラック天井部から光ビーム  光無線による 40GbE 動 的リンク IoT 向け 3D 積層システム • プロセッサ、アクセラレータチッ プを3次元積層 • チップ間通信はワイヤレス  KVSメモリチップを開発

本発表の概要:

計算強度とI/O強度の観点から FPGA NICによるNOSQL処理キーバリューストアDBHW/SW 階層DBキャッシュ 10GbE 機械学習 NIC • 莫大な受信データの中から外 れ値以外をNICで捨てる

ビッグデータ向け計算機アーキテクチャの研究

In-GPU 分散データベース • グラフ型DB(グラフ探索) • ドキュメントDB(文字列)  10GbEネットワーク接続 GPUクラスタ

I/Oインテンシブ

計算インテンシブ

グラフ型 DB: グラフ探索(ソーシャルグラフの解析) ドキュメント指向 DB: 文字列探索(正規表現による探索)

GPU や NEC ExpEther を活用したデーベース処理

(15)

16

GPU による NOSQL の高速化

NetFPGA-10G

NetFPGA-10G Device Driver

User Space

10GbE x4 In-Kernel KVS

(Key-Value Store) Cache 512GB

Compute intensive tasks are offloaded to GPUs

Key-value

store oriented store

Column-Binary JSON Document DB Graph DB DRAM 288MB NIC HW Cache Machine Learning

SLOW

FAST

VERY FAST

ドキュメント指向 DB(MongoDB): 正規表現ベースの文字列探索は CUDA を呼び出す [ISPA’15] グラフ型 DB(Neo4j): グラフ探索(ソーシャルグラフの解析)は CUDA を呼び出す [ACM CAN(2014)]

(16)

分散 In-GPU データベース

分散 In-GPU データベース over NEC ExpEther

GPU のデバイスメモリを「DB キャッシュ」として利用 – 多数の GPU デバイスを 10GbE スイッチで接続 17

さらに多くのGPUを活用したい  分散 In-GPU DB

10GbE Switch Hash Space (32-bit)

Query

Client

[HeteroPar’16]

(17)

18

GPUs

PCIe Card

inserted in DB server

10GbE

Switch

10G+10G 10G+10G Many GPUs are directly connected to DB server via NEC ExpEther (20Gbps)

(18)

19

GPU + 分散処理フレームワーク Spark

Array Cache (各種RDDを配列化したデータ) User Space Spark ではデータは RDD と呼ばれる分散共有メモリに格納

RDD を GPU 処理に適した配列(Array Cache)としてGPUへ転送 RDDの集約処理とRDD-to-RDD

変換処理を GPU にオフロード

Array Cache (RDDs)

RDD 3

RDD集約処理 (count, max, reduce, …) Value

RDD-to-RDD変換処理 (sort, filter, map, …) RDD 1

RDD 2

RDD 1 RDD 2 RDD 3

(19)

20

GPU + 分散処理フレームワーク Spark

Array Cache (各種RDDを配列化したデータ) User Space RDDの集約処理とRDD-to-RDD 変換処理を GPU にオフロード Array Cache (RDDs) RDD 1 RDD 2 RDD 3 10GbE Switch [ICPADS’16] RDD 1 RDD 2 RDD 3 RDD 4 RDD 5 RDD 6

(20)

23 ストレージマイグレーション・ 仮想マシンマイグレーション • ビッグデータをサーバからサー バへ移動させる • ラック天井部から光ビーム  光無線による 40GbE 動 的リンク

本発表の概要:

計算強度とI/O強度の観点から FPGA NICによるNOSQL処理キーバリューストアDBHW/SW 階層DBキャッシュ 10GbE 機械学習 NIC • 莫大な受信データの中から外 れ値以外をNICで捨てる In-GPU 分散データベース • グラフ型DB(グラフ探索) • ドキュメントDB(文字列)  10GbEネットワーク接続 GPUクラスタ IoT 向け 3D 積層システム • プロセッサ、アクセラレータチッ プを3次元積層 • チップ間通信はワイヤレス  KVSメモリチップを開発

ビッグデータ向け計算機アーキテクチャの研究

I/Oインテンシブ

計算インテンシブ

今までと一転、ビッグデータを集める側のデバイスに着目 IoT 向け3次元チップ積層(System-in-Package) 低消費電力、および、機能(チップ)の組み換え可能性 →FPGA アクセラレータの成果を「小さいほう」にも展開

(21)

IoT 向けワイヤレス3次元チップ積層

誘導結合を用いた System-in-Package(SiP)

– 必要なチップを積み重ねてシステムを構築 – CPU チップ、アクセラレータチップ、メモリチップ、…

誘導結合の利点

– チップ間は電気的に非接触 – SiP 内のチップの入れ替え(追加や削除)が容易 24 Chip#0 Chip#1 Chip#2 Vertical links

(22)

Cube-1(実用的プロトタイプ実装)

Microphotographs of test chips

25

[Miura, IEEE Micro 13]

Host CPU Chip

Accelerator Chip

Host CPU + 3 Accelerators

チップ間ワイヤレス接続  CPU チップ、メモリチップ、アクセラ レータチップを必要に応じて組み合わせることができる

(23)

IoT 向け3次元積層システム(SiP)

各チップは送受信機を装備

– Geyser チップ(CPU) – CMA チップ(アクセラレータ) – Neuro チップ(推論) – KVS チップ(SRAM ストレージ)

KVS メモリチップの詳細

26 Processor Chip Amano (Keio U) Accelerator Chip Amano (Keio U) KVS Memory Chip Matsutani (Keio U) Neuro Chip Kondo (U Tokyo)

Data are stored as KVS pairs SOTB 65nm Process (3mm x 6mm) Transceiver KVS PE + Router [Tokusashi] 32kB SRAM

(24)

IoT 向け3次元積層システム(SiP)

各チップは送受信機を装備

– Geyser チップ(CPU) – CMA チップ(アクセラレータ) – Neural チップ(推論) – KVS チップ(SRAM ストレージ)

KVS メモリチップの詳細

27 Processor Chip Amano (Keio U) Accelerator Chip Amano (Keio U) KVS Memory Chip Matsutani (Keio U) Neuro Chip Kondo (U Tokyo)

Data are stored as KVS pairs SOTB 65nm Process (3mm x 6mm) Transceiver KVS PE + Router [Tokusashi] 32kB SRAM 命令は2つだけ:Set(Key, Value) TCI経由でやってきたKeyとValueの組をメモリに保存 • Get(Key) TCI経由でやってきたKeyに対応するValueをメモリから 読みだして送信元に返信

(25)

IoT 向け3次元積層システム(SiP)

各チップは送受信機を装備

– Geyser チップ(CPU) – CMA チップ(アクセラレータ) – Neural チップ(推論) – KVS チップ(SRAM ストレージ)

KVS メモリチップの詳細

28 Processor Chip Amano (Keio U) Accelerator Chip Amano (Keio U) KVS Memory Chip Matsutani (Keio U) Neuro Chip Kondo (U Tokyo)

Data are stored as KVS pairs SOTB 65nm Process (3mm x 6mm) Transceiver KVS PE + Router [Tokusashi] 32kB SRAM アプリケーション: 類似の入力値に対し得られたプロセッサの計算結果を KVS メモリに記憶し、計算結果を再利用(計算をサボる) Key: ハッシュ関数(関数名 + 入力値の上位ビット) 例: GPS位置情報+ジャイロセンサ(角度) 入力画像 Value: その関数の計算結果 例: VGAへの出力画像 Neuro Chipの推論結果

(26)

29

本発表の概要:

計算強度とI/O強度の観点から FPGA NICによるNOSQL処理キーバリューストアDBHW/SW 階層DBキャッシュ 10GbE 機械学習 NIC • 莫大な受信データの中から外 れ値以外をNICで捨てる In-GPU 分散データベース • グラフ型DB(グラフ探索) • ドキュメントDB(文字列)  10GbEネットワーク接続 GPUクラスタ IoT 向け 3D 積層システム • プロセッサ、アクセラレータチッ プを3次元積層 • チップ間通信はワイヤレス  KVSメモリチップを開発

ビッグデータ向け計算機アーキテクチャの研究

計算インテンシブ

ストレージマイグレーション・ 仮想マシンマイグレーション • ビッグデータをサーバからサー バへ移動させる • ラック天井部から光ビーム  光無線による 40GbE 動 的リンク

I/Oインテンシブ

データ転送なので計算量は少なく、完全に I/Oネックとなる  ネットワークを増強すべき

(27)

データセンターにおける突発的データ転送

– 仮想マシンの移送(数GBオーダ) – ストレージも一緒に移送したい(Web、データベース、…) – 1GbE リンクでは移送に時間が掛かったり、収束しない

光無線による 40GbE 動的ショートカットリンク

30

40GbE 光無線による仮想マシンの移送

(28)

データセンターにおける突発的データ転送

– 仮想マシンの移送(数GBオーダ) – ストレージも一緒に移送したい(Web、データベース、…) – 1GbE リンクでは移送に時間が掛かったり、収束しない

光無線による 40GbE 動的ショートカットリンク

31

40GbE 光無線による仮想マシンの移送

OS

Web

(29)

光無線による 40GbE 動的ショートカットリンク

32 40GbE LR4(波長1300nm)をコリメータレンズに直結し、 レンズの向きを調整することで動的にリンクを形成

Mirror

Lens

Lens

40GbE 光無線による仮想マシンの移送

OS

Web

(30)

光無線による 40GbE 動的ショートカットリンク

33 40GbE LR4(波長1300nm)をコリメータレンズに直結し、 レンズの向きを調整することで動的にリンクを形成

Mirror

Lens

Lens

40GbE 光無線による仮想マシンの移送

OS

Web

VM Highway: 仮想マシンの移送、ストレージ移送などの大 容量データ転送に合わせてラック間コリメータレンズを調整し、 40GbE 動的ショートカットリンクを形成 省電力化: FSO によるショートカットリンクによる性能向上→低 貢献リンクの停止による省電力化 HPCA’15(NICT藤原先生/NII鯉渕先生との共同研究)

(31)

ビッグデータ基盤システムと今後の展望

34 入力ストリームデータ Realtime View DB問合せ メッセージキューイング

(Apache Kafka) (Apache Spark ストリーム処理 Streaming) 分散バッチ処理 (Apache Spark) 機械学習ライブラリ (Apache Spark MLlib) シリアライゼーション、 RPC(Apache Thrift) (Redis、HBase)KVS・カラム指向DB ドキュメント指向DB (MongoDB等) グラフDB、グラフ 処理システム (Neo4j等) オンライン機械学習 (分類、外れ値検 出、変化点検出、 異常行動検出、 Change Finder) Batch View FPGA Four 10GbE GPUs Host Switch データ交換 (シリアライゼーション) メッセージ キューイング ストリーム処理 オンライン機械 学習・推論 分散バッチ処理 機械学習 データベース層 ポリグロット永続化 ・客層分析クエリ ・トピック推定クエリ ・ブロックチェーン取引 情報取得クエリ ・地形情報取得クエリ 大量データ(ネットワー クサービス、SNS、客層 分析、UAV、IoT) I/Oインテンシブ 計算インテンシブ I/Oと計算の密結合FPGA NIC 高い計算強度ネットワーク 直結GPUクラスタ

(32)

ラックスケールアーキテクチャへの展開

多数の計算リソースをラック内に収容

– 例: CPU、ストレージ(RAM、SSD)、計算(GPU、FPGA)

Software-defined infrastructure

– ラック内、ラック間の計算リソースをネットワーク結合 – 計算機を必要に応じてソフトウェア定義 35 Compute

(GPUs) Storage(SSDs) MemoryCPU Compute(FPGAs)

GPU based document DB GPU based graph DB GPU based Apache Spark Linux in-kernel cache FPGA based KVS and DB cache FPGA based outlier detection FPGA based Spark Streaming

(33)

ラックスケールアーキテクチャへの応用

多数の計算リソースをラック内に収容

– 例: CPU、ストレージ(RAM、SSD)、計算(GPU、FPGA)

Software-defined infrastructure

– ラック内、ラック間の計算リソースをネットワーク結合 – 計算機を必要に応じてソフトウェア定義 36 GPU cluster Remote GPUs

over 10GbE GPU less

(34)

I/Oインテンシブ

計算インテンシブ

40 ストレージマイグレーション・ 仮想マシンマイグレーション • ビッグデータをサーバからサー バへ移動させる • ラック天井部から光ビーム  光無線による 40GbE 動 的リンク FPGA NICによるNOSQL処理キーバリューストアDBHW/SW 階層DBキャッシュ 10GbE 機械学習 NIC • 莫大な受信データの中から外 れ値以外をNICで捨てる IoT 向け 3D 積層システム • プロセッサ、アクセラレータチッ プを3次元積層 • チップ間通信はワイヤレス  KVSメモリチップを開発 In-GPU 分散データベース • グラフ型DB(グラフ探索) • ドキュメントDB(文字列)  10GbEネットワーク接続 GPUクラスタ Chip#2 Chip#1 Chip#0 GPUs Host 20Gb E FPGA Four 10GbE

ビッグデータ向け計算機アーキテクチャの研究

本発表の概要:

計算強度とI/O強度の観点から

Tight integration of I/O & computation

Enhancement of network

(35)

参考文献(1/4)

Key-Value Store アクセラレータ

– Yuta Tokusashi, et.al., "A Multilevel NOSQL Cache Design Combining NIC and

In-Kernel Caches", Hot Interconnects 2016. – Yuta Tokusashi, et.al., "NOSQL Hardware

Appliance with Multiple Data Structures", Hot Chips 2016 (Poster).

– Korechika Tamura, et.al., "An In-Kernel

NOSQL Cache for Range Queries Using FPGA NIC", FPGA4GPC 2016.

– Akihiko Hamada, et.al., "Design and Implementation of Hardware Cache

Mechanism and NIC for Column-Oriented Databases ", ReConFig 2016.

(36)

参考文献(2/4)

機械学習アクセラレータ

– Ami Hayashi, et.al., "A Line Rate Outlier

Filtering FPGA NIC using 10GbE Interface", ACM SIGARCH CAN (2015).

– Ami Hayashi, et.al., "An FPGA-Based In-NIC Cache Approach for Lazy Learning Outlier

Filtering", PDP 2017.

分散処理フレームワーク Spark 高速化

– Yasuhiro Ohno, et.al., "Accelerating Spark

RDD Operations with Local and Remote GPU Devices", ICPADS 2016.

– Kohei Nakamura, et.al., "An FPGA-Based Low-Latency Network Processing for Spark

(37)

参考文献(3/4)

GPU による NOSQL データベース高速化

– Shin Morishima, et.al., "Distributed In-GPU

Data Cache for Document-Oriented Data Store via PCIe over 10Gbit Ethernet", HeteroPar

2016.

– Shin Morishima, et.al., "Performance

Evaluations of Document-Oriented Databases using GPU and Cache Structure", ISPA 2015. – Shin Morishima, et.al., "Performance

Evaluations of Graph Database using CUDA and OpenMP-Compatible Libraries", ACM

SIGARCH CAN (2014).

(38)

参考文献(4/4)

誘導結合を用いたワイヤレス3次元積層

– Takahiro Kagami, et.al., "Efficient 3-D Bus

Architectures for Inductive-Coupling ThruChip Interfaces", IEEE TVLSI (2016).

– Hiroki Matsutani, et.al, "Low-Latency Wireless 3D NoCs via Randomized Shortcut Chips",

DATE 2014.

– Yasuhiro Take, et.al., "3D NoC with Inductive-Coupling Links for Building-Block SiPs", IEEE TC (2014).

– Hiroki Matsutani, et.al., "A Case for Wireless 3D NoCs for CMPs", ASP-DAC 2013. (Best

(39)

45

Thank you !

Acknowledgement:

A part of this work is supported by JST PRESTO, MIC SCOPE, NEDO IoT, and JSPS Kakenhi

Thank you for

listening!

参照

関連したドキュメント

The complexity of dynamic languages and dynamic optimization problems. Lipschitz continuous ordinary differential equations are

時価ベースの自己資本比率(%)  174.2 185.0 188.7 162.4  198.6 キャッシュ・フロー対有利子負債比率(%)  0.25 0.06 0.06 0.30  0.20

What relates to Offline Turing Machines in the same way that functional programming languages relate to Turing Machines?.. Int Construction.. Understand the transition from

In this paper, we use the reproducing kernel Hilbert space method (RKHSM) for solving a boundary value problem for the second order Bratu’s differential equation.. Convergence

 固定資産は、キャッシュ・フローを生み出す最小単位として、各事業部を基本単位としてグルーピングし、遊休資産に

A lassial theorem of Igusa says that the monodromy representation as- soiated with a versal family of ordinary ellipti urves in harateristi p > 0.. is surjetive

Regarding effects of personality on personal space, high-scored subjects for the trait anxiety indicated a strong trend (P <. Kodama et al. However, we should

技術部 斉藤 晃 営業部 細入