13 マルチフェーズフィールド法を用いた 金属多 結晶組 織 形成シミュレーションの 大 規 模 GPU 計算 Multi-GPU Computation of Multi-phase Field Simulation of the Evolution of Metallic Polycrystalline Microstructure 量子モンテカルロ法に基づく 振 動 状 態 解 析の大 規 模 並列 計算 A Large-scale Parallel Computation for Vibrational State Analysis Based on Quantum Monte Carlo method 個別要素 法による粉 体の大 規模シミュレーション Large-scale DEM Simulations for Granular Dynamics マルチフェーズフィールド法を用いた 金属多結晶組織形成シミュレーションの 大規模 GPU 計算 山中 晃 徳 * 岡 本 成 史 ** 下川辺 隆 史 *** 青木 尊之 *** * 東 京 農 工 大 学 大 学 院 工 学 研 究 院 先 端 機 械システム部 門 ** 東 京 農 工 大 学 大 学 院 工 学 府 機 械システム工 学 専 攻 *** 東 京 工 業 大 学 学 術 国 際 情 報センター 金 属 材 料の内 部で生じるミクロな多 結 晶 組 織 形 成のシミュレーション法として注 目されているマルチフェーズフィールド ( MPF )法を複 数の GPUで高 速かつ大 規 模に並 列 計 算する方 法を開 発した。本 稿では、数 値 計 算と並 列 処 理のためのデー タ通 信を非 同 期 実 行するためのオーバーラッピング法を導 入した MPF 法の計 算 手 法を紹 介する。さらに、開 発した GPU 計 算 手 法による多 結 晶 粒 成 長の大 規 模 3 次 元シミュレーションをGPUスーパーコンピューター TSUBAME2.5 に実 装し、良 好 な実 行 性 能が得られたことを示す。 はじめに 1 演 算とデータ通 信を非 同 期に行うアルゴリズム )と、それを東 京 工 業 大 学 学 術 国 際 情 報センターの GPUスーパーコンピューター TSUBAME2.5 に実装して実施した、金属多結晶組織形成の大規模 3 次 元シミュレーションを紹 介し、我々が開 発したGPU 計 算 法の 実行性能評価を示す [4] 。 地 球 環 境に与える負 荷の低 減のために、ハ イブリッド自 動 車など の燃費の良い自動車の開発が活発である。自動車の燃費をさらに 向上させるためには、エンジンやモーターの効率向上の他に、車体 の軽量化も重要な技術課題とされている。自動車車体の軽量化は、 使 用する金 属 板 材を薄 肉 化することにより可 能であるが、衝 突 安 マルチフェーズフィールド法 全 性を確 保するために強 度も高めることが必 要とされる。しかし 2 一般には、金属材料は強度を高めると加工性は低下する。すなわち、 薄くプレス加 工する際に割れ易くなる。そのため従 来の材 料 研 究 本研究で使用したMPF 法は、1999 年にSteinbachらによって提案 開 発では、絨 毯 爆 撃 的な実 験を行い、材 料の特 性を支 配する材 料 された [1] 。MPF 法は、次 式で表される材 料の全 自 由エネルギーが 内部のミクロな構造の空間分布や形態を制御するための適切な合 単調に減少するようにミクロ組織形成が進行するとの仮定に基づ 金 組 成や製 造プロセスを見つけ出す努 力を重ねてきた。しかし近 いている。 年では、材 料 研 究 開 発の国 際 競 争が激 化しており、如 何にして効 率 良く、無 限の組み合せが存 在する合 金 元 素や製 造プロセスの中 から、所 望の特 性を具 備する材 料を作るための条 件を見つけ出す かが極めて重要となっている。 ルギーと呼ばれる。W ij や a ij は界面エネルギーや界面幅に関係づけ 縮するために、計 算 材 料 学に基づく数 値シミュレーションにより られるパラメータである。 ( r, t )は、フェーズフィールド変数と 材料のミクロ組織や特性を予測する計算技術の開発が世界的に活 呼ばれ、異なる N 個の結 晶 粒からなる系を考えたとき、空 間 座 標 r 発となっている。その中でも、材 料 中のミクロ組 織を予 測するた と時間 t において、ある i 番目( i = 1 ~ N )の結晶粒が存在する確率 めの強 力な数 値シミュレーション方 法としてフェーズフィールド を表す。したがって、たとえば番 号 1 の結 晶 粒(結 晶 粒 1 と呼ぶ) 法が注 目されている。特に、実 用 金 属 材 料のほとんどで観 察され が存在する座標では ( r, t )= 1 、結晶粒 1 が存在しない座標では る多結晶構造を有するミクロ組織の形成過程を計算するための方 ( r, t )= 0 と定義する。また、結晶粒 1 と他の結晶粒との界面を 法として、マルチフェーズフィールド( MPF)法 [1] が世 界 標 準とな 有限厚さの領域と定義し、そこで 0 から 1 へと滑らかに変化するも りつつある。しかしながら、2011 年にゴードンベル賞を受 賞した のと定義する。以下では各変数について、 ( r, t )は省略して記する。 通 常のフェーズフィールド法を用いた合 金 凝 固の計 算 [2] とは異な 式(1)に示した全自由エネルギーの時間に対する単調減少を仮 り、MPF 法では複雑な非線形項を含んだ複数の偏微分方程式を解 定すると、 の時間発展方程式は、Allen-Cahn 方程式より次式で く必 要があるため、数 値 演 算とメモリの両 面で計 算コストが大き 与えられる。 いことが問題である。 そこで我々の研 究では、GPUを用いてMPF 法を高 速かつ大 規 模 に並 列 計 算する技 術を開 発している。本 稿では、MPF 法を多 数の GPUを用いて計算するために必要なオーバーラッピング法 [3]( 数値 02 ここで、右辺第 1 項はポテンシャルエネルギー、第 2 項は勾配エネ これに対して現 在では、材 料 開 発のコストや期 間を飛 躍 的に短 ここで、n は任意座標において非零となるフェーズフィールド変数 の個 数、 はフェーズフィールド変 数の変 化を規 定するモビリ 3.2 領域分割 ティーである。 MPF 法を複数のGPUで計算するために、全計算領域を複数のサブ なお数 値シミュレーションにおいては、式( 2)に示す の偏 微 領 域に分 割し、各サブ領 域の計 算にCPUとGPUを 1 基ずつ割り当 分 方 程 式を時 間と空 間について離 散 化し、3 次 元 直 交 格 子 上でス てる、領 域 分 割 法を採 用した。例えば、図 1 に示すように、NX × テンシル計 算を行う。本 研 究では、空 間 微 分は 2 次 精 度の有 限 差 NY × NZ 個の差分格子からなる全計算領域を 3 次元分割により x 、 分法、時間積分は 1 次精度のオイラー法を用いて計算した。 y 、z 方向にそれぞれ X 、Y 、Z 分割する場合には、サブ領域に含まれ る差分格子点は NX /X × NY /Y × NZ /Z 個となる。本研究では、ス テンシル計 算を行う為、隣 接するサブ領 域 間のデータ通 信が必 要 MPF 法の複数 GPU 計算 3 となる。そのため、各サブ領域の x 、y 、z 方向の端面に境界領域を 作成する。すなわち、サブ領域の x 、y 、z 方向の端に、それぞれ 1 × NY × NZ 、NX × 1 × NZ 、NX × NY × 1 の境界領域を作成する。境 界領域のデータ通信には、MPI を用いる。なお、本研究で実施した 実行性能の評価では、全計算領域サイズを変えるごとに、1 次元分 割、2 次元分割および 3 次元分割でテスト計算を実施し、実行性能 3.1 Active Parameter Tracking 法 が最も高い領域分割方法を採用した。 本研究で用いたMPF 法では、N 個すべての結晶粒ではなく、任意座 標に存 在する n 個の結 晶 粒に対 応する についてのみ時 間 変 化 3.3 スレッドブロックの設定 を計 算すればよい。したがって、N 個すべての の値や結 晶 粒 番 GPUの性 能を十 分に発 揮させてシミュレーションを行うためには 号 i の値をメモリ上に保存しておく必要はない。そこで本研究では、 スレッドおよびブロックの割 当て方 法が非 常に重 要となる。本 研 メモリ効率化手法としてActive Parameter Tracking( APT)法を 究では、図 2 のように、サブ領域の格子点数が nx × ny × nz の場合、 用いた [5] 。APT 法の詳細は文献 [5] を参照されたいが、MPF 法で多結 x 、y 方向にそれぞれ X ’ 、Y ’に分割した。つまり、サブ領域を nx /X ’ 晶 組 織 形 成の 3 次 元シミュレーションを高 速に行うためには、メ × ny /Y ’ × nz の小領域に分割し、nx /X ’ × ny /Y ’ × 1 のスレッドブ モリアクセス数やデータ通 信 量を低 減するためにも、APTの利 用 ロックが z 方向に nz 回移動するように計算した。スレッドとブロッ は必 須である。本 稿では、APT 法の処 理のうち隣 接 差 分 格 子 点の クの割り当て数については、計 算 領 域サイズや領 域 分 割 数に応じ データを必要としない処理をAPT1 、隣接差分格子点のデータを必 て、試行錯誤により最適値を決定した。 要とする処理をAPT2 と記する。 図 1 3 次 元 分 割による計 算 領 域の分 割 03 マルチフェーズフィールド法を用いた 金 属 多 結 晶 組 織 形 成シミュレーションの大 規 模 GPU 計 算 図 3 オーバーラッピング法の計 算ダイアグラム 図 2 スレッドブロックの設 定 GPU スーパーコンピューター TSUBAME2.5 における実行性能評価 3.4 オーバーラッピング法 4 複数のGPUとCPUを用いて並列計算する場合、並列数を増やすほ ど境 界 領 域のデータ通 信のオーバーヘッドが発 生し、実 行 性 能が 低 下する。そこで本 研 究では、CUDAの複 数カーネルの非 同 期 実 4.1 多結晶粒成長シミュレーション 行 機 能とGPU-CPU 間の非 同 期 通 信 機 能およびこれらの同 時 実 行 本研究で開発したMPF法の複数GPU計算法のベンチマークとして、 機能を利用して、数値演算とデータ通信をCPUとGPUの両方で同 東 京 工 業 大 学 学 術 国 際 情 報センターのGPUスーパーコンピュー 時に実 行し、オーバーヘッドを隠 蔽するためのアルゴリズム(オー ター TSUBAME2.5 において、多結晶粒成長の大規模 3 次元シミュ バーラッピング法 )を開発した 。 レーションを実施し、実行性能の評価を行った。実行性能の評価は、 図 3 に、オーバーラッピング法を適 用したMPF 法の計 算ダイア すべて単精度計算にて行った。 グラムを示す。本 方 法では、GPUで行う計 算を 4 つのストリーム 図 4 に、TSUBAME2.5 で計算した多結晶粒成長シミュレーション ( Stream 1 ~ Stream 4)として用意する。まず、Stream 1 では、各 の 結 果 の 一 例 を 示 す。こ の 例 で は、0.512 3 mm 3 の 計 算 領 域 を GPU に割り当てられたサブ領域内部に対して式( 3)の時間発展方 1024 3 の規則差分格子で分割し、256 台のGPUを用いて計算した。 程 式の計 算とAPT1 の処 理を行う。これと並 行して、Stream 2 ~ 初 期 結 晶 粒 数は 32768 個であり、図 4 では各 結 晶 粒に異なる色を Stream 4 では、境界領域に対して式( 3)の時間発展方程式の計算 付けて多結晶粒組織を可視化した。多結晶粒成長は、金属材料の を行う。Stream 2 ~ Stream 4 での計算が終わり次第、GPUのグロー 強度を調節するために行われる熱処理( 焼鈍 )などで生じる現象で バルメモリにある計 算 結 果をCPU 側のホストメモリへ転 送する。 あり、その際に観 察される結 晶 粒の粗 大 化と収 縮して消 滅する挙 ここでは、CUDAの非同期通信関数 (cudaMemCpyAsync ) を用いる。 動を良 好に再 現できている。このシミュレーションのような大 規 一 方、CPU は 1 計 算 ステ ッ プ 前 に 計 算 さ れ GPU の グロ ー バル 模な計 算 領 域で、かつ非 常に多 数の結 晶 粒で構 成されるミクロ組 メモリ上にある境 界 領 域の計 算 結 果をcudaMemCpyAsyncによ 織の変化を考慮したシミュレーションを行うことで初めて、正しい りホストメモリへ転 送した後、Stream 2 ~ Stream 4 の処が完 了 多結晶組織の統計学的評価( 例えば、結晶粒サイズの平均値の変 するのを待 機する。Stream 2 ~ Stream 4 の処 理が完 了すれば、 化やその分布の評価 )が可能となる。 境 界 領 域について APT 1 と APT 2 の処 理とそれに必 要なデータ 図 4 で示したような、多 結 晶 粒 成 長シミュレーションの実 行 性 通 信を行う。以 上の処 理により更 新された境 界 領 域のデータを 能を評 価するために、1GPUで計 算する差 分 格 子 点 数を 256 3 、結 cudaMemCpyAsyncによりGPUのグローバルメモリへ転送する。 晶 粒 数を 512 で一 定とし、使 用するGPU 数を変えることで計 算 領 CPUでの計算とデータ通信、および全てのStreamの実行完了を 域サイズを大きくした際の浮 動 小 数 点 演 算 性 能( FLOPS)の変 化 確 認してから、GPUが境 界 領 域に対してAPT 2 の計 算とデータ更 を評 価した。この評 価により、弱スケーリング性 能を評 価するこ 新を行い、1 計算ステップが完了する。なお、ホストメモリ上のデー とができる。図 5 に、弱スケーリング性能の評価結果を示す。オー タ更新は、Stream 1 ~ Stream 4 を実行している間に行うことがで バーラッピング法を導 入せずとも、FLOPS 値はGPU 数に比 例して きる。 増 加しており、良 好なスケーリング性 能が得られているが、オー [4] バーラッピング法を導入すれば、実行性能は全体的に 3 ~ 4 倍は向 上する。この結果、GPU 数を 729 、差分格子点数を 23043 、結晶粒 数を 373248 とした計算では、実行性能は 1.9 TFLOPSとなった。 04 次に、計算領域サイズと結晶粒数は一定とし、領域分割数(GPU 数 )を変 化させてシミュレーションを実 施した際のFLOPS 値の変 化 、すなわち強スケーリング性能を評価した。ここでは、2563 差分 格子点の計算領域に含まれる結晶粒数を 512 で一定とし、計算領 域を 2563 、5123 、10243 差分格子点とした。図 6 に、強スケーリン グ性 能の測 定 結 果を示す。基 本 的には、どの計 算 領 域サイズを用 いてもGPU 数の増 加によりFLOPS 値は線 形に増 加し、良好な強ス ケーリング性能が得られているが、2563 差分格子点の計算領域を 128GPUで計算した場合のように、設定した計算領域に対してGPU 数が過多となると、実行性能が低下する。これは、GPUで行う計算 時 間がCPUで行うデータ通 信などの処 理に要する時 間よりも短く なることで、オーバーラッピング効果が得られなくなったためであ る。しかしながら、計 算 領 域を 5123 および 10243 差 分 格 子とした 計算では、GPU 数が 100 を超えても良好なスケーラビリティが得ら れることがわかる。 図4 TSUBAME2.5 で計 算した多 結 晶 粒 成 長シミュレー ションの結 果 。差 分 格 子 点 数は 1024 3 であり、 256GPU を使 用した 。結 晶 粒ごとに異なる色を付 けて多 結 粒 組 織を可 視 化した 。 図 6 多 結 晶 粒 成 長シミュレーションの MPF 法の複 数 GPU 計 算の強スケーリング性 能 。 図 5 多 結 晶 粒 成 長シミュレ ーションの複 数 GPU 計 算の 弱スケーリング性 能 。 05 マルチフェーズフィールド法を用いた 金 属 多 結 晶 組 織 形 成シミュレーションの大 規 模 GPU 計 算 おわりに 5 MPF 法を用いて、金属材料中の多結晶組織形成の高速かつ大規模 なシミュレーションを行うために、複 数のGPUで並 列 計 算する方 法を開発した。本稿では、開発した計算法をGPUスーパーコンピュー ター TSUBAME2.5 に実装し、多結晶粒成長の大規模 3 次元シミュ レーションを行い、優れた実行性能を得られることを示した。現代 の材 料 制 御 技 術を利 用しても、実 験 的な研 究 開 発を繰り返して、 所望の結晶粒サイズを得るための最適条件を決定することは時間 のかかる作 業となる。我々が開 発した MPF 法の複 数 GPU 計 算 法 により、金属多結晶組織の変化を効率的かつ高精度に解析可能と なれば、材 料 開 発 期 間の短 縮、実 験コストの削 減に大きく貢 献で きるものと期待している。 謝 辞 本研究は、平成 25 年度および平成 26 年度の学際大規模情報基盤 共同利用研究・共同研究拠点の支援のもと行ったものである。関 係 者の皆 様に感 謝 申し上げる。また、本 研 究の一 部は、科 学 研 究 費 補 助 金・挑 戦 的 萌 芽 研 究( 課 題 番 号 25630322 )から支 援を頂 いた。記して謝意を表す。 参考文献 [1] I. Steinbach, F. Pezzola: A Generalized field method for multiphase transformations using interface fields, Physica D, Vol. 45, pp.385-393 (1999) [2] T. Shimokawabe, T. Aoki, T. Takaki, A. Yamanaka, A. Nukada, T. Endo, N. Maruyama, S. Matsuoka: Peta-scale phase-field simulation for dendritic solidification on the TSUBAME2.0 s u p e r c o m p u t e r, P r o c e e d i n g s o f t h e 2 0 1 1 A C M / I E E E International Conference for High Performance Computing, Networking, Storage and Analysis, SC’11, IEEE Computer Society, Seattle, WA, USA, (2011) [3] 岡本成史 , 山中晃徳 , 下川辺隆史 , 青木尊之 : マルチフェーズ フィールド 法 による 多 結 晶 粒 成 長 シミュレ ーション の複 数 GPU計算, 日本計算工学会論文集, Vol. 2013, p.20130018 (2013) [4] A. Yamanaka, M. Okamoto, T. Shimokawabe, T. Aoki: Large scale 3 D multi-phase-field simulation of microstructure evolution using TSUBAME 2 . 5 GPU-supercomputer, Proceedings of 2nd. International Congress on 3D Materials Science, The Minerals, Metals & Materials Society, pp.59-64, (2014) [5] S. G. Kim, D. I. Kim, W. T. Kim, Y. B. Park: Computer simulation of two-dimensional and three-dimensional ideal grain growth, Phys. Rev. E, Vol. 74, p.061605 (2006) 06 量 子モンテカルロ法に基づく 振 動 状 態 解 析の大 規 模 並 列 計 算 中山 涼 太 * 藤 岡 蔵 ** 北 幸海 ** 立 川 仁 典 ** * 横 浜 市 立 大 学 国 際 総 合 科 学 部 ** 横 浜 市 立 大 学 大 学 院 生 命ナノシステム科 学 研 究 科 本 稿では、我々が開 発した振 動 量 子モンテカルロ(vibQMC )法、およびその並 列 化の実 装 法について概 説する。 vibQMCプログラムの並 列 化 率は 99.9981%であり、東 京 工 業 大 学の TSUBAME2.5スーパーコンピューターシステムを 用いたベンチマーク計 算(最 大 5376 cores)による実 行 並 列 化 効 率は約 91%である。また大 規 模 並 列 計 算の応 用 事 例 として、大 気 中のエアロゾル形 成の前 駆 体となる負イオン核 一 水 和 物( H 3 O 2 - )に対する振 動 状 態 解 析の結 果についても 報 告を行う。 序論 1 方法 2 量子モンテカルロ( Quantum Monte Carlo; QMC)法 [1] は乱数を 本 研 究 で は 多 原 子 分 子 の 振 動 状 態 解 析 に、変 分 モンテカルロ 用いた確率論的な量子化学計算手法であり、原子や分子を問わず ( VMC)法とReptation Monte Carlo(RMC)法という2種類の量子 適 用 可 能な超 高 精 度 第 一 原 理 計 算の一つである。その中でも拡 モンテカルロ法を用いた。本 節ではこれら二 手 法について簡 単に 散モンテカルロ(Diffusion Monte Carlo; DMC)法は、高精度な変 説明を行う。 分エネルギーを与えることで知られている。しかしながら、( i)配 置数変動による誤差(population control bias)が不可避、(ii)ハ 2.1 変分モンテカルロ(VMC)法 ミルトニアンと非可換な演算子の固有値として与えられる物理量 VMC 法では、変 分パラメーターを含む任 意の試 行 反 動 関 数 を の計算が困難である、といった問題があり、事実上、DMC 法の適用 用いて、次式で定義されるハミルトニアン演算子 ( は 範囲は変分エネルギーの解析に制限されている。 運 動エネルギー演 算 子、 はポテンシャルエネルギー演 算 子 )の Reptation Monte Carlo(RMC)法 [2] は、DMC 法と同様に虚時間 期待値 を考える: 発 展を利 用した高 精 度な計 算 手 法でありながら、上 記の問 題を解 決することが出来る方法である。しかしRMC 計算は計算コストが 大きいため、その適用範囲は水分子 [3] など極めて小さな系に留まっ ている。 本 稿では、大 規 模 系に対する RMC 計 算の実 現に向けて実 装し た RMCプログラムの並 列 化の実 装 案を概 説し、東 京 工 業 大 学の TSUBAME 2.5スーパーコンピューターシステムを用いたベンチ ここで は多次元の一般化座標であり、配置ある マーク計算(最大 5376 cores)の結果について報告を行う。また大 いは walker と 呼ばれる 。また は局 所エネルギーで 規模並列計算の応用計算例として、大気中のエアロゾル形成の前 あり、試 行 波 動 関 数には実 関 数を仮 定した 。 ( 1)式はエネルギー 駆体となる負イオン核一水和物(H 3 O 2- )に対する振動状態解析の 期 待 値 が局 所エネルギー の 重み付き平 均によって算 出 結果について報告を行う。 されることを意味している。VMC 法では、 に従う配置のセット をメトロポリス法 [4] によって生 成することでエネル ギー期 待 値の算 定を行う 。 VMC 法では全エネルギーだけでなく、任意の演算子の期待値を 与えることが可 能であるが、その計 算 精 度は試 行 波 動 関 数 の 質に強く依 存する。多 電 子 系のQMC 計 算では、分 子 軌 道 計 算で 得られる単一( Hartree-Fock 法)あるいは複数( 配置間相互作用 法) のSlater 行列式にJastrow 因子と呼ばれる相関因子を付与した、 Slater-Jastrow 型試行波動関数を用いることが一般的である。多 原 子 分 子の振 動 状 態 解 析を主 目 的とした本 研 究では、試 行 波 動 関数には次式で表されるVibrational Self-Consistent Field(VSCF) 07 量 子モンテカルロ法に基づく振 動 状 態 解 析の大 規 模 並 列 計 算 型関数 [5] を用いた: を用いた。ここで、 、 は振動モードの換算質量 、 は分 散 を持つ正 規 分 布 乱 数、 は drift velocity である。また重みW によるreptileの採 択・棄 却にはメトロポリス ここで は i 番 目の振 動モードのmodal functionである。本 研 法を用いた。 究では調 和 振 動 子の固 有 関 数の線 形 結 合によって を展 開し、 十 分 長い虚 時 間 長 の下、reptile に対して採 択・棄 却を繰り返 [6] Umrigarらによって開 発された線 形 法 を用いて展 開 係 数の最 適 すことで、 reptile の両端の配置 q(0)、q( )の集合は分布 × へ、 N ( N /2 ) 化を行った。また最 適 化したVSCF 関 数は次 節で説 明するRMC 法 reptile の中央の配置 q における試行波動関数として用いる。 エネルギー期待値などハミルトニアンと可換な演算子の期待値は、 2.2 Reptation Monte Carlo(RMC)法 は分布 へと収束する。本研究では、 分布 × を用いて次式で定義されるmixed estimatorによっ て算出した: 以下、表記の簡単化のため問題を 1 次元とする。時間依存 Schrödinger 方程式の虚時間発展を利用したQMC 法では、任意の 試 行 波 動 関 数 に虚 時 間プロパゲータを作 用させることで正 確な波動関数 を得る: またポテンシャルエネルギーや分 子の幾 何 構 造など、ハミルトニ ここで は虚時間である。RMC 法では以下に示す仮想的な分配関 アンと非 可 換な演 算 子に対しては、分 布 を直 接 解 析すること 数 Z 0 を導入する: で期待値の算定を行った。 3 虚時間ステップを として虚時間プロパゲータ をN 個に短時間分解し、二次の短時間近似( Suzuki-Trotter 分解 [7 ] )を 並列化 用いることで、分配関数に対する以下の式を得る: 前節で概説したように、QMC 法による物理量の算定では、VMC 法 ではwalkerに対して、RMC 法ではreptileに対してメトロポリス法 ここで、 による多 重 マルコフ連 鎖を発 生させる。その際 、サンプリング回 数が十分多く、計算するサンプルの総量が変わらなければ、その生 成 方 法に寄らず統 計 学 的に等 価な結 果を得ることができる。した がって、QMCアルゴリズムの並列化に向けた最も単純かつ有効な 戦 略は、統 計 的に独 立した複 数のwalker/reptileを用いた配 置 空 間の同時サンプリングである。具体的には、単一のwalker/reptile を用いてサンプリング数を増やす代わりに、サンプリングに用いる である。q( )は虚時間 における配置であり、各虚時間におけ i walker/reptile 数を増大させる( 図 1 参照 )。 る 配置のセット を虚時間 Pathあるい は reptile と呼ぶ。 また二次近似として次式を用いている: ただし 、 、 、および である。 (5)式において、 は に従うreptileを生成する プロパゲータ、 はそのreptileの重みと解釈するこ とができる。本研究では、このreptileの生成にLangevin 方程式 図 1 マルコフ連 鎖の分 割の模 式 図 08 2) RMC 計 算では r (R1MC =0.3%となった。これは非 並 列 計 算( 1core) 時における処 理の内、VMC 計 算では 99.9981% が、RMC 計 算では 99.975%が並列化されたことに相当する。 図 2 並 列 化 QMCプログラムの概 略 図 本 研 究では、複 数になったマルコフ連 鎖を複 数のプロセスを用い て並 列 処 理する。並 列 化された QMCプログラム概 略を図 2 に示 す。ここでデータ処 理 用に用 意される 1 つのプロセスをマスター プロセス( Master Process)、マルコフ連鎖の計算を並列的に処理 するために用 意される 1 つもしくは複 数のプロセスがスレーブプ ロセス(Slave Process )である。並列化の実装にはMPI( Message 図 3 VMC 法 、RMC 法の Speed up (12 並 列 時の計 算を1とした) Passing Interface )を用い、ライブラリーにはOpen MPI 1.4.2 を用 いた。 4.2 負イオン一水和物 H 3 O 2- の解析 結果と考察 4 本 手 法を用いて、大 気 中のエアロゾル形 成の前 駆 体となる負イ オン核 一 水 和 物( H 3 O 2- )の振 動 状 態 解 析を行った。H3 O 2- は大 気 中に存 在する負イオン核 OH-に水 分 子が1つ配 位した系である。 原子核の量子効果を含めない通常の第一原理計算では、図 4 ( a)に 示すように中央のプロトンが片側の酸素原子に寄った構造が最安 4.1 並列化効率 定となる。しかし、このプロトン移 動の遷 移 状 態におけるエネル ギー障壁は極めて小さいことから(0.88 kJ/mol)、振動基底状態に 本研究では、東京工業大学のTSUBAME2.5スーパーコンピューター おいては中央のプロトンが酸素原子間の中央に位置した遷移状態 システム上で、最 大 5376プロセス( 1 process/core × 12 cores/ 構造が最安定構造となることが示唆されている( 図 4(b))[10] 。 node × 448 nodes)を用いて、並 列 化 効 率に関するベンチマーク 本研究では、H3 O2- 及びその重水素化(D)体、三重水素化( T )体 計算を実行した。ベンチマーク計算に使用した分子系は、正イオン に対して、振 動 基 底 状 態と中 央のプロトン移 動に関する振 動モー H 3 O + の一水和物 H 5 O 2+ の振動基底状態であり、ポテンシャルエネ ド(以下、架橋振動)の基音凖位の解析を行った。試行波動関数は ルギーにはBowmanらによってCCSD( T)/ aug-cc-pVTZ レベルの VSCF 波動関数、PESにはHuangらによってCCSD (T ) /aug-cc-pV T Z 第一原理計算を再現するように作成された解析的なポテンシャル の第一原理計算を再現するように作成された解析ポテンシャルを 関数 [8] を用いた。 用いた [8] 。 12 並列(1node)計算を基準にした際のVMC 計算とRMC 計算の VMC 法とRMC 法によって得られた各 系の零 点 振 動エネルギー ベンチマーク結果を図 3 に示す。5376 coresを用いた並列計算にお ( ZPE)と架橋振動の基本振動数を表 1 に示す。変分エネルギーで けるspeed up (=Time[12 process] / Time [ N process])は、VMC 計算 あるZPEに注 目すると、全ての系においてRMC 法による値がVMC で 4868(= 405.70 × 12 )倍、RMC 計算では 2307(=192.25 ×12 )倍 法よりも低いことから、RMC 法によって計 算 精 度が改 善されてい である。各計算における問題サイズは不変( アムダールの法則 [9] ) ることがわかる。また架 橋 振 動の基 本 振 動 数の実 験 値( H 体)は と仮定し、これらの結果とから両手法の基準計算(12 並列)におけ 697cm -1 と報 告されているが、RMC 法は誤 差 12 cm - 1 の精 度で実 る逐次実行部分の割合を見積もると、VMC 計算では r (12) VMC =0.023%、 験値を再現している。 09 量 子モンテカルロ法に基づく振 動 状 態 解 析の大 規 模 並 列 計 算 各 振 動 状 態における水 素 結 合プロトン( H*)の振る舞い解 析す 解析で報告されているが、本研究によりD 体・T 体におけるピーク るた め 構 造 パラメーター δOH* = R O1H* − R O2H* に注 目した 。ここで の分 裂は、主に架 橋 振 動の基 音 凖 位の寄 与であることが明らかに R O1H* 、O2H* は図 4( b)で定 義されている2つの OH* 間 距 離であり、 なった。 δOH* = 0 のときH*は酸素原子間の中央に位置することを意味する。 RMC 法から得られた振 動 基 底 状 態と架 橋 振 動の基 音 準 位におけ るδOH* の一 次 元 分 布を図 5 に示す。振 動 基 底 状 態ではH*は酸 素 原 子 間の中 央に分 布しており、同 様の振る舞いが先 行 研 究におい ても報告されている [10,12] 。またD 体、T 体でもD*、T * は酸素原子間 の中 央に位 置しているが、その分 布はH 体と比 較して局 在 化して いる。経路積分分子動力学法を用いたSuzukiらの解析 [12] では、報 告されている中で最も低 温である 50Kにおいて、D 体とT 体に有 意 な差は得られていないが、本 解 析により振 動 基 底 状 態( 0 Kelvin) においてT 体の分布は、D 体と比較してわずかに局在化することが わかった。 架橋振動の基音凖位においては、波動関数の節構造を反映した 結 果 、δOH* はダブルピーク構 造を持つ。2つの分 布の内、片 側 一 方に注 目すると、その分 布は原 子 核の質 量が軽いほど非 局 在 化し ており、かつピーク位 置は |δOH* | が大きい領 域へシフトしている ( 片側の酸素原子へ寄る)。δOH* = 0 はプロトン移動の遷移状態に 対応しているが、基底状態・基音凖位ともに原子核の質量が重い ほど遷 移 状 態 付 近の存 在 確 率が増 大するという興 味 深い結 果が 得られた。 図 4 H 3 O 2 - の平 衡 構 造(a)と振 動 平 均 構 造(b) 図 5( c)は、振 動 基 底 状 態と架 橋 振 動の基 音 準 位の二 状 態のみ を考 慮した場 合の 600KにおけるδOH* の一 次 元 分 布である。H 体 におけるδOH* は基底状態よりさらに非局在化したシングルピーク 構造を、D 体・T 体はわずかに分裂したダブルピーク構造を有して いる。同 様の分 裂がSuzukiらによる 600Kにおける経 路 積 分 法の 10 (a) 振 動 基 底 状 態、 図 5 H 3 O 2 - のδOH* の一 次 元 分 布 。 (b )架 橋 振 動の基 音 準 位、 (c )600K 。 単 位は Bohr 。 参考文献 [1] B.L. Hammond, W.A. Lester Jr. and P.J. Reynolds, “Monte Carlo Methods in Ab Initio Quantum Chemistry” ( World Scientific, 1994). [2] S. Baroni and S. Moroni, Phys. Rev. Lett., 82, 4745 (1999). [3] D.G. Oblinsky, W.K. Yuen, S.M. Rothstein, J. Mol. Struct. (THEOCHEM) 961, 219 (2010). [4] N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth, A.H. Teller [5] J. M. Bowman, J. Chem. Phys. 68, 608 (1978). [6] J.Toulouse, C.J. Umrigar, J. Chem. Phys. 126, 084102 (2007). and E. Teller, J. Chem. Phys., 21, 1087 (1953). [7] M. Suzuki, Proc. Japan Acad., 69, 161 (1993). [8] Huang et al. J. Am. Chem. Soc. 126, 5042 (2004). - 表 1 H 3 O 2 の零 点 振 動 点エネルギー(ZPE)と 架 橋 振 動の基 本 振 動 数(単 位は cm -1 ) [9] Gene M. Amdahl. Validity of the single processor approach to achieving large scale computing capabilities. In AFIPS Conference Proceedings, pp. 483-485 (1967). 結論 5 [10] A. B. McCoy, X. Huang, S. Carter, and J. M. Bowman, J. Chem. Phys. 123, 064317 (2005) [11] E.G. Diken, J.M. Headrick, J.R. Roscioli, J.C. Bopp, and M.A. Johnson, A.B. McCoy J. Phys. Chem. A, 109, 8 (2005). [12] K.Suzuki, M. Shiga, and M. Tachikawa, J. Chem. Phys. 129, 本稿では、変分モンテカルロ( VMC)法とReptation Monte Carlo 144310 (2008). ( RMC)法という2種類の量子モンテカルロ法、およびその並列化 の実装方法に関する概略を示した。東京工業大学のTSUBAME2.5 スーパーコンピューターシステムを用いたベンチマーク計算(最大 5376 cores)を実行した結果 、Speed upはVMC 法では 4868 倍(並 列化効率 91% ) を、RMC 法では 2307 倍 (並列化効率 43%) となった。 プログラム全体の並列化率はVMC 法では 99.9981%、RMC 法では 全体の 99.975%である。また大規模並列計算の応用例として、大 気中のエアロゾル形成の前駆体となる負イオン核一水和物 (H3 O2- ) に対する振動状態解析を行い、振動状態解析に対するQMC 法の有 効性を示した。 本 研 究では多 次 元のポテンシャルエネルギー曲 面の算 定に、計 算コストが安 価な解 析 的ポテンシャル関 数を使 用したが、第 一 原 理計算を併用したon-the-fly 法の利用により、今後さらなる並列化 効率の向上が期待される。 謝 辞 本研究における計算は「平成 26 年度秋期 TSUBAMEグランドチャ レンジ大規模計算制度(カテゴリー B)」の採択により、東京工業 大学学術国際情報センターの大型計算機( TSUBAME2.5)を利用 したものである。本制度を利用させて頂いた東京工業大学学術国 際情報センターの関係各位に深く感謝致します。また本研究の一 部は科学研究費補助金から支援を頂きました。 11 個別要素法による 粉体の大 規模シミュレーション 都 築 怜 理 渡 辺 勢 也 青木 尊之 東 京 工 業 大 学・学 術 国 際 情 報センター 砂や粉の振る舞いは液 体などと似ている場 合もあれば大きく違うときもある 。このような粉 体をシミュレーションするた めに、粒 子 間の接 触 相 互 作 用をバネと摩 擦のモデルで表 現した個 別 要 素 法が良く使われる 。スプーン1 杯に砂 糖が何 粒 あるかを想 像すれば分かる通り、実 際の粒 子サイズで粉 体をシミュレーションしようとすると 100 万 個を超える粒 子 数が 必 要になる 。粗 視 化モデルのアプローチもあるが限 界があり、スパコンによる大 規 模 計 算で実 際に近い粒 子サイズで粉 体シミュレーションを行う意 義は大きい 。粉 体は空 間 的な広がりが時 間 的に変 化するため、大 規 模 計 算で良く使われる領 域 分 割がそのままでは使えない 。粒 子 分 布に合わせて時々刻々と領 域 分 割を変 更しながら、動 的に計 算 負 荷のバランス を取ることが重要である。本稿では動的負荷分散をやり難いと言われているGPUスパコンにおいて、大規模粉体シミュレー ションを行い、いくつかの実 用 計 算とゴルフのバンカ ーショットのような砂 粒 子からゴルフボールへの運 動 伝 達を含む複 雑な粉体計算を行った例を示す。 はじめに 1 GPU による DEM 計算 2 粉体( 粉粒体)はさまざまな場面で現れ、その振る舞いが明らかに GPUは階層的なメモリ構造と 2,000 を超える演算コア (CUDAコア) されていない現 象も多い。工 学 的にもプリンターのトナーや製 薬 を持っている。GPUのアーキテクチャを考 慮した超 細 粒 度・超多 プロセス、化学工学プラントなどにおいて、粉体シミュレーション スレッドの計 算アルゴリズムと実 装を行うことにより、高い性 能 の需 要は高い。粉 体 計 算は粒 子 計 算の 1 つであり、天 体の重 力 多 を引き出すことができる。GPU のプログラミングは NVIDIA 社が 体 計 算と類 似した印 象を受ける場 合がある。しかし、粉 体の相 互 提供する統合開発環境のCUDAを用いる。 作用は後で述べるように接触による相互作用であるため、1 つの粒 子が相互作用する粒子は高々数 個 程 度であり、メモリ律 速の計 算 である。一方、重力多体計算や分子動力学計算などは相互作用す る粒子数が非常に多く、浮動小数点演算のコストが支配的である。 粉 体シミュレーションも粒 子 数を増やして行くと(メモリアク セスを含めた)計 算 負 荷が非 常に高くなり、これまで大 規 模 粉 体 シミュレーションは余り行われてこなかった。近年、スパコンの性 能は飛 躍 的に向 上し、実サイズの粒 子を用いた大 規 模 粉 体シミュ レーションが可能な性能を有している。しかし、プロセッサはマル チコア化し、数 千~数 万 計 算ノードから構 成されているため並 列 図 1 個 別 要 素 法の物 理モデル 計 算が必 須の条 件である。粉 体シミュレーションにおける粒 子 間 相 互 作 用は接 触による反 発と摩 擦であるため、粒 子 番 号による並 粉体シミュレーションの計算モデルを図 1 に示す。本研究では、 列 化は現 実 的でなく、領 域 分 割による並 列 化を行うことが必 要で 粉 体 粒 子 同 士が接 触すると反 発 力とダンパー( バネとダッシュ ある。時間・空間的に粒子分布が変化する粉体シミュレーション ポット)が作 用する個 別( 離 散 )要 素 法 DEM( Discrete Element に対し、計算負荷の分散とメモリ分散の目的で動的領域分割を導 Method)を用いている。せん断方向にはバネとダッシュポットに 入する必要がある。GPU(Graphics Processing Unit)は演算性能、 加えて摩 擦 力も発 生する。粒 子 運 動は式( 1)に従い、加えられた メモリバンド幅や電 力 効 率の点で有 利な反 面、メモリ階 層が深く 力とトルクに対して 2 次精度のルンゲクッタ法かleap-frogなどに データ移 動のオーバーヘッドが大きい。本 稿では、そのGPUを用 より時間積分される。 いて大 規 模 粉 体シミュレ ーションを実 行するためのアルゴ リズム の開発と実装を行い、実用問題への適用例を示す。 GPU 計 算では、各 粒 子の持つ速 度や座 標、運 動 量などの従 属 変 数 は粒 子 構 造 体の中のメンバ変 数として GPUボード上の Deviceメ モリ(CUDAプログラミング上では、グローバル・メモリ)に保持 され、1スレッドが 1 粒子を計算する。 12 DEM のように接 触した粒 子とのみ相 互 作 用する局 所 性の高い 割し、各 分 割 幅 内の粒 子を数え上げる。境 界を移 動すべき距 離が 計 算では、全 粒 子との接 触 判 定を行うことは非 効 率 的である。計 分かると、境 界が移 動したために小 領 域 外にはみ出る粒 子をGPU 算 領 域を仮 想 的に格 子に分 割し、自 身の属する格 子(セル )及び 上でパッキングし、隣接小領域のGPUにホスト計算機を介してデー 隣 接するセルに属する粒 子とのみ相 互 作 用 計 算を行う「セル分 割 タ転 送する。複 数ノードに分 散するGPU 間ではMPIライブラリに 法 」を用いて計 算する。粒 子が属するセルに全ての粒 子 番 号を登 よる通 信が必 要になる。受け取る側の小 領 域はパッキングされた 録する通常のセル分割法ではメモリ不足を引き起こす可能性があ 粒子を小領域の粒子に加え領域の再分割が完了する。 る。図 2 のように各セルでは 1 つの粒 子の番 号のみを登 録し、同 粒子は運動するため、時間積分後に境界を横切り領域外に出た 一セルに属するその他の粒 子は粒 子 番 号を数 珠つなぎに保 持する 粒子の通信や、隣接小領域内の接触する可能性がある粒子のデー Linked-list を導 入する [1][2] 。これにより空 間 格 子のメモリ使 用 量 は 静的な空間格子を用いる場合と比較して 8 分の 1 に削減できる。 タ転送も必要になる。GPUではメモリの確保や解放に非常に時間 がかかるため、粒 子データを格 納するメモリはある程 度 静 的に保 持する必 要がある。一 方、このような頻 繁な小 領 域 境 界を横 切る 粒 子 移 動が起こると、使 用するメモリの断 片 化が発 生する。そこ で図 5 のように定 期 的に粒 子の再 整 列を行い、メモリの断 片 化を 解消する。 図 2 Linked-list を用いた近 傍 粒 子 探 索 動的負荷分散を用いた複数 GPU 計算 3 複数のGPUで粉体計算を行うには、計算領域を小領域に分割し、分 割された各 小 領 域にGPUを割り当てて計 算する。図 3 の左 側のよ 図 4 粒 子の数え上げと境 界 線の変 更 うに均等分割した場合、 小領域内の粒子数に偏りが生じる。そこで、 図 3 右図のように小領域内の粒子数を一定にするために、小領域の 境界を計算途中で移動させるスライスグリッド法を導入する [3] 。 図 3 スライスグリッド法による負 荷 分 散 図 5 Deviceメモリ上の粒 子データの再 整 列 境 界 線の移 動にともない隣 接 小 領 域に移 動する粒 子をGPU 上で 探索するための効率的な手法を提案する。粒子は小領域のどこに 分布しているか不明なので、図 4 のように小領域を微小幅 で分 13 個別要素法による粉体の大 規模シミュレーション TSUBAME2.5 における 強・弱スケーリング 4 スライスグリッド法による動 的 負 荷 分 散を導 入した DEM の GPU コードを用いて、TSUBAME 2.5 の GPU (K20X) で大規模粉体シミュ レーションの実 行 性 能を強スケーリングで検 証した。図 6 のスク リューが粉体中で回転する撹拌計算を約 200 万個、約 1,600 万個、 約 1 億 2,900 万 個の粒 子により計 算する場 合の実 行 性 能の測 定 結 果を図 7 に示す。 縦軸の実行性能は用いた粒子数を計算時間で割ったもので、1 秒 当たり何 個の粒 子を計 算できるかを意 味している。図 7 の× 印で 表された 2 つの測定点が、それぞれ 1 億 2,900 万粒子を用いた場合 の 256GPU 、512GPUに対する実 行 性 能の測 定 結 果である。同 一 図 7 粉 体シミュレーションの強・弱スケーリング 線 上の実 行 性 能の変 化が強スケーリングを示している。1,600 万 個 程度までの粒 子 数であれば、8 ~ 16 倍まではGPU 数の増加に応 じて性 能 向 上が期 待できるが、それ以 上は性 能が飽 和してくるこ とが分かる。弱スケーリングは 4GPU による 200 万 粒 子の計 算、 32 GPU による1,600 万粒子の計算 、256GPUによる 1 億 2,900 万粒 提案手法の実用問題への適用 子の計 算に対する実 行 性 能を比 較することにより検 証でき、理 想 5 的な直 線と比 較して大きく性 能 低 下していることがわかる。スラ イスグリッド法の欠 点である分 割された小 割領域の形 状( アスペ クト比)の悪 化による領 域 間 通 信 量の増 大が原 因となり並 列 化 効 率が低 下したためである。DEM 計算 へ のスライスグリッド法の適 用限界が 256GPU 〜 512GPU 程度であること が 確認できる。 工 業 的、産 業 的に重 要ないくつかの典 型 的な粉 体 現 象に対して、 動 的 負 荷 分 散を用いた複 数 GPU による大 規 模シミュレーション を行った。実 用 的なDEM 計 算には任 意 形 状の物 体との相 互 作 用 を取り扱う必 要がある。図 8 のようにCADデータから物 体 表 面か らの符号付距離関数( Level Set 関数)を事前計算しておくことに より [4] 、そのLevel Set 関数を参照するだけで物体-粒子間の距離 が求まり、粒子-物体間の相互作用を効率的に計算できる。 図 6 64 台の GPU を使い 412 万 個の粒 子を使った 撹拌計算 図 8 Level Set 関 数による物 体 形 状 表 現 433 万 個の粒 子による粉 体の搬 送 計 算を 64 GPUを用いて計 算 した結果をそれぞれ図 9 に、416 万個の粒子による螺旋すべり台の 計算を 32 GPUを用いて計算した結果を図 10 に示す。 ゴルフのバンカーショットはサンドウェッジのスイングによる 砂のかき上げと、かき上げられた砂によるゴルフボールへの運 動 14 伝 達を含む複 雑な問 題である。解 析 手 法である DEM は計 算コス を 64 台の GPU を用いて行った。サンドウェッジの軌 道は回 転 及 トが高いため、これまでは 10 万個程度の粒子による 2 次元計算に び二 重 振り子モデルから決 定している。バ ン カーショットに特 徴 とどまっている [5] 。実 際の砂と同 程 度のサイズの粒 子を数 千 万 個 的な砂 上のゴルフボールの「目 玉」の初 期 状 態は、実 際と同じよ 〜 1 億個用いることにより、実現象のスケールでの 3 次元 バ ンカー うにボールを落とし、DEM 計算で 64,000 ステップかけて生成して ショット・シミュレーションを実行することができた。 いる。サンドウェッジの先端の最大速度を 5.0 m/s としてスイン バンカー砂に含まれる粗 砂を想 定し、粒 子 半 径 0.4 mmの粒 子 グを開始した。計算結果を図 11 に示す。 1,670 万 個を用いた大 規 模 バ ンカーショット・シミュレーション 図 9 64 台の GPU を使い 433 万 個の粒 子を使った 搬送計算 図 10 32 台の GPU を使い 416 万 個の粒 子を使った 螺 旋すべり台のシミュレーション算 図 11 1,670 万 粒 子のバンカーショット計 算 15 個別要素法による粉体の大 規模シミュレーション 非球形粒子を用いた DEM 計算 6 複数の粒子を剛体連結させた非球形の粒子モデルを用いることで、 球形粒子よりも粒子間の摩擦を正確に表現でき、より現実の現象 に近い粉 体シミュレーションが可 能となる [6] 。1 つの非 球 形 粒 子 を複数の粒子を用いて表現するため球形粒子を用いたDEMに比べ て多くの粒 子が必 要となり計 算コストが増 大するため、GPU 計 算 の必要性が高まる。1 台のGPUで数十万~数百万個の非球形粒子 ( a ) 球 形 粒 子による計 算 による粉体シミュレーションを実行することができた。 図 12 テトラポッド 型 非 球 形 粒 子 実 問 題への適 用 例として、長 靴の足 跡のシミュレーションを実 ( b ) テトラポッド型の非 球 形 粒 子による計 算 行した。図 12 のように、4 つの粒子をテトラポッド型に連結させた 非球形粒子を約 40 万個用いた。図 13 に( a)球形粒子、 ( b)テト ラポッド型の非球形粒子を用いた場合のシミュレーション結果を 示す。非球形粒子を用いた場合は粒子間のインターロックの影響 が表われ、靴底の溝が確認できるほど明確な足跡が砂に残った。非 球形粒子で計算することで粒子間の摩擦を正確に表現できること を確認した。 16 図 13 長 靴の足 跡のシミュレーション まとめ 7 Miyasaka, Katsuaki Ohdoi, Investigation of elemental shape for 3 D DEM modeling of interaction between soil and a narrow cutting tool, Journal of Terramechanics, Volume 50, Issue 4, August 2013, Pages 265-276,ISSN0022-4898. DEM 計 算に動 的 負 荷 分 散を導 入することにより、大 規 模 粉 体シ ミュレーションをGPUスパコンで実 行することができた。スライ スグリッド法によるGPU 間の動 的 領 域 分 割と近 傍 粒 子 探 索にお けるLinked-list 法の導入により、効率的に粉体計算を実行する手 法を提 案した。複 雑 形 状 物 体を含む問 題や非 球 形 粒 子のDEM 計 算も可 能になり、今 後は流 体と連 成させるなどより実 用 問 題への 展開が期待できる。 謝辞 本 研 究 の 一 部 は、科 学 研 究 費 補 助 金・ 基 盤 研 究( S)課 題 番 号 26220002「ものづくりHPC アプリケーションのエクサスケールへ の進 化」、科 学 技 術 振 興 機 構 CREST「ポストペタスケール高 性 能 計算に資するシステムソフトウェア技術の創出」、学際大規模情報 基盤共同利用・共同研究拠点、および革新的ハイパフォーマンス・ コンピューティング・インフラから支 援を頂いた。記して謝 意を 表す。 参考文献 [1] G. S. Grest, B. D¨unweg, and K. Kremer, “Vectorized link cell Fortran code for molecular dynamics simulations for a large number of particles,” Computer Physics Communications, vol. 55, pp. 269–285, Oct. 1989. [2] Gomez-Gesteira, M., Crespo, A., Rogers, B., Dalrymple, R.,Dominguez, J. and Barreiro, A.: fSPHysicsg development of a free-surface fluid solver Part 2 : Efficiency and test cases,Computers and Geosciences, Vol. 48, No. 0, pp. 300 – 307 (2012). [3] S, Tsuzuki, and T, Aoki: Large-scale granular simulations using Dynamic load balance on a GPU supercomputer, in Poster at the 26th IEEE/ACM International Conference on High Performance Computing, Networking, Storage and Analysis (SC) 2014, New Orleans, US-LA, USA (2014). [4] J. A. Bærentzen and H. Aanæs, “Computing discrete signed distance fields from triangle meshes,” Informatics and Mathematical Modeling, Technical University of Denmark, DTU, Richard Petersons Plads, Building 321, DK-2800 Kgs. Lyngby, Tech. Rep., 2002. [5] 堀井 宏祐 , 小泉 孝之 , 辻内 仲好 , 三木 光範 , 日高 重助 , 折戸 啓太 ,: " 並列粒子要素法によるバンカーショット解析 ", 情報 処 理 学 会 論 文 誌 , 数 理モデル化と応 用 , Vol. 44, No. 14, pp. 91-99 (2003) [6] I k u y a O n o , H i r o s h i N a k a s h i m a , H i r o s h i S h i m i z u , J u r o 17 ● TSUBAME e-Science Journal vol.13 2015 年 3 月 10 日 東京工業大学 学術国際情報センター発行 © ISSN 2185-6028 デザイン・レイアウト:キックアンドパンチ 編集: TSUBAME e-Science Journal 編集室 青木尊之 渡邊寿雄 佐々木淳 仲川愛理 住所: 〒 152-8550 東京都目黒区大岡山 2-12-1-E2-6 電話: 03-5734-2085 FAX:03-5734-3198 E-mail:[email protected] URL: http://www.gsic.titech.ac.jp/ 18 vol. TSUBAME 共同利用サービ ス 『みんなのスパコン』TSUBAME 共同利用サービスは、 ピーク性能 5.7PFlops 、18000CPUコア、4300GPU 搭載 世界トップクラスの東工大のスパコンTSUBAME2.5 を 東工大以外の皆さまにご利用いただくための枠 組みです。 課題公募する利用区分とカテゴリ 共同利用サービスには、 「学術利用」 「産業利用」 、 「社会貢献利用」 、 の3つの利用区分があり、 さらに「成 果公開」と「成 果非公開」のカテゴリがあります。 ご利用をご検 討の際には、下記までお問い合わせください。 他大学や公的研究機関の研究者の 学術利用[有償利用] TSUBAME 民間企業の方の 産業利用[有償・無償利用] 共同利用とは… [有償利用] その他の組織による社会的貢献のための 社会貢献利用 共同利用にて提 供する計算資源 共同 利 用サービスの利 用区 分・カテゴリ別の利 用課 金 表を下 記に示します。TSUBAME における計算 機 資 源の割 振りは口 数を単 位としており、1 口は標 準 1ノード (12 CPUコア, 3GPU, 55.82GBメモリ搭載)の 3000 時間分 (≒約 4 ヵ月)相当の計算 機資 源です。 1000 CPUコアを1.5日利用する使い方や、100 GPUを3.75日利用する使い方も可能です。 利用区分 利用者 制度や利用規定等 カテゴリ 利用課金(税抜)※ 学術利用 他大学または 研究機関等 共同利用の 利用規定に基づく 成果公開 1口:120,000 円 産業利用 民間企業を中心 としたグループ 「先端研究基盤共用・ プラットフォーム形成 事業」に基づく 非営利団体、 公共団体等 共同利用の 利用規定に基づく 社会貢献利用 成果公開 トライアルユース(無償利用) 1口:120,000 円 成果非公開 1口:480,000 円 成果公開 1口:120,000 円 成果非公開 1口:480,000 円 ※ 平成 27 年度の利用課金です。最新の利用課金については、下記 URL をご参照ください。 http://www.gsic.titech.ac.jp/kyodou/kakin 産業利用トライアルユース制度(先端研究基盤共用・プラットフォーム形成事業) 東 工 大のスパコンTSUBAMEを、より多くの企 業の皆さまにご利 用いただくため、初めて TSUBAMEをご利 用いただく際に、無 償にてご試 用いただける制 度です。 (文部 科 学省 先 端 研 究 基 盤 共 用・プラットフォーム形成事業による助成) 詳しくは、下 記までお問い合わせください。 お問い合わせ ●東京工業大学 学術国際情報センター 共同利用推進室 ●e-mail [email protected] Tel. 03-5734-2085 Fax. 03-5734-3198 詳しくは http://www.gsic.titech.ac.jp/tsubame/をご覧ください。 13
© Copyright 2024 Paperzz