九州大学 研究者情報
論文一覧
大島 聡史(おおしま さとし) データ更新日:2024.04.10

准教授 /  情報基盤研究開発センター 先端計算科学研究部門


原著論文
1. 大島聡史, 南里豪志, 美添一樹, 平島智将, 原田浩睦, 池田嗣穂, 九州大学情報基盤研究開発センター新スーパーコンピュータシステムの紹介, 大学ICT推進協議会 2023年度 年次大会, 2023.12.
2. Kenji Sugisaki, Srinivasa Prasannaa, Satoshi Ohshima, Takahiro Katagiri, Yuji Mochizuki, Bijaya Kumar Sahoo, Bhanu Pratap Das, Bayesian phase difference estimation algorithm for direct calculation of fine structure splitting: accelerated simulation of relativistic and quantum many-body effects, Electronic Structure, 10.1088/2516-1075/acf909, 2023.09, Abstract

Despite rapid progress in the development of quantum algorithms in quantum computing as well as numerical simulation methods in classical computing for atomic and molecular applications, no systematic and comprehensive electronic structure study of atomic systems that covers almost all of the elements in the periodic table using a single quantum algorithm has been reported. In this work, we address this gap by implementing the recently-proposed quantum algorithm, the Bayesian Phase Difference Estimation (BPDE) approach, to determine fine structure splittings of a wide range of boron-like atomic systems. Since accurate estimate of fine structure splittings strongly depend on the relativistic as well as quantum many-body effects, our study can test the potential of the BPDE approach to produce results close to the experimental values. Our numerical simulations reveal that the BPDE algorithm, in the Dirac–Coulomb–Breit framework, can predict fine structure splittings of ground states of the considered systems quite precisely. We performed our simulations of relativistic and electron correlation effects on Graphics Processing Unit by utilizing NVIDIA’s cuQuantum, and observe a ×42.7 speedup as compared to the Central Processing Unit-only simulations in an 18-qubit active space..
3. 大島聡史, 伊田明弘, 河合直聡, 横田理央, 山崎市太郎, CUDA Fortran+MIG+UVMを用いたBLR行列QR分解の大規模高速化, 情報処理学会研究報告(Web), 2023, HPC-190, 2023.07.
4. 杉﨑研司, Prasannaa V. S, 大島聡史, 片桐孝洋, 森野慎也, 望月祐志, Sahoo B. K, Das B. P, 「不⽼」 Type II上でcuQuantum量⼦シミュレータを⽤いた相対論的量⼦化学計算の事例, 第28回計算工学講演会 予稿集, 2023.06.
5. 青木 将太, 片桐 孝洋, 大島 聡史, 永井 亨, 星野 哲也, 数値計算ライブラリの自動チューニングにおけるXAI適用の試み—An Adaptation of XAI to Auto-tuning for Numerical Calculation Library, 計算工学講演会論文集 = Proceedings of the Conference on Computational Engineering and Science / 日本計算工学会 編, 28, 904-907, 2023.05.
6. Shinya Hashinoki, Satoshi Ohshima, Takahiro Katagiri, Toru Nagai, Tetsuya Hoshino, Implementation of Radio Wave Propagation using RT Cores and Consideration of Programming Models., IPDPS Workshops, 10.1109/IPDPSW59300.2023.00115, 673-681, 2023.05.
7. Satoshi Ohshima, Akihiro Ida, Rio Yokota, Ichitaro Yamazaki, QR Factorization of Block Low-Rank Matrices on Multi-Instance GPU, Parallel and Distributed Computing, Applications and Technologies, https://doi.org/10.1007/978-3-031-29927-8_28, 2023.04.
8. Satoshi Ohshima, Akihiro Ida, Rio Yokota, Ichitaro Yamazaki, QR Factorization of Block Low-Rank Matrices on Multi-instance GPU, Parallel and Distributed Computing, Applications and Technologies, 10.1007/978-3-031-29927-8_28, 359-369, 2023.04.
9. Shouhei Yamanashi, Hisashi Yashiro, Takahiro Katagiri, Toru Nagai, Satoshi Ohshima, Autotuning Power Consumption and Computation Accuracy using ppOpen-AT., MCSoC, 10.1109/MCSoC57363.2022.00041, 208-215, 2023.01.
10. 望月 祐志, 中野 達也, 坂倉 耕太, 渡邊 啓正, 佐藤 伸哉, 奥脇 弘次, 秋澤 和輝, 土居 英男, 大島 聡史, 片桐 孝洋, FMOプログラムABINIT-MPの整備状況2022, J. Comp. Chem. Jpn., 10.2477/jccj.2022-0037, 21, 4, 106-110, 2022.12, We have been developing the ABINIT-MP program for fragment molecular orbital (FMO) calculations over 20 years. Several improvements for accelerated processing were made after the release of Open Version 2 Revision 4 at September 2021. Functionalities were enhanced as well. In this short report, we summarize such developments toward the next release of Revision 8..
11. 定方 翼, 沼波 政倫, 片桐 孝洋, 大島 聡史, 永井 亨, 磁場閉じ込めプラズマの乱流シミュレーション・データに対する画像を用いた解析—Image-based Analysis for Turbulence Simulation Data of Magnetic Confined Plasmas—小特集 プラズマ・核融合シミュレーション研究の最近の進展, シミュレーション = Journal of the Japan Society for Simulation Technology / 日本シミュレーション学会 編, 41, 4, 228-233, 2022.12.
12. Toyotaro Suzumura, Akiyoshi Sugiki, Hiroyuki Takizawa, Akira Imakura, Hiroshi Nakamura, Kenjiro Taura, Tomohiro Kudoh, Toshihiro Hanawa, Yuji Sekiya, Hill Hiroki Kobayashi, Yohei Kuga, Ryo Nakamura, Renhe Jiang, Junya Kawase, Masatoshi Hanai, Hiroshi Miyazaki, Tsutomu Ishizaki, Daisuké Shimotoku, Daisuke Miyamoto, Kento Aida, Atsuko Takefusa, Takashi Kurimoto, Koji Sasayama, Naoya Kitagawa, Ikki Fujiwara, Yusuke Tanimura, Takayuki Aoki, Toshio Endo, Satoshi Ohshima, Keiichiro Fukazawa, Susumu Date, Toshihiro Uchibayashi, mdx: A Cloud Platform for Supporting Data Science and Cross-Disciplinary Research Collaborations., DASC/PiCom/CBDCom/CyberSciTech, 10.1109/DASC/PiCom/CBDCom/Cy55231.2022.9927975, 1-7, 2022.12.
13. 大島聡史, 伊田明弘, 横田理央, 山崎市太郎, マルチインスタンスGPU上におけるBLR行列のQR分解, 日本応用数理学会年会講演予稿集(CD-ROM), 2022, 2022.09.
14. Tsubasa SADAKATA, Shuta KITAZAWA, Masanori NUNAMI, Takahiro KATAGIRI, Satoshi OHSHIMA, Toru NAGAI, A Novel Approach for Data Analysis Based on Visualization of Phase Space Distribution Function in Plasma Turbulence Simulations, Plasma and Fusion Research, 10.1585/pfr.17.2403079, 17, 2403079-2403079, 2022.06.
15. 片桐 孝洋, 青木 将太, 大島 聡史, 永井 亨, 高精度行列積ライブラリの性能チューニングにおけるXAIの適用と評価—Adaptation and Evaluation of XAI to Performance Auto-tuning on an Accurate Precision Matrix-Matrix Library, 計算工学講演会論文集 = Proceedings of the Conference on Computational Engineering and Science / 日本計算工学会 編, 27, 548-551, 2022.06.
16. Toyotaro Suzumura, Akiyoshi Sugiki, Hiroyuki Takizawa, Akira Imakura, Hiroshi Nakamura, Kenjiro Taura, Tomohiro Kudoh, Toshihiro Hanawa, Yuji Sekiya, Hill Hiroki Kobayashi, Shin Matsushima, Yohei Kuga, Ryo Nakamura, Renhe Jiang, Junya Kawase, Masatoshi Hanai, Hiroshi Miyazaki, Tsutomu Ishizaki, Daisuké Shimotoku, Daisuke Miyamoto, Kento Aida, Atsuko Takefusa, Takashi Kurimoto, Koji Sasayama, Naoya Kitagawa, Ikki Fujiwara, Yusuke Tanimura, Takayuki Aoki, Toshio Endo, Satoshi Ohshima, Keiichiro Fukazawa, Susumu Date, Toshihiro Uchibayashi, mdx: A Cloud Platform for Supporting Data Science and Cross-Disciplinary Research Collaborations., CoRR, 10.48550/arXiv.2203.14188, abs/2203.14188, 2022.05.
17. 満田, 晴紀, 片桐, 孝洋, 坂倉, 耕太, 中野, 達也, 望月, 祐志, 大島, 聡史, 永井, 亨, A64FXを用いたフラグメント分子軌道計算プログラムの性能評価, 第84回全国大会講演論文集, 2022, 1, 63-64, 2022.02, フラグメント分子軌道計算(FMO)を行うソフトウェアABINIT-MPについて、名古屋大学情報基盤センターが提供するスーパーコンピュータ「不老」TypeⅠサブシステム(CPU:ARMA64FX)を用いて性能評価した結果を示す。.
18. 鵜野, 圭介, 大島, 聡史, 片桐, 孝洋, 永井, 亨, Mesh Tensorflowを用いたMNIST学習の性能評価, 第84回全国大会講演論文集, 2022, 1, 65-66, 2022.02, Mesh tensorflowは2019年に提案された分散型深層学習用の言語である。モデル並列によって大規模ニューラルネットワーク学習を行うといった特徴を持つソフトウェアだが、BERT型の構造を持つニューラルネットワークのみにしか使用できない点もあり性能評価事例が多くない。そこで本研究ではGPUスパコン上でMesh Tensorflowのサンプルコードの性能評価を行う。コード内ではパラメタとしてバッチサイズやレイアウトルール等が存在するため、それらを考慮した性能評価を行う。.
19. 福原, 諒河, 森下, 誠, 片桐, 孝洋, 大島, 聡史, 永井, 亨, サポートベクターマシンへのCMOSアニーリング適用の検討, 第84回全国大会講演論文集, 2022, 1, 69-70, 2022.02, 本発表ではサポートベクターマシン(SVM)にCMOSアニーリングを適用することを検討する。SVMとは線形入力素子を利用して2クラスのパターン識別器を構成する手法である。訓練サンプルから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準で線形入力素子のパラメータを学習する。この際誤分類の許容度や汎化性能におけるハイパーパラメータの調整が必要になるが本研究では交差エントロピー損失を評価指標としてチューニングする。一方、CMOSアニーリングマシンは「組合せ最適化問題」に対して高速に最適解を出すアニーリング技術を常温環境で利用できる非ノイマン型計算機である。これを2クラス分類問題に用いSVMと比較する。.
20. Naruya Kitai, Daisuke Takahashi, Franz Franchetti, Takahiro Katagiri, Satoshi Ohshima, Toru Nagai, An Auto-tuning with Adaptation of A64 Scalable Vector Extension for SPIRAL., IEEE International Parallel and Distributed Processing Symposium Workshops, 10.1109/IPDPSW52791.2021.00117, 789-797, 2021.06.
21. Makoto Morishita, Satoshi Ohshima, Takahiro Katagiri, Toru Nagai, Parallelization of GKV benchmark using OpenACC., IEEE International Parallel and Distributed Processing Symposium Workshops, 10.1109/IPDPSW52791.2021.00109, 723-729, 2021.06.
22. Naruya Kitai, Daisuke Takahasi, Franz Franchetti, Takahiro Katagiri, Satoshi Ohshima, Toru Nagai, Adaptation of A64 Scalable Vector Extension for Spiral, 情報処理学会 研究報告(HPC-178), 1-6, 2021.03.
23. 藤家空太郎, 多部田敏樹, 藤井昭宏, 田中輝雄, 加藤由花, 大島聡史, 片桐孝洋, GPUクラスタを用いて並列化した自動チューニングの機械学習プログラムへの適用と安定性の検証, 情報処理学会 研究報告(HPC-178), 1-8, 2021.03.
24. 枦木慎也, 大島聡史, 片桐孝洋, 永井亨, RTコアによるハードウェアレイトレーシングの性能評価, 情報処理学会 第83回全国大会, 1-2, 2021.03.
25. 藤家空太郎, 多部田敏樹, 藤井昭宏, 田中輝雄, 加藤由花, 大島聡史, 片桐孝洋, マルチGPU環境における機械学習ハイパーパラメータの自動チューニング(2), 情報処理学会 第83回全国大会, 1-2, 2021.03.
26. 多部田敏樹, 藤家空太郎, 藤井昭宏, 田中輝雄, 加藤由花, 大島聡史, 片桐孝洋, マルチGPU環境における機械学習ハイパーパラメータの自動チューニング(1), 情報処理学会 第83回全国大会, 1-2, 2021.03.
27. 大山基樹, 森下誠, 片桐孝洋, 大島聡史, 永井亨, 量子アニーリングマシンにおける組み合わせ最適化問題の適用可能性の調査, 情報処理学会 第83回全国大会, 1-2, 2021.03.
28. 青木将太, 片桐孝洋, 大島聡史, 永井亨, 高精度行列-行列積における疎行列演算実装選択の自動チューニングの検討, 情報処理学会 第83回全国大会, 1-2, 2021.03.
29. 藤家, 空太郎, 多部田, 敏樹, 藤井, 昭宏, 田中, 輝雄, 加藤, 由花, 大島, 聡史, 片桐, 孝洋, マルチGPU環境における機械学習ハイパーパラメータの自動チューニング(2), 第83回全国大会講演論文集, 2021, 1, 43-44, 2021.03, 我々は反復一次元探索を用いた自動チューニングの研究に取り組んでおり,マルチGPU環境を用いた機械学習のプログラムのハイパーパラメータの最適化を進めている.機械学習は同一のハイパーパラメータを用いても毎回教師データが変わるなど同一の結果にならないため,自動チューニングの結果にブレが生じる.このブレに対して,これまで,我々は推定したパラメータに対して追加測定を行い自動チューニングの安定性を高める手法を提案してきた.本研究では,歩行者経路予測アプリケーションに用いる機械学習プログラムに適用しマルチGPU環境で推定したハイパーパラメータの値を並列化し複数回まとめて追加測定することによる,自動チューニングの精度向上について示す..
30. 多部田, 敏樹, 藤家, 空太郎, 藤井, 昭宏, 田中, 輝雄, 加藤, 由花, 大島, 聡史, 片桐, 孝洋, マルチGPU環境における機械学習ハイパーパラメータの自動チューニング(1), 第83回全国大会講演論文集, 2021, 1, 41-42, 2021.03, 我々は複数のパラメータを同時に推定する手法として,パラメータ空間における反復一次元探索を提案している.この手法はパラメータの組み合わせを自動的に選択し,その実行性能を実測,さらに別の組み合わせの選択を繰り返すことで探索を行う.この提案手法を機械学習プログラムに適用する.機械学習には複数のハイパーパラメータが存在し,適切なハイパーパラメータの組み合わせを推定するには時間がかかる.本研究は歩行者経路予測アプリケーションに用いる機械学習のハイパーパラメータについて適切な組み合わせを推定し,マルチGPU環境を利用して実測処理を並列化することで,約15日かかる推定が約12時間で完了することを示す..
31. 田村守淑, 今野雅, 大島聡史, LNGタンク内の異密度LNGの混合流動解析, オープンCAE・FrontISTR合同シンポジウム2020, 1-7, 2020.12.
32. 秋山善克, 池田拓士, 今野雅, 大島聡史, OpenFOAMへのカスタムキャビテーションモデルの実装, オープンCAE・FrontISTR合同シンポジウム2020, 1-3, 2020.12.
33. 池田拓士, 秋山善克, 今野雅, 大島聡史, カスタムキャビテーションモデルを用いたNACA0015水中翼周りの数値解析, オープンCAE・FrontISTR合同シンポジウム2020, 1-2, 2020.12.
34. 高橋一郎, 大島聡史, 片桐孝洋, スーパーコンピュータ「不老」における光ディスクライブラリを用いたコールドストレージシステムの構築, 大学ICT推進協議会 2020年度 年次大会, 1-6, 2020.12.
35. 田島嘉則, 山田一成, 高橋一郎, 毛利晃大, 片桐孝洋, 大島聡史, 永井亨, スーパーコンピュータ「不老」のサービスとエコシステム, 大学ICT推進協議会 2020年度 年次大会, 1-4, 2020.12.
36. 大島聡史, 永井亨, 片桐孝洋, スーパーコンピュータ「不老」のシステム構成と性能, 大学ICT推進協議会 2020年度 年次大会, 1-8, 2020.12.
37. 大島聡史, 今野雅, スーパーコンピュータ「不老」におけるOpenFOAMの性能評価, オープンCAE・FrontISTR合同シンポジウム2020, 1-10, 2020.12.
38. Fumiya Ishiguro, Takahiro Katagiri, Satoshi Ohshima, Toru Nagai, Performance Evaluation of Accurate Matrix-Matrix Multiplication on GPU Using Sparse Matrix Multiplications, 2020 Eighth International Symposium on Computing and Networking Workshops (CANDARW), 10.1109/CANDARW51189.2020.00044, 178-184, 2020.11.
39. 大島聡史, 飯塚幹夫, 小野謙二, Parareal法における低精度演算・混合精度演算の活用, 日本応用数理学会 2020年 年会, 2020, 64-65, 2020.09.
40. 大島聡史, 小田昌宏, 片桐孝洋, 森健策, 名古屋大学スーパーコンピュータ「不老」における医用画像処理, 電子情報通信学会 技報 MI2020-32(2020-09), 120, 156(MI2020 17-32), 69-74, 2020.09.
41. 片桐孝洋, 山梨祥平, 八代尚, 大島聡史, 永井亨, 自動チューニング言語ppOpen-ATによる混合精度演算の最適化機能について, 日本応用数理学会年会講演予稿集(CD-ROM), 2020, 2020.09.
42. 大島聡史, 永井亨, 片桐孝洋, スーパーコンピュータ「不老」の性能評価, 情報処理学会 研究報告(HPC-175), 2020, HPC-175, 1-10, 2020.07.
43. 杉浦拓未, 大島聡史, 片桐孝洋, 横田達也, 本谷秀堅, 永井亨, 医用画像処理におけるLDDMMのマルチGPU高速化, 情報処理学会 研究報告(HPC-175), 2020, HPC-175, 1-7, 2020.07.
44. 大島聡史, 飯塚幹夫, 小野謙二, Parareal法における低精度計算・混合精度計算の活用について, 第25回計算工学講演会, 25, 1-2, 2020.06.
45. Kenji Ono, Toshihiro Kato, Satoshi Ohshima, Takeshi Nanri, Scalable Direct-Iterative Hybrid Solver for Sparse Matrices on Multi-Core and Vector Architectures, HPCAsia2020: Proceedings of the International Conference on High Performance Computing in Asia-Pacific Region, 10.1145/3368474.3368484, 11-21, 2020.01, In the present paper, we propose an efficient direct-iterative hybrid solver for sparse matrices that can derive the scalability of the latest multi-core, many-core, and vector architectures and examine the execution performance of the proposed SLOR-PCR method. We also present an efficient implementation of the PCR algorithm for SIMD and vector architectures so that it is easy to output instructions optimized by the compiler. The proposed hybrid method has high cache reusability, which is favorable for modern low B/F architecture because efficient use of the cache can mitigate the memory bandwidth limitation. The measured performance revealed that the SLOR-PCR solver showed excellent scalability up to 352 cores on the cc-NUMA environment, and the achieved performance was higher than that of the conventional Jacobi and Red-Black ordering method by a factor of 3.6 to 8.3 on the SIMD architecture. In addition, the maximum speedup in computation time was observed to be a factor of 6.3 on the cc-NUMA architecture with 352 cores..
46. 中島大地, 大島聡史, 五嶋優詞, 横田達也, 片桐孝洋, 本谷秀堅, 永井亨, 岩本千佳, 大内田研宙, 橋爪誠, 3次元医用画像データの再構成処理の並列化, 情報処理学会研究報告(Web), 2019, HPC-172, 1-7, 2019.12.
47. Satoshi Ohshima, Ichitaro Yamazaki, Akihiro Ida, Rio Yokota, Optimization of Numerous Small Dense-Matrix-Vector Multiplications in H-matrix Arithmetic on GPU, 2019 IEEE 13th International Symposium on Embedded Multicore/Many-core Systems-on-Chip (MCSoC), 10.1109/MCSoC.2019.00009, 9-16, 2019.10.
48. 大島聡史, 山崎市太郎, 伊田明弘, 横田理央, GPUによる階層型行列計算法の高速化に向けた多数の小密行列ベクトル積計算の最適化, 日本応用数理学会年会講演予稿集(CD-ROM), 2019, 180‐181, 2019.09.
49. Satoshi Ohshima, Soichiro Suzuki, Tatsuya Sakashita, Masao Ogino, Takahiro Katagiri, Yoshimichi Andoh, Performance evaluation of the MODYLAS application on modern multi-core and many-core environments, In Proceedings of IPDPSW2019, pp.xx--xx, 2019.08.
50. Satoshi Ohshima, Soichiro Suzuki, Tatsuya Sakashita, Masao Ogino, Takahiro Katagiri, Yoshimichi Andoh, Performance evaluation of the MODYLAS application on modern multi-core and many-core environments, IPDPSW2019, 2019.05.
51. Satoshi Ohshima, Soichiro Suzuki, Tatsuya Sakashita, Masao Ogino, Takahiro Katagiri, 512bit SIMD環境における分子動力学アプリケーションMODYLASの性能評価, 研究報告ハイパフォーマンスコンピューティング(HPC), 166, 14, 1-9, 2018.09.
52. 大島聡史, 鈴木惣一朗, 坂下逹哉, 荻野正雄, 片桐孝洋, 安藤嘉倫, 512bit SIMD環境における分子動力学アプリケーションMODYLASの性能評価, 情報処理学会研究報告(Web), 2018, HPC-166, Vol.2018‐HPC‐166,No.14,1‐9 (WEB ONLY), 2018.09.
53. 大島聡史, 藤井昭宏, 田中輝雄, 深谷猛, 須田礼仁, マルチコア・メニーコア計算機環境におけるChebyshev基底通信削減CG法の性能評価, 日本応用数理学会年会講演予稿集(CD-ROM), 2018, 471‐472, 2018.09.
54. 石黒史也, 片桐孝洋, 大島聡史, 永井亨, 荻野正雄, 高精度行列-行列積のためのBatched BLASおよび疎行列演算を用いた実装方式のGPU環境での性能評価, 日本応用数理学会年会講演予稿集(CD-ROM), 2018, 147‐148, 2018.09.
55. Ichitaro Yamazaki, Ahmad Abdelfattah, Akihiro Ida, Satoshi Ohshima, Stanimire Tomov, Rio Yokota, Jack Dongarra, Performance of Hierarchical-matrix BiCGStab Solver on GPU Clusters, 32nd IEEE International Parallel and Distributed Processing Symposium, IPDPS 2018
Proceedings - 2018 IEEE 32nd International Parallel and Distributed Processing Symposium, IPDPS 2018
, 10.1109/IPDPS.2018.00102, 930-939, 2018.08, [URL], HACApK is a software package for solving dense linear systems of equations and is used in other software packages, like ppohBEM for solving boundary integral equations. To enable the solution of large-scale boundary value problems, HACApK hierarchically compresses the coefficient matrix and uses the BiConjugate Gradient Stabilized (BiCGStab) method for solving the linear system. To extend HACApK's capability, this paper outlines how we ported the HACApK linear solver onto GPU clusters. Though the potential of GPUS has been widely accepted in high-performance computing, it is still a challenge to utilize the GPUS for a solver, like HACApK, that requires fine-grained irregular computation and global communication. To utilize the GPUS, we integrated the variable-size batched GPU kernel that was recently released in the MAGMA software package. This is the first time the variable-size batched kernels were used in a solver or application code. We discuss several techniques to improve the performance of the batched kernel and demonstrate the effects of these techniques on two state-of-The-Art GPU clusters. For instance, with two 14-core Intel Xeon CPUs and four NVIDIA P100 GPUS per node, the GPU kernel obtained a solver speedup of 8× on one node and 4× on eight nodes. We also show that when the inter-GPU communication becomes significant, the solution time can be further reduced by a factor of 2× by carefully designing the communication layer with the underlying node architecture in mind..
56. Satoshi Ohshima, Akihiro Fujii, Teruo Tanaka, Takeshi Fukaya, Reiji Suda, Chebyshev基底通信削減CG法のマルチコア・メニーコア計算環境における性能評価, 研究報告ハイパフォーマンスコンピューティング(HPC), 165, 17, 1-9, 2018.07.
57. Fumiya Ishiguro, Takahiro Katagiri, Satoshi Ohshima, Toru Nagai, Masao Ogino, GPGPUによる高精度行列-行列積アルゴリズムのためのBatched BLASを用いた実装方式の提案, 研究報告ハイパフォーマンスコンピューティング(HPC), 165, 32, 1-8, 2018.07.
58. Takeshi Nanri, Satoshi Ohshima, Kenji Ono, Mellanox社のスイッチ装置への集団通信オフロード機能による集団通信隠蔽効果の調査, 研究報告ハイパフォーマンスコンピューティング(HPC), 165, 12, 1-10, 2018.07.
59. 大島聡史, 藤井昭宏, 田中輝雄, 深谷猛, 須田礼仁, Chebyshev基底通信削減CG法のマルチコア・メニーコア計算環境における性能評価, 情報処理学会研究報告(Web), 2018, HPC-165, Vol.2018‐HPC‐165,No.17,1‐9 (WEB ONLY), 2018.07.
60. 石黒史也, 片桐孝洋, 大島聡史, 永井亨, 荻野正雄, GPGPUによる高精度行列-行列積アルゴリズムのためのBatched BLASを用いた実装方式の提案, 情報処理学会研究報告(Web), 2018, HPC-165, Vol.2018‐HPC‐165,No.32,1‐8 (WEB ONLY), 2018.07.
61. 南里豪志, 大島聡史, 小野謙二, Mellanox社のスイッチ装置への集団通信オフロード機能による集団通信隠蔽効果の調査, 情報処理学会研究報告(Web), 2018, HPC-165, Vol.2018‐HPC‐165,No.12,1‐10 (WEB ONLY), 2018.07.
62. Yoshimichi Andoh, Soichiro Suzuki, Satoshi Ohshima, Tatsuya Sakashita, Masao Ogino, Takahiro Katagiri, Noriyuki Yoshii, Susumu Okazaki, A thread-level parallelization of pairwise additive potential and force calculations suitable for current many-core architectures, Journal of Supercomputing, 10.1007/s11227-018-2272-2, 74, 6, 2449-2469, 2018.06, In molecular dynamics (MD) simulations, calculations of potentials and their derivatives by coordinate, i.e., forces, in a pairwise additive manner such as the Lennard–Jones interactions and a short-range part of the Coulombic interactions form the main part of arithmetic operations. It is essential to achieve high thread-level parallelization efficiency of these pairwise additive calculations of potentials and forces to use current supercomputers with many-core architectures effectively. In this paper, we propose four new thread-level parallelization algorithms for the pairwise additive potential and force calculations. We implement the four codes in a MD calculation code based on the fast multipole method. Performance benchmarks were taken on the FX100 supercomputer and Intel Xeon Phi coprocessor. The code succeeds in achieving high thread-level parallelization efficiency with 32 threads on the FX100 and up to 60 threads on the Xeon Phi..
63. 大島聡史, 山崎市太郎, 伊田明弘, 横田理央, 階層型行列計算におけるソフトウェア自動チューニング, 計算工学講演会論文集(CD-ROM), 23, ROMBUNNO.D‐05‐03, 2018.06.
64. Ichitaro Yamazaki, Ahmad Abdelfattah, Akihiro Ida, Satoshi Ohshima, Stanimire Tomov, Rio Yokota, Jack J. Dongarra, Performance of Hierarchical-matrix BiCGStab Solver on GPU Clusters., 2018 IEEE International Parallel and Distributed Processing Symposium, IPDPS 2018, Vancouver, BC, Canada, May 21-25, 2018, 10.1109/IPDPS.2018.00102, 930-939, 2018.05.
65. Satoshi Ohshima, Ichitaro Yamazaki, Akihiro Ida, Rio Yokota, Optimization of Hierarchical matrix computation on GPU, In proceedings of Supercomputing Frontiers. SCFA 2018, Lecture Notes in Computer Science, 10.1007/978-3-319-69953-0_16, 10776, 274-292, Lecture Notes in Computer Science, vol 10776. Springer, Cham, pp.274–292, Print ISBN=978-3-319-69952-3, Online ISBN=978-3-319-69953-0, DOI=https://doi.org/10.1007/978-3-319-69953-0_16, 2018.03.
66. Fumiya Ishiguro, Takahiro Katagiri, Satoshi Ohshima, Toru Nagai, Masao Ogino, 高精度行列-行列積アルゴリズムにおけるbatched BLASの適用, 第80回情報処理学会全国大会
第80回情報処理学会全国大会 予稿集
, 2018.03.
67. Satoshi Ohshima, Ichitaro Yamazaki, Akihiro Ida, Rio Yokota, Optimization of Hierarchical matrix computation on GPU, Lecture Notes in Computer Science, 10.1007/978-3-319-69953-0_16, 10776, 2018.03, [URL].
68. Satoshi Ohshima, Ichitaro Yamazaki, Akihiro Ida, Rio Yokota, Optimization of hierarchical matrix computation on GPU, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 10.1007/978-3-319-69953-0_16, 10776, 274-292, 2018.03, The demand for dense matrix computation in large scale and complex simulations is increasing
however, the memory capacity of current computer system is insufficient for such simulations. Hierarchical matrix method (H -matrices) is attracting attention as a computational method that can reduce the memory requirements of dense matrix computations. However, the computation of H -matrices is more complex than that of dense and sparse matrices
thus, accelerating the H -matrices is required. We focus on H -matrix - vector multiplication (HMVM) on a single NVIDIA Tesla P100 GPU. We implement five GPU kernels and compare execution times among various processors (the Broadwell-EP, Skylake-SP, and Knights Landing) by OpenMP. The results show that, although an HMVM kernel can compute many small GEMV kernels, merging such kernels to a single GPU kernel was the most effective implementation. Moreover, the performance of BATCHED BLAS in the MAGMA library was comparable to that of the manually tuned GPU kernel..
69. 石黒史也, 片桐孝洋, 大島聡史, 永井亨, 荻野正雄, 高精度行列-行列積アルゴリズムにおけるBatched BLASの適用, 情報処理学会全国大会講演論文集, 80th, 1, 1.49‐1.50, 2018.03.
70. Yoshimichi Andoh, Soichiro Suzuki, Satoshi Ohshima, Tatsuya Sakashita, Masao Ogino, Takahiro Katagiri, Noriyuki Yoshii, Susumu Okazaki, A thread-level parallelization of pairwise additive potential and force calculations suitable for current many-core architectures, The Journal of Supercomputing, 10.1007/s11227-018-2272-2, 1573-0484, 2018.02.
71. Satoshi Ohshima, Takeshi Nanri, Yoshitaka Watanabe, Hirofumi Amano, Kenji Ono, スーパーコンピュータシステムITOの性能評価, 研究報告ハイパフォーマンスコンピューティング(HPC), 162, 7, 1-9, 2017.12, 九州大学情報基盤研究開発センターではスーパーコンピュータシステム “ITO” を導入し,2017 年 10 月より一部システムによる試験運用を開始,2018 年 1 月より全システムによるサービス提供を予定している.本システムは最新の CPU や GPU を搭載していることに加えて,オープンデータの活用やパブリッククラウドサービスとの連携を考慮した挑戦的なシステムである.本稿では ITO の設計を紹介し,既に試験運用を開始しているバックエンドサブシステム B を用いて測定した性能評価の結果を示す..
72. Takeshi Nanri, Satoshi Ohshima, Kenji Ono, 非ブロッキング集団通信の通信隠蔽効果に関する調査, 研究報告ハイパフォーマンスコンピューティング(HPC), 162, 17, 1-11, 2017.12, 本稿では,非ブロッキング集団通信による通信隠蔽技術について,特にプログレススレッドを用いた場合の実用上の効果を計測し,評価した.従来の通信隠蔽率のみを計測するベンチマークプログラムでは,プログレススレッドを利用した場合の計算性能の低下による影響が計測結果に反映されないため,実用性の検証が困難である.そこで本稿では,計算と通信を含む総合的な性能評価を行うため,スレッド並列とプロセス並列によるハイブリッド並列のベンチマークプログラムを作成した.このプログラムは,通信と計算の量をそれぞれ明示的に指定するため,プログレススレッドへの CPU コアの割り当て方法やスレッドのスケジューリングポリシーなどの実行時パラメータを変化させた場合の,計測結果の相互比較も可能となった.このプログラムを,Fujitsu PRIMERGY CX 400 および Fujitsu PRIMEHPC FX 100 上で実行し,性能を計測した.その結果,Alltoall では,適切な実行時パラメータを選択することにより,プログラム全体としての性能向上が見込めることが分かった.一方,Allreduce では,特にノード内で複数のプロセスを起動した場合に,性能が低下する場合があることが分かった.これらの結果から,非ブロッキング集団通信の利用にあたっては,使用する集団通信の種類やメッセージサイズ,計算量等に応じて,効果を事前に調査することが重要であることを確認した.また,非ブロッキング集団通信を推進するもう一つの手段であるオフロード機能について,Mellanox 社の SHArP 機能を用いた場合の通信隠蔽効果を予備評価し,通信隠蔽による性能向上が見込めることを確認した..
73. 大島聡史, 南里豪志, 渡部善隆, 天野浩文, 小野謙二, スーパーコンピュータシステムITOの性能評価, 情報処理学会研究報告(Web), 2017, HPC-162, Vol.2017‐HPC‐162,No.7,1‐9 (WEB ONLY), 2017.12.
74. 南里豪志, 大島聡史, 小野謙二, 非ブロッキング集団通信の通信隠蔽効果に関する調査, 情報処理学会研究報告(Web), 2017, HPC-162, Vol.2017‐HPC‐162,No.17,1‐11 (WEB ONLY), 2017.12.
75. 野村行弘, 佐藤一誠, 佐藤一誠, 佐藤一誠, 塙敏博, 花岡昇平, 中尾貴祐, 竹永智美, 佐藤大介, 星野哲也, 関谷勇司, 大島聡史, 林直人, 阿部修, スーパーコンピュータ上でのDeep Learning学習環境の初期構築, 電子情報通信学会技術研究報告, 117, 281(MI2017 47-62), 1‐2, 2017.10.
76. 大島聡史, 山崎市太郎, 伊田明弘, 横田理央, 階層型行列計算のGPU向け最適化, 日本応用数理学会年会講演予稿集(CD-ROM), 2017, 151‐152, 2017.09.
77. Satoshi Ohshima, Ichitaro Yamazaki, Akihiro Ida, Rio Yokota, GPUクラスタ上における階層型行列計算の最適化, 研究報告ハイパフォーマンスコンピューティング(HPC), 160, 14, 1-8, 2017.07, 階層型行列は小さな密行列と低ランク近似行列から構成される行列である.密行列を階層型行列によって近似することで,大規模な計算をより少ないメモリ量で行うことが可能となる.しかし階層型行列を用いた計算は複雑であるため,最適化が求められている.我々はこれまで階層型行列を用いた境界要素法による静電場解析問題の実装と評価をマルチコア CPU やメニーコアプロセッサにて実施してきた.本稿では,階層型行列を係数行列に持つ線形方程式に対する反復法を対象として,GPU クラスタ上での性能評価や最適化に取り組んだ結果を示す.主要な計算部である階層型行列ベクトル積計算を構成する密行列ベクトル積計算を MAGMA BLAS に行わせることで高速化を目指したところ,GPU カーネル起動のオーバーヘッドにより実行時間が増大したが,BATCHED MAGMA を用いることで大幅に性能が改善した.実験環境としては TSUBAME 2.5 (最大 8 ノード / 1 ノードあたり 1 GPU) および Reedbush-H (最大 8 ノード / 1 ノードあたり 1 GPU) を使用し,それぞれ 8 ノードまで性能向上は得られたが,ノード数を増やした場合には MPI 処理の時間も目立ってきており,さらなる最適化が求められる結果となった..
78. 大島聡史, 山崎市太郎, 伊田明弘, 横田理央, GPUクラスタ上における階層型行列計算の最適化, 情報処理学会研究報告(Web), 2017, HPC-160, Vol.2017‐HPC‐160,No.14,1‐8 (WEB ONLY), 2017.07.
79. Takahiro Katagiri, Satoshi Ohshima, Masaharu Matsumoto, Auto-tuning on NUMA and Many-core Environments with an FDM code, 31st IEEE International Parallel and Distributed Processing Symposium, IPDPS 2017
The Twelfth International Workshop on Automatic Performance Tuning (iWAPT2017) (In Conjunction with the IEEE IPDPS2017)
, 2017.06.
80. Takahiro Katagiri, Satoshi Ohshima, Masaharu Matsumoto, Auto-Tuning on NUMA and many-core environments with an FDM code, Proceedings - 2017 IEEE 31st International Parallel and Distributed Processing Symposium Workshops, IPDPSW 2017, 10.1109/IPDPSW.2017.27, 1399-1407, 2017.06, In this paper, we focus on auto-tuning (AT) performance on nonuniform memory access (NUMA) and many-core architectures. Code from the finite difference method (FDM) is selected to evaluate AT performance, and results on the Xeon Phi (Knights Landing, KNL) for four kinds of memory (FLAT and CACHE) and cluster modes (QUADRANT and SNC4) yielded the following findings: (1) The KNL memory mode did not affectoverall performance, except FLAT-SNC4. The difference ofexecution time for the CACHE mode to the FLAT mode was only 0.99%. (2) Hyper-threading (HT) technology worked well, and yielded 1.86x (baseline) and 1.50x (with AT). (3) Varying hybrid MPI/OpenMP execution was very effective for KNL. Themaximum factors of speedups were 2.16x in the baseline and2.91x with AT. (4) AT with code selection persisted as a powerful tool, even in KNL. We obtained speedups by AT for a maximum of 1.64x. Moreover, we had room to speedup by a further 1.31x by adapting AT for the fastest execution..
81. Tetsuya Hoshino, Satoshi Ohshima, Toshihiro Hanawa, Kengo Nakaima, Akihiro Ida, Pascal vs KNL: Performance Evaluation with ICCG Solve, HPC in Asia Workshop Poster Session, ISC High Performance 2017, 2017.06.
82. 片桐 孝洋, 大島 聡史, 松本 正晴, ポストムーア時代における有限差分法コードの自動チューニング技法の一考察, 計算工学講演会論文集 Proceedings of the Conference on Computational Engineering and Science, 22, ROMBUNNO.C‐01‐1, 2017.05.
83. 塙敏博, 星野哲也, 中島研吾, 大島聡史, 伊田明弘, GPU搭載スーパーコンピュータReedbush‐Hの性能評価, 情報処理学会研究報告(Web), 2017, HPC-159, Vol.2017‐HPC‐159,No.9,1‐6 (WEB ONLY), 2017.04.
84. 星野哲也, 大島聡史, 塙敏博, 中島研吾, 伊田明宏, OpenACCを用いたICCG法ソルバーのPascal GPUにおける性能評価, 情報処理学会研究報告(Web), 2017, HPC-158, Vol.2017‐HPC‐158,No.18,1‐9 (WEB ONLY), 2017.03.
85. 塙敏博, 星野哲也, 中島研吾, 大島聡史, 伊田明弘, Xeon Phi+OmniPath環境におけるOpenMP,MPI性能最適化, 情報処理学会研究報告(Web), 2017, HPC-158, Vol.2017‐HPC‐158,No.21,1‐8 (WEB ONLY), 2017.03.
86. 中島研吾, 中島研吾, 大島聡史, 大島聡史, 塙敏博, 星野哲也, 伊田明弘, 伊田明弘, ICCG法ソルバーのIntel Xeon Phi向け最適化, 情報処理学会研究報告(Web), 2016, HPC-157, Vol.2016‐HPC‐157,No.16,1‐8 (WEB ONLY), 2016.12.
87. 塙敏博, 中島研吾, 中島研吾, 大島聡史, 大島聡史, 星野哲也, 伊田明弘, 伊田明弘, パイプライン型共役勾配法の性能評価, 情報処理学会研究報告(Web), 2016, HPC-157, Vol.2016‐HPC‐157,No.6,1‐9 (WEB ONLY), 2016.12.
88. 塙敏博, 中島研吾, 大島聡史, 伊田明弘, 星野哲也, 田浦健次朗, データ解析・シミュレーション融合スーパーコンピュータシステムReedbush‐Uの性能評価, 情報処理学会研究報告(Web), 2016, HPC-156, Vol.2016‐HPC‐156,No.10,1‐10 (WEB ONLY), 2016.09.
89. 片桐孝洋, 松本正晴, 大島聡史, 高バンド幅メモリ環境における数値計算アルゴリズムの変革と自動チューニング技術~FDMコードを例にして~, 日本応用数理学会年会講演予稿集(CD-ROM), 2016, ROMBUNNO.9GATSU12NICHI,09:30,3E,1, 2016.09.
90. 片桐孝洋, 松本正晴, 大島聡史, 3次元積層技術による高メモリバンド幅時代の自動チューニング~FDMコードを例にして~, 情報処理学会研究報告(Web), 2016, HPC-155, Vol.2016‐HPC‐155,No.38,1‐8 (WEB ONLY), 2016.08.
91. 塙敏博, 伊田明弘, 大島聡史, 河合直聡, FPGAを用いた階層型行列ベクトル積, 情報処理学会研究報告(Web), 2016, HPC-155, Vol.2016‐HPC‐155,No.40,1‐9 (WEB ONLY), 2016.08.
92. 大島聡史, 伊田明弘, 河合直聡, 塙敏博, 階層型行列ベクトル積のメニーコア向け最適化, 情報処理学会研究報告(Web), 2016, HPC-155, Vol.2016‐HPC‐155,No.39,1‐9 (WEB ONLY), 2016.08.
93. Kengo Nakajima, Masaki Satoh, Takashi Furumura, Hiroshi Okuda, Takeshi Iwashita, Hide Sakaguchi, Takahiro Katagiri, Masaharu Matsumoto, Satoshi Ohshima, Hideyuki Jitsumoto, Takashi Arakawa, Futoshi Mori, Takeshi Kitayama, Akihiro Ida, Miki Y. Matsuo, ppOpen-HPC: Open Source Infrastructure for Development and Execution of Large-Scale Scientific Applications on Post-Peta-Scale Supercomputers with Automatic Tuning (AT), OPTIMIZATION IN THE REAL WORLD: TOWARD SOLVING REAL-WORLD OPTIMIZATION PROBLEMS, 10.1007/978-4-431-55420-2_2, 13, 15-35, 2016.08, ppOpen-HPC is an open source infrastructure for development and execution of large-scale scientific applications on post-peta-scale (pp) supercomputers with automatic tuning (AT). ppOpen-HPC focuses on parallel computers based on many-core architectures and consists of various types of libraries covering general procedures for scientific computations. The source code, developed on a PC with a single processor, is linked with these libraries, and the parallel code generated is optimized for post-peta-scale systems. In this article, recent achievements and progress of the ppOpen-HPC project are summarized..
94. Takahiro Katagiri, Masaharu Matsumoto, Satoshi Ohshima, Auto-tuning of hybrid MPI/OpenMP execution with code selection by ppOpen-AT, 30th IEEE International Parallel and Distributed Processing Symposium Workshops, IPDPSW 2016
Proceedings - 2016 IEEE 30th International Parallel and Distributed Processing Symposium, IPDPS 2016
, 10.1109/IPDPSW.2016.49, 1488-1495, 2016.07, [URL], In this paper, we propose an effective kernel implementation for an application of the finite difference method (FDM) by merging computations of central-difference and explicit time expansion schemes without IF statements inside the loops. The effectiveness of the implementation depends on the CPU architecture and execution situation, such as the problem size and the number of MPI processes and OpenMP threads. We adopt auto-tuning (AT) technology to select the best implementation. The AT function for the selection, referred to as «code selection», is implemented in an AT language, namely, ppOpen-AT. The results of experiments conducted using current advanced CPUs (Xeon Phi, Ivy Bridge, and FX10) indicated that crucial speedups of conventional AT are achieved by code selection. In particular, the heaviest kernels achieved speedups of 4.21x (Xeon Phi), 2.52x (Ivy Bridge), and 2.03x (FX10)..
95. Satoshi Ohshima, Takahiro Katagiri, Masaharu Matsumoto, Utilization and expansion of ppOpen-AT for OpenACC, 30th IEEE International Parallel and Distributed Processing Symposium Workshops, IPDPSW 2016
Proceedings - 2016 IEEE 30th International Parallel and Distributed Processing Symposium, IPDPS 2016
, 10.1109/IPDPSW.2016.123, 1496-1505, 2016.07, [URL], For application programmers, reducing efforts for optimizing programs is an important issue. Our solution of this issue is an auto-tuning (AT) technique. We are developing an AT language named ppOpen-AT. We have shown that this language is useful for multi-and many-core parallel programming. Today, OpenACC attracts attention as an easy and useful graphics processing unit (GPU) programming environment. While OpenACC is one possible parallel programming environment, users have to spend time and energy in order to optimize OpenACC programs. In this study, we investigate the usability of ppOpen-AT for OpenACC programs and propose to expand ppOpen-AT for further optimization of OpenACC..
96. 片桐 孝洋, 大島 聡史, 松本 正晴, 田中 輝雄, 望月 大義, 村田 陸, 藤井 昭宏, 高橋 大介, エクサスケールコンピューティングに向けた自動性能チューニング研究の進展(AT研究動向とAT専用言語ppOpen-ATの最新機能の紹介/複数性能パラメタ空間における実行時AT機構/FFTにおけるAT), ハイパフォーマンスコンピューティングと計算科学シンポジウム論文集, 2016, 47-48, 2016.05.
97. 片桐 孝洋, 松本 正晴, 大島 聡史, ポストムーア時代に向けた階層型自動チューニング機能の性能評価, 計算工学講演会論文集 Proceedings of the Conference on Computational Engineering and Science, 21, ROMBUNNO.F‐1‐1, 2016.05.
98. 安藤 嘉倫, 鈴木 惣一朗, 大島 聡史, 分子動力学計算ソフトウェアMODYLASのメニーコアアーキテクチャ対応並列化に関する研究(分子動力学計算による研究の現状と課題/粒子対計算部分のメニーコア間スレッド並列の効率化/Xeon Phiによる分子動力学計算の高速化), ハイパフォーマンスコンピューティングと計算科学シンポジウム論文集, 2016, 97-98, 2016.05.
99. Takahiro Katagiri, Masaharu Matsumoto, Satoshi Ohshima, Auto-tuning of Hybrid MPI/OpenMP Execution with Code Selection by ppOpen-AT, 2016 IEEE 30TH INTERNATIONAL PARALLEL AND DISTRIBUTED PROCESSING SYMPOSIUM WORKSHOPS (IPDPSW), 10.1109/IPDPSW.2016.49, 1488-1495, 2016.05, In this paper, we propose an effective kernel implementation for an application of the finite difference method (FDM) by merging computations of central-difference and explicit time expansion schemes without IF statements inside the loops. The effectiveness of the implementation depends on the CPU architecture and execution situation, such as the problem size and the number of MPI processes and OpenMP threads. We adopt auto-tuning (AT) technology to select the best implementation. The AT function for the selection, referred to as "code selection", is implemented in an AT language, namely, ppOpen-AT. The results of experiments conducted using current advanced CPUs (Xeon Phi, Ivy Bridge, and FX10) indicated that crucial speedups of conventional AT are achieved by code selection. In particular, the heaviest kernels achieved speedups of 4.21x (Neon Phi), 2.52x (Ivy Bridge), and 2.03x (FX10)..
100. Satoshi Ohshima, Takahiro Katagiri, Masaharu Matsumoto, Utilization and Expansion of ppOpen-AT for OpenACC, 2016 IEEE 30TH INTERNATIONAL PARALLEL AND DISTRIBUTED PROCESSING SYMPOSIUM WORKSHOPS (IPDPSW), 10.1109/IPDPSW.2016.123, 1496-1505, 2016.05, For application programmers, reducing efforts for optimizing programs is an important issue. Our solution of this issue is an auto-tuning (AT) technique. We are developing an AT language named ppOpen-AT. We have shown that this language is useful for multi-and many-core parallel programming. Today, OpenACC attracts attention as an easy and useful graphics processing unit (GPU) programming environment. While OpenACC is one possible parallel programming environment, users have to spend time and energy in order to optimize OpenACC programs. In this study, we investigate the usability of ppOpen-AT for OpenACC programs and propose to expand ppOpen-AT for further optimization of OpenACC..
101. 大島聡史, 塙敏博, 片桐孝洋, 中島研吾, FPGAを用いた疎行列数値計算の性能評価, 情報処理学会研究報告(Web), 2016, HPC-153, VOL.2016‐HPC‐153,NO.1 (WEB ONLY), 2016.02.
102. 中島研吾, 中島研吾, 成瀬彰, 大島聡史, 大島聡史, 塙敏博, 片桐孝洋, 片桐孝洋, 田浦健次朗, 有限要素法係数行列生成プロセスのメニィコア環境における最適化, 情報処理学会研究報告(Web), 2015, HPC-152, VOL.2015‐HPC‐152,NO.12 (WEB ONLY), 2015.12.
103. Takahiro Katagiri, Satoshi Ohshima, Masaharu Matsumoto, Directive-Based Auto-Tuning for the Finite Difference Method on the Xeon Phi, 29th IEEE International Parallel and Distributed Processing Symposium Workshops, IPDPSW 2015
Proceedings - 2015 IEEE 29th International Parallel and Distributed Processing Symposium Workshops, IPDPSW 2015
, 10.1109/IPDPSW.2015.11, 1221-1230, 2015.09, [URL], In this paper, we present a directive-based auto-tuning (AT) framework, called ppOpen-AT, and demonstrate its effect using simulation code based on the Finite Difference Method (FDM). The framework utilizes well-known loop transformation techniques. However, the codes used are carefully designed to minimize the software stack in order to meet the requirements of a many-core architecture currently in operation. The results of evaluations conducted using ppOpen-AT indicate that maximum speedup factors greater than 550% are obtained when it is applied in eight nodes of the Intel Xeon Phi. Further, in the AT for data packing and unpacking, a 49% speedup factor for the whole application is achieved. By using it with strong scaling on 32 nodes in a cluster of the Xeon Phi, we also obtain 24% speedups for the overall execution..
104. 中島研吾, 中島研吾, 塙敏博, 大島聡史, 大島聡史, 片桐孝洋, 片桐孝洋, ppOpen‐APPL/FVMを使用した並列有限要素法アプリケーション, 情報処理学会研究報告(Web), 2015, HPC-151, VOL.2015-HPC-151,NO.24 (WEB ONLY), 2015.09.
105. 片桐孝洋, 松本正晴, 大島聡史, ppOpen‐ATによる静的コード生成で実現する自動チューニング方式の評価, 日本応用数理学会年会講演予稿集(CD-ROM), 2015, ROMBUNNO.9GATSU11NICHI,09:30,B,1, 2015.09.
106. 大島聡史, 片桐孝洋, 松本正晴, ppOpen‐ATによるOpenACCプログラムの自動チューニング, 日本応用数理学会年会講演予稿集(CD-ROM), 2015, ROMBUNNO.9GATSU11NICHI,09:30,B,2, 2015.09.
107. 片桐孝洋, 松本正晴, 大島聡史, SCG‐AT:静的コード生成のみによる自動チューニング実現方式, 情報処理学会研究報告(Web), 2015, HPC-150, VOL.2015-HPC-150,NO.32 (WEB ONLY), 2015.07.
108. 大島聡史, 片桐孝洋, 松本正晴, ppOpen‐ATを用いたOpenACCプログラムの自動チューニング, 情報処理学会研究報告(Web), 2015, HPC-150, VOL.2015-HPC-150,NO.30 (WEB ONLY), 2015.07.
109. 片桐 孝洋, 大島 聡史, 松本 正晴, 1ノード200超スレッド時代の自動チューニングに向けて : FDMコードを例にして, 計算工学講演会論文集 Proceedings of the Conference on Computational Engineering and Science, 20, ROMBUNNO.E-1-4, 2015.06.
110. 片桐 孝洋, 大島 聡史, 松本 正晴, 1ノード200超スレッド時代の自動チューニング手法 : FDMコード最適化を中心に (特集 エクサスケール時代に向けた数値計算処理の自動チューニングの進展), 計算工学, 20, 2, 3262-3265, 2015.06.
111. 櫻井 隆雄, 片桐 孝洋, 大島 聡史, 黒田 久泰, 猪貝 光祥, 直野 健, CFDツールOpenFOAM®への疎行列ライブラリXabclibの適用, ハイパフォーマンスコンピューティングと計算科学シンポジウム論文集, 2015, 84-84, 2015.05.
112. Takahiro Katagiri, Satoshi Ohshima, Masaharu Matsumoto, Directive-based Auto-tuning for the Finite Difference Method on the Xeon Phi, 2015 IEEE 29TH INTERNATIONAL PARALLEL AND DISTRIBUTED PROCESSING SYMPOSIUM WORKSHOPS, 10.1109/IPDPSW.2015.11, 1221-1230, 2015.05, In this paper, we present a directive-based auto-tuning (AT) framework, called ppOpen-AT, and demonstrate its effect using simulation code based on the Finite Difference Method (FDM). The framework utilizes well-known loop transformation techniques. However, the codes used are carefully designed to minimize the software stack in order to meet the requirements of a many-core architecture currently in operation. The results of evaluations conducted using ppOpen-AT indicate that maximum speedup factors greater than 550% are obtained when it is applied in eight nodes of the Intel Xeon Phi. Further, in the AT for data packing and unpacking, a 49% speedup factor for the whole application is achieved. By using it with strong scaling on 32 nodes in a cluster of the Xeon Phi, we also obtain 24% speedups for the overall execution..
113. 片桐孝洋, 大島聡史, 松本正晴, 1ノード200超スレッド時代の自動チューニング手法~FDMコード最適化を中心に~, 計算工学, 20, 2, 3262-3265, 2015.04.
114. 大島聡史, 小嶋和徳, 石亀昌明, 伊藤慶明, 未知語の音声クエリに対する複数検索結果を用いた音声中の検索語検出, 日本音響学会研究発表会講演論文集(CD-ROM), 2015, ROMBUNNO.1-P-6, 2015.03.
115. 大島 聡史, 片桐 孝洋, 櫻井 隆雄, 中島 研吾, 黒田 久泰, 直野 健, 猪貝 光祥, 動的な並列実行機構を用いたSpMV実装の性能評価, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2015, 3, 1-12, 2015.02, 本稿では疎行列ベクトル積 (SpMV) の実装について述べる.疎行列ベクトル積の高速化に関する研究は多く実施されており,行列の形状 (非ゼロ要素の配置) や行列格納形式,実行するハードウェアなど様々な観点からの研究が進められている.我々が本稿において着目するのは,非ゼロ要素の配置に偏りがある疎行列に対して,動的な並列実行機構を活用して高速化を行うことである.現在の OpenMP や CUDA には負荷バランスの悪い並列計算問題に対して性能改善を行える可能性のある動的な並列実行機構が備わっている.そこで,これらの機構を活用することで疎行列ベクトル積の性能を向上させることを目的として実装と性能評価を行った.実験の結果,非ゼロ要素の配置に偏りがあるシンプルな疎行列に対しては高い性能向上が得られた.その一方で,より一般的な行列を用いた場合の効果は限定的であり,むしろ実行時間が大きく伸びる例も多く,実用とするためにはさらなる最適化が必要であることも確認できた.性能向上を阻害する主な原因は動的な並列実行機構のオーバーヘッドにもあると考えられ,今後のハードウェアやシステムソフトウェアの改善も期待される..
116. Takahiro Katagiri, Satoshi Ohshima, Masaharu Matsumoto, Auto-tuning of computation kernels from an FDM code with ppOpen-AT, Proceedings - 2014 IEEE 8th International Symposium on Embedded Multicore/Manycore SoCs, MCSoC 2014, 10.1109/MCSoC.2014.22, 91-98, 2014.11, In this paper, we propose an Auto-tuning (AT) function with an AT language for a dedicated numerical library with respect to supercomputers in operation. The AT function is based on well-known loop transformation techniques, such as loop split, fusion, and re-ordering of statements. However, loop split with copies or increase of computations, and loop fusion to the split loop are taken into account by utilizing user knowledge..
117. Satoshi Ohshima, Takahiro Katagiri, Masaharu Matsumoto, Performance optimization of SpMV using CRS format by considering OpenMP scheduling on CPUs and MIC, Proceedings - 2014 IEEE 8th International Symposium on Embedded Multicore/Manycore SoCs, MCSoC 2014, 10.1109/MCSoC.2014.43, 253-260, 2014.11, In this study, we evaluate the performance of sparse matrix-vector multiplication (SpMV) using the compressed row storage (CRS) format on CPUs and MIC. We focus on the relationship between OpenMP scheduling and performance. The performance of SpMV is measured using various OpenMP scheduling settings and the results are analyzed, which show that OpenMP scheduling has a considerable effect on the performance of SpMV. We confirm that some scheduling settings resulted in performance improvements compared with default scheduling for particular matrices. The results of the evaluation show that the performance of SpMV is improved by up to 1.57 times compared with SPARC64 IXfx, 2.47 times compared with Xeon Ivy Bridge-EP, and 2.26 times compared with Knights Corner. Next, we modify the SpMV function of OpenATLib, an auto-tuned numerical library, to consider the scheduling of optimization as an additional SpMV implementation. We measure the performance of the GMRES solver and obtain performance improvements of up to 11.4%. These results will help to improve the performance of various numerical calculation applications..
118. 中島 研吾, 大島 聡史, 塙 敏博, 有限要素法係数行列生成プロセスのマルチコア・メニィコア環境における最適化, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2014, 22, 1-7, 2014.09, 有限要素法は偏微分方程式の数値解法として様々な科学技術シミュレーションに使用されている.有限要素法において係数行列生成部は疎行列計算と並んで計算時間を要するプロセスである.本研究では,OpenMP によってマルチスレッド並列化された係数行列生成部に関する 3 種類の実装によるプログラムを様々なマルチコア,メニィコア環境で評価した事例を紹介し,自動チューニングに向けた方策について検討する..
119. 片桐孝洋, 大島聡史, 松本正晴, 1ノード200超スレッド時代の自動チューニング手法~FDMコードを例にして~, 日本応用数理学会年会講演予稿集(CD-ROM), 2014, ROMBUNNO.9GATSU3NICHI,09:30,E,3, 2014.08.
120. 大島聡史, 松本正晴, 片桐孝洋, 疎行列ソルバーにおける自動チューニングを用いたOpenMP指示文の最適化, 日本応用数理学会年会講演予稿集(CD-ROM), 2014, ROMBUNNO.9GATSU3NICHI,09:30,E,1, 2014.08.
121. 大島聡史, 松本正晴, 片桐孝洋, 塙敏博, 中島研吾, 様々な計算機環境におけるOpenMP/OpenACCを用いたICCG法の性能評価, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2014, 21, 1-10, 2014.07, 今日の HPC においては高い演算性能と低い消費電力を達成するために様々な並列計算ハードウェアが用いられている.CPU は微細化と消費電力の制限等によりマルチコア化が進み,現在では 1 ソケットあたり 10 前後のコアを搭載した CPU が多く用いられている.GPU は非常に多くの計算コアと高いピーク性能を備え,CPU と比べると適したアプリケーションが限られるものの,様々なシーンにおいて活用が進んでいる.メニーコアプロセッサは CPU と GPU それぞれのメリットを享受できるものとして注目が高まっている.一方で並列計算のためのプログラミング環境に着目すると,従来から使われている OpenMP や MPI の普及がますます進んでいる.さらに近年では従来の OpenMP では対応できなかった GPU プログラミングについても OpenMP のような指示文を用いた簡便な並列化プログラミングを可能にするべく,OpenMP 4.0 や OpenACC が策定され,対応するコンパイラもいくつか公開・販売され始めている.そこで本稿では,様々な計算機環境を対象として OpenMP や OpenACC を用いて同一の問題を実行し,性能やその傾向を調査し報告する.対象問題としては有限体積法アプリケーションにおける ICCG 法を用いる.対象とする並列計算ハードウェアは以下の通りである: Intel Xeon (IvyBridge-EP),AMD Opteron (Piledriver),富士通 SPARC64 IXfx,NVIDIA Tesla (Kepler),Intel Xeon Phi (Knights Corner)..
122. 片桐 孝洋, 大島 聡史, 松本 正晴, Xeon PhiにおけるppOpen-ATを用いた有限差分法コードの自動チューニング, 計算工学講演会論文集 Proceedings of the Conference on Computational Engineering and Science, 19, ROMBUNNO.F-6-3, 2014.06.
123. Masaharu Matsumoto, Futoshi Mori, Satoshi Ohshima, Hideyuki Jitsumoto, Takahiro Katagiri, Kengo Nakajima, Implementation and evaluation of an AMR framework for FDM applications, Procedia Computer Science, 10.1016/j.procs.2014.05.084, 29, 936-946, 2014.06, In order to execute various finite-difference method applications on large-scale parallel computers with a reasonable cost of computer resources, a framework using an adaptive mesh refinement (AMR) technique has been developed. AMR can realize high-resolution simulations while saving computer resources by generating and removing hierarchical grids dynamically. In the AMR framework, a dynamic domain decomposition (DDD) technique, as a dynamic load balancing method, is also implemented to correct the computational load imbalance between each process associated with parallelization. By performing a 3D AMR test simulation, it is confirmed that dynamic load balancing can be achieved and execution time can be reduced by introducing the DDD technique. © The Authors. Published by Elsevier B.V..
124. 片桐孝洋, 高山恒一, 米村崇, 熊洞宏樹, 猪貝光祥, 北上純一, 江口義之, 深谷猛, 山本有作, 岩田潤一, 内田和之, 大島聡史, 中島研吾, 通信削減アルゴリズムCAQRのRSDFTの直交化処理への適用と評価, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2014, 3, 1-6, 2014.05, 本報告では,量子力学的第一原理シミュレーションのソフトウェア RSDFT における直交化処理に,通信削減アルゴリズムを用いた QR 分解アルゴリズムである CAQR を組み込んだ性能について報告する.東京大学情報基盤センターの FX10 を用いた 1,024 ノード実行 (4,096MPI,MPI 当たり 4OMP 実行のハイブリッド MPI-OpenMP 実行) におけるバンド分割が 64 の時の実行では,従来の Gram-Schmidt 法による直交化に比べ CAQR を利用すると,最大で 11 倍の高速化が得られる事例があった..
125. 片桐孝洋, 大島聡史, 中島研吾, 米村崇, 熊洞宏樹, 樋口清隆, 橋本昌人, 高山恒一, 藤堂眞治, 岩田潤一, 内田和之, 佐藤正樹, 羽角博康, 黒木聖夫, 安達斉, 江口義之, レイテンシコアの高度化・高効率化による将来のHPCIシステムに関する調査研究のアプリケーションの異機種環境での評価 ~メニーコア環境を中心に~, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2014, 26, 1-13, 2014.02, 本報告では,レイテンシコアの高度化・高効率化による将来の HPCI システムに関する調査研究におけるコデザインで用いるアプリケーションについて,コード最適化による性能チューニングを行った結果を報告する.また,富士通 PRIMEHPC FX10,日立 SR16000,Intel Ivy Bridge,および Intel Xeon Phi を用いた異機種環境で性能評価を行った結果を紹介する..
126. Takahiro Katagiri, Satoshi Ohshima, Masaharu Matsumoto, Auto-tuning of computation kernels from an FDM code with ppOpen-AT, 2014 8th IEEE International Symposium on Embedded Multicore/Manycore SoCs, MCSoC 2014
Proceedings - 2014 IEEE 8th International Symposium on Embedded Multicore/Manycore SoCs, MCSoC 2014
, 10.1109/MCSoC.2014.22, 91-98, 2014.01, [URL], In this paper, we propose an Auto-tuning (AT) function with an AT language for a dedicated numerical library with respect to supercomputers in operation. The AT function is based on well-known loop transformation techniques, such as loop split, fusion, and re-ordering of statements. However, loop split with copies or increase of computations, and loop fusion to the split loop are taken into account by utilizing user knowledge..
127. Masaharu Matsumoto, Futoshi Mori, Satoshi Ohshima, Hideyuki Jitsumoto, Takahiro Katagiri, Kengo Nakajima, Implementation and evaluation of an AMR framework for FDM applications, 14th Annual International Conference on Computational Science, ICCS 2014
Procedia Computer Science
, 10.1016/j.procs.2014.05.084, 29, 936-946, 2014.01, [URL], In order to execute various finite-difference method applications on large-scale parallel computers with a reasonable cost of computer resources, a framework using an adaptive mesh refinement (AMR) technique has been developed. AMR can realize high-resolution simulations while saving computer resources by generating and removing hierarchical grids dynamically. In the AMR framework, a dynamic domain decomposition (DDD) technique, as a dynamic load balancing method, is also implemented to correct the computational load imbalance between each process associated with parallelization. By performing a 3D AMR test simulation, it is confirmed that dynamic load balancing can be achieved and execution time can be reduced by introducing the DDD technique..
128. 深沢圭一郎, 片桐孝洋, 大宮学, 江川隆輔, 大島聡史, 青木尊之, 下川辺隆史, 荻野正雄, 岩下武史, 東田学, 実アプリを用いたさまざまなアーキテクチャからなる計算機システムの性能評価, 情報処理学会研究報告(Web), 2013, ARC-207, VOL.2013-ARC-207,NO.16 (WEB ONLY)-7, 2013.12, 現在いわゆるスーパーコンピュータと呼ばれる大規模計算機システムは x86 系,SPARC 系,POWER 系,ベクトル系,GPU 系などさまざまなアーキテクチャから構成されている.さらに近年では ARM 系や MICなどから構成される新しいスーパーコンピュータシステムも出てきている.これらのコンピュータシステムでは計算コアのアーキテクチャが異なるため,アプリケーションによってはそのシステムに対して向き不向きがあり,また性能チューニングも各アーキテクチャにより基本的には異なる.そのため,今までと異なるコンピュータシステムにアプリケーションの移植を行うことは非常に手間のかかる作業となっている.そこで本研究では,JHPCN-HPCI システムで利用可能である x86 系,SPARC 系,POWER 系,ベクトル系といった異なるアーキテクチャのコンピュータシステムを利用し,システムの実性能評価を行い,アーキテクチャ毎に性能がどのようになるか調べた.アプリケーションとしては実際に研究に用いられている電磁流体コードを用いて,いくつかの最適化を施したケースを評価した.その結果,x86 系ではベクトル系に効くベクトル化が効果的であり,SPARC 系と POWER 系ではキャッシュの効率的な利用が効果的となった.また,効果的な結果とそうで無いものを比べると倍程度の性能差があった.電磁流体コードは中性流体に電磁力を含めたコードであるため,本研究の結果は流体コードにも効果的であると考えられる.Recent supercomputer systems consist of various architecture such as X86, SPARC, POWER, Vector and GPU. In addition the computer systems which consist of MIC and ARM are appeared. Some applications are better suited for these computer systems or not due to the different architectures of calculation core they have. The way of performance optimization is also difference depending on the architecture. Thus it is hard to introduce applications running on a computer system to another computer system. In this study we evaluate the effective performance of various architectures computer systems using an MHD (magnetohydrodynamic) simulation code. The MHD simulation code used in this study solves the planetary magnetosphere in the space plasma. We evaluate two types of optimization, which are the vector suited and effective cache-hit. As the results, we found the vector suited optimization is effective to the X86 architecture computer systems and the cache hit optimization is suited for the SPARC and POWER architectures. There is the twice difference of performance between the results of effective optimization and not. The MHD simulation code is a kind of fluid code (including the magneto-electric force) so that it is general that these results are performed in the fluid codes..
129. Takahiro Katagiri, Cheng Luo, Reiji Suda, Shoichi Hirasawa, Satoshi Ohshima, Energy optimization for scientific programs using auto-tuning language ppOpen-AT, Proceedings - IEEE 7th International Symposium on Embedded Multicore/Manycore System-on-Chip, MCSoC 2013, 10.1109/MCSoC.2013.14, 123-128, 2013.11, In this paper, we demonstrate a new approach for power-consumption optimization using a dedicated Auto-tuning (AT) language. Our approach is based on recently developed technologies: (1) a power measurement application programming interface, (2) an AT mathematical core library. Preliminary performance evaluation enables us to select the best kernel for a real-world scientific program using either the CPU or Graphics Processing Unit, with respect to energy consumption. From the results of the evaluation, we found the performance-changing point in the experimental environment. © 2013 IEEE..
130. Takahiro Katagiri, Satoshi Ito, Satoshi Ohshima, Early experiences for adaptation of auto-tuning by ppOpen-AT to an explicit method, Proceedings - IEEE 7th International Symposium on Embedded Multicore/Manycore System-on-Chip, MCSoC 2013, 10.1109/MCSoC.2013.15, 153-158, 2013.09, We present a code optimization technique by adapting an auto-tuning (AT) function to an explicit method with the static code generator FIBER. The AT function is evaluated with current multicore processors to match situations with high-thread parallelism (HTP). The results of performance evaluations indicate that the AT function is crucial for HTP, as the speedups of the explicit method with a static code generator are as much as 7.4x compared to that of original implementations based on compiler optimization only. © 2013 IEEE..
131. 片桐孝洋, 大島聡史, 松本正晴, ppOpen‐ATにより自動生成されたppOpen‐HPCコードにおける自動チューニング機能の性能評価, 日本応用数理学会年会講演予稿集(CD-ROM), 2013, ROMBUNNO.9059, 2013.09.
132. 大島聡史, 金子勇, 片桐孝洋, メニーコアアーキテクチャ向けのSpMV最適化と自動チューニング, 日本応用数理学会年会講演予稿集(CD-ROM), 2013, ROMBUNNO.9098, 2013.09.
133. 大島聡史, 金子勇, 片桐孝洋, Xeon PhiにおけるSpMVの性能評価, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2013, 33, 1-8, 2013.07, 本稿では最新のメニーコアプロセッサ Xeon Phi(以下,Phi) の疎行列ベクトル積演算性能について述べる.Phi は高い演算性能およびメモリ転送性能を備えたハードウェアであり,様々なアプリケーションへの適用について盛んに研究が行われている.また Phi はその性能を従来の CPU 同様のプログラミング手法によって活用できることが重要な特徴・利点としてあげられているものの,実際にはアーキテクチャの特性にあわせた最適化の余地が多く存在することが知られている.一方で Phi はアーキテクチャとしても製品としても新しいものであるため,性能を十分に引き出すための知識や技術のさらなる共有が必要である.本稿では疎行列ベクトル積を対象としてPhiの性能を測定し,他の並列計算ハードウェアと性能を比較して性能評価を行う.なお本稿では Phi として先行提供版の Preproduction Xeon Phi を用いている..
134. 片桐孝洋, 大島聡史, 伊東聰, 陽解法カーネルのための自動チューニング記述言語ppOpen‐ATの新機能について, 計算工学講演会論文集(CD-ROM), 18, ROMBUNNO.D-13-1, 2013.06.
135. 片桐 孝洋, 大島 聡史, 伊東 聰, 陽解法カーネルのため自動チューニング記述言語ppOpen-ATの新機能について, 計算工学講演会論文集 Proceedings of the Conference on Computational Engineering and Science, 18, 4p, 2013.06.
136. Takao Sakurai, Takahiro Katagiri, Hisayasu Kuroda, Ken Naono, Mitsuyoshi Igai, Satoshi Ohshima, A Sparse Matrix Library with Automatic Selection of Iterative Solvers and Preconditioners, 2013 INTERNATIONAL CONFERENCE ON COMPUTATIONAL SCIENCE, 10.1016/j.procs.2013.05.300, 18, 1332-1341, 2013.06, Many iterative solvers and preconditioners have recently been proposed for linear iterative matrix libraries. Currently, library users have to manually select the solvers and preconditioners to solve their target matrix. However, if they select the wrong combination of the two, they have to spend a lot of time on calculations or they cannot obtain the solution. Therefore, an approach for the automatic selection of solvers and preconditioners is needed. We have developed a function that automatically selects an effective solver/preconditioner combination by referencing the history of relative residuals at run-time to predict whether the solver will converge or stagnate. Numerical evaluation with 50 Florida matrices showed that the proposed function can select effective combinations in all matrices. This suggests that our function can play a significant role in sparse iterative matrix computations. (C) 2013 The Authors. Published by Elsevier B.V. and peer review under responsibility of the organizers of the 2013 International Conference on Computational Science.
137. 大島聡史, 金子勇, メニーコアプロセッサXeon Phiの性能評価, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2013, 20, 1-6, 2013.05, 本稿では最新のメニーコアプロセッサ Xeon Phi(以下,Phi) の性能について述べる.Phi は高い演算性能およびメモリ転送性能を従来の CPU 同様のプログラミングによって活用できるハードウェアとして高い注目を集めている.その一方でアーキテクチャとしても製品としても新しいものであるため性能を十分に引き出すための知識や技術の共有が十分ではない.そこで本稿では幾つかのベンチマークプログラム等を用いて Phi の性能を評価するとともに,性能に影響を与える実装方法や実行方法について示し情報共有を行う.なお本稿では Phi として先行提供版の Preproduction Xeon Phi を用いている..
138. 片桐孝洋, 大島聡史, 中島研吾, 米村崇, 熊洞宏樹, 樋口清隆, 橋本昌人, 高山恒一, 藤堂眞治, 岩田潤一, 内田和之, 佐藤正樹, 羽角博康, 黒木聖夫, レイテンシコアの高度化・高効率化による将来のHPCIシステムに関する調査研究のためのアプリケーション最適化と異機種計算機環境での性能評価, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2013, 4, 1-9, 2013.05, 本報告では,レイテンシコアの高度化・高効率化による将来の HPCI システムに関する調査研究におけるコデザインで用いるアプリケーションについて,コード最適化による性能チューニングを行った結果を報告する.Sparc64,Intel,IBM の CPU を構成要素とする異機種計算機環境での性能評価も報告する.コード最適化の結果,実測での byte perflops (B/F) 値が上がっても実時間は高速化される例があり,B/F 値のみの評価は不十分なことを示す..
139. 大島聡史, 片桐孝洋, 中島研吾, 米村崇, 熊洞宏樹, 樋口清隆, 橋本昌人, 高山恒一, 藤堂眞治, 岩田潤一, 内田和之, 佐藤正樹, 羽角博康, 黒木聖夫, レイテンシコアの高度化・高効率化による将来のHPCIシステムに関する調査研究におけるアプリケーションの最適化と複数の計算機環境での性能評価, 先進的計算基盤システムシンポジウム論文集, 2013, 2013, 111-111, 2013.05.
140. 片桐孝洋, 大島聡史, 中島研吾, 米村崇, 熊洞宏樹, 樋口清隆, 橋本昌人, 高山恒一, 藤堂眞治, 岩田潤一, 内田和之, 佐藤正樹, 羽角博康, 黒木聖夫, レイテンシコアの高度化・高効率化による将来のHPCIシステムに関する調査研究のためのアプリケーションと性能評価, 情報処理学会研究報告(CD-ROM), 2012, 5, ROMBUNNO.ARC-202,NO.2, 2013.02.
141. 大島 聡史, Luo Cheng, 平澤 将一, 片桐 孝洋, 須田 礼二, 本多 弘樹, 超低消費電力高性能計算に向けた取り組み, 第54回プログラミング・シンポジウム予稿集, 54th, 2013, 75-80, 2013.01.
142. Takahiro Katagiri, Takao Sakurai, Mitsuyoshi Igai, Satoshi Ohshima, Hisayasu Kuroda, Ken Naono, Kengo Nakajima, Control formats for unsymmetric and symmetric sparse matrix-vector multiplications on OpenMP implementations, Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 10.1007/978-3-642-38718-0_24, 7851, 236-248, 2013.01, In this paper, we propose "control formats" to obtain better thread performance of sparse matrix-vector multiplication (SpMV) for unsymmetric and symmetric matrices. By using the control formats, we established the following maximum speedups of SpMV in 16-thread execution on one node of the T2K Open Supercomputer: (1) 7.14x for an unsymmetric matrix by using the proposed Branchless Segmented Scan compared to the original Segmented Scan method
(2) 12.7x for a symmetric matrix by using the proposed Zero-element Computation-free method compared to a simple SpMV implementation. © 2013 Springer-Verlag..
143. Satoshi Ohshima, Masae Hayashi, Takahiro Katagiri, Kengo Nakajima, Implementation and Evaluation of 3D Finite Element Method Application for CUDA, HIGH PERFORMANCE COMPUTING FOR COMPUTATIONAL SCIENCE - VECPAR 2012, 10.1007/978-3-642-38718-0_16, 7851, 140-148, 2013.01, This paper describes a fast implementation of a FEM application on a GPU. We implemented our own FEM application and succeeded in obtaining a performance improvement in two of our application components: Matrix Assembly and Sparse Matrix Solver. Moreover, we found that accelerating our Boundary Condition Setting component on the GPU and omitting CPU-GPU data transfer between Matrix Assembly and Sparse Matrix Solver slightly further reduces execution time. As a result, the execution time of the entire FEM application was shortened from 44.65 sec on only a CPU (Nehalem architecture, 4 cores, OpenMP) to 17.52 sec on a CPU with a GPU (TeslaC2050)..
144. 片桐孝洋, 大島聡史, 中島研吾, 米村崇, 熊洞宏樹, 樋口清隆, 橋本昌人, 高山恒一, 藤堂眞治, 岩田潤一, 内田和之, 佐藤正樹, 羽角博康, 黒木聖夫, レイテンシコアの高度化・高効率化による将来のHPCIシステムに関する調査研究のためのアプリケーションと性能評価, 研究報告ハイパフォーマンスコンピューティング(HPC), 2012, 2, 1-12, 2012.12, 本報告では,レイテンシコアの高度化・高効率化による将来の HPCI システムに関する調査研究におけるターゲットアプリケーションの特徴について,演算パターンと通信パターンの観点からの分類法を提案する.東京大学情報基盤センターに設定された富士通 PRIMEHPC FX10 を用いたプロファイル結果を示し,同計算機でのハードウェア性能からの特徴について紹介する..
145. 片桐孝洋, 大島聡史, 中島研吾, 米村崇, 熊洞宏樹, 樋口清隆, 橋本昌人, 高山恒一, 藤堂眞治, 岩田潤一, 内田和之, 佐藤正樹, 羽角博康, 黒木聖夫, レイテンシコアの高度化・高効率化による将来のHPCIシステムに関する調査研究のためのアプリケーションと性能評価, 研究報告計算機アーキテクチャ(ARC), 2012, 2, 1-12, 2012.12, 本報告では,レイテンシコアの高度化・高効率化による将来の HPCI システムに関する調査研究におけるターゲットアプリケーションの特徴について,演算パターンと通信パターンの観点からの分類法を提案する.東京大学情報基盤センターに設定された富士通 PRIMEHPC FX10 を用いたプロファイル結果を示し,同計算機でのハードウェア性能からの特徴について紹介する..
146. 伊藤祥司, 片桐孝洋, 櫻井隆雄, 猪貝光祥, 大島聡史, 黒田久泰, 直野健, BiCGStab法の前処理付きアルゴリズムに対する改善, 情報処理学会論文誌トランザクション(CD-ROM), 2012, 1, ROMBUNNO.KONPYUTINGUSHISUTEMU,VOL.5,NO.3,11-21, 2012.10.
147. 大島聡史, 實本英之, 鴨志田良和, 片桐孝洋, 田浦健次朗, 中島研吾, 大規模超並列スーパーコンピューターシステムOakleaf‐FX(Fujitsu PRIMEHPC FX10)の性能評価, 情報処理学会研究報告(CD-ROM), 2012, 3, ROMBUNNO.HPC-135,NO.43, 2012.10.
148. Satoshi Ito, Satoshi Ohshima, Takahiro Katagiri, SSG-AT: An auto-tuning method of sparse matrix-vector multiplicataion for semi-structured grids-An adaptation to openfoam, Proceedings - IEEE 6th International Symposium on Embedded Multicore SoCs, MCSoC 2012, 10.1109/MCSoC.2012.26, 191-197, 2012.09, We are developing ppOpen-AT, which is an infrastructureof auto-tuning (AT) for ppOpen-HPC. ppOpen-HPC is numerical middleware for post Petascale era. In this study, we propose a new auto-tuning (AT) facility for semi-structured grids in OpenFOAM. We focus on sparse matrix-vector multiplication and the matrix storage formats. Using the features of input data and mesh connectivity, we propose a hybrid storage format that is suitable for semistructured grids. We evaluate the proposed AT facility on the T2K supercomputer and an Intel Xeon cluster. For a typical computational fluid dynamics scenario, we obtain speedup factors of 1.3 on the T2K and 1.84 on the Xeon cluster. These results indicate that the proposed AT method has the potential to select the optimal data format according to features of the input sparse matrix. © 2012 IEEE..
149. 片桐孝洋, 櫻井隆雄, 伊藤祥司, 猪貝光祥, 大島聡史, 黒田久泰, 直野健, 中島研吾, 収束障害(Fault Convergence):数値計算ソフトウェアにおける新しい安全性の概念, 情報処理学会研究報告(CD-ROM), 2012, 2, ROMBUNNO.HPC-134,NO.9, 2012.08.
150. 大島聡史, GPUを用いた疎行列ベクトル積計算の最適化, 日本応用数理学会年会講演予稿集(CD-ROM), 2012, 299-300, 2012.08.
151. 櫻井隆雄, 片桐孝洋, 直野健, 黒田久泰, 中島研吾, 猪貝光祥, 大島聡史, 伊藤祥司, Xabclib:ソルバ・前処理自動選択機能を備えた疎行列ライブラリ, 日本応用数理学会年会講演予稿集(CD-ROM), 2012, 281-282, 2012.08.
152. 片桐孝洋, 伊東聰, 大島聡史, ポストペタスケール環境のための自動チューニング基盤ppOpen‐ATの新機能について, 日本応用数理学会年会講演予稿集(CD-ROM), 2012, 273-274, 2012.08.
153. Ken Naono, Takao Sakurai, Takahiro Katagiri, Satoshi Ohshima, Shoji Itoh, Kengo Nakajima, Mitsuyoshi Igai, Hisayasu Kuroda, A Fully Run-time Auto-tuned Sparse Iterative Solver with OpenATLib, 2012 4TH INTERNATIONAL CONFERENCE ON INTELLIGENT AND ADVANCED SYSTEMS (ICIAS), VOLS 1-2, 10.1109/ICIAS.2012.6306176, 143-148, 2012.06, We propose a general application programming interface called OpenATLib for auto-tuning (AT). OpenATLib is carefully designed to establish the reusability of AT functions for sparse iterative solvers. Using APIs of OpenATLib, we develop a fully auto-tuned sparse iterative solver called Xabclib. Xabclib has several novel runtime AT functions. We also develop a numerical computation policy that can optimize memory space and computational accuracy. Using the above functions and policies, we obtain the following important findings: (1) an average memory space is reduced to 1/45 under lower memory policies, and (2) fault convergence, which the conventional solvers judges to be converged but actually not converged in the sense of the before-preconditioned matrix, is avoided under higher accuracy policies. The results imply policy-based runtime AT plays significant role in sparse iterative matrix computations..
154. 伊藤 祥司, 片桐 孝洋, 櫻井 隆雄, 猪貝 光祥, 大島 聡史, 黒田 久泰, 直野 健, BiCGStab法の前処理付きアルゴリズムに対する改善, 情報処理学会論文誌コンピューティングシステム(ACS), 5, 3, 11-21, 2012.05, 前処理付きBiCGStab(PBiCGStab)法の改善アルゴリズムを提案する.前処理付きBiCG法にCGS法の導出手順を適用すると,CGS法の合理的な前処理付きアルゴリズムが構成される.この手法をPBiCGStab法へと拡張するにあたり,BiCGStab法に現れるMR演算に対し論理面からの新たな考察を行い,適用できることを示した.本提案アルゴリズムが従来のPBiCGStabよりも合理的であることと,数値実験により本提案の有効性を示す.An improved preconditioned BiCGStab algorithm (improved PBiCGStab) is proposed. Rational preconditioned algorithm of CGS has been constructed, by applying the derivation procedure of the CGS to the preconditioned BiCG. In order to extend this approach to the BiCGStab, minimum residual part of the BiCGStab must be considered logically. This proposed algorithm is also more rational than the conventional typical PBiCGStab mathematically. Numerical results show advantages of this improved PBiCGStab..
155. 伊東 聰, 大島 聡史, 片桐 孝洋, ppOpen-ATにおけるOpenFOAM高速化の取り組み, 計算工学講演会論文集 Proceedings of the Conference on Computational Engineering and Science, 17, ROMBUNNO.E-7-7, 2012.05.
156. 片桐 孝洋, 大島 聡史, 伊東 聰, ppOpen-HPCのための自動チューニング基盤ppOpen-ATの開発, 計算工学講演会論文集 Proceedings of the Conference on Computational Engineering and Science, 17, ROMBUNNO.E-7-6, 2012.05.
157. 片桐 孝洋, 櫻井 隆雄, 伊藤 祥司, 猪貝 光祥, 大島 聡史, 黒田 久泰, 直野 健, 中島 研吾, 収束障害(Fault Convergence):数値計算ソフトウェアにおける新しい安全性の概念, 研究報告ハイパフォーマンスコンピューティング(HPC), 2012, 9, 1-8, 2012.05, 本論文では,数値計算ソフトウェアで多く用いられている数値反復解法において生じると考えられる収束障害 (Fault Convergence) の概念を提案する.数値計算分野で用いられている偽収束 (False Convergence) との違いを議論する.Laprie により定義されたディペンダブルコンピューティング実現のための 3 つの脅威―障害 (fault) ‐異常 (error) ‐故障 (failure) モデル-を用いて数値反復解法での収束問題を議論することにより,収束障害の一例を示す.In this paper, we propose a concept of "Fault Convergence" for numerical iteration methods, which are widely used methods in numerical software. With respect to the difference to the concept of "False" convergence on numerical computation field, we explain a situation that fault convergence occurs. By using the model proposed by Laprie with the 3 kinds of threats to dependable computing―the fault-error-failure model―, we discuss an example of fault convergence situation in convergence problem to numerical iterative methods..
158. 大島聡史, 實本英之, 鴨志田良和, 片桐孝洋, 田浦健次朗, 中島研吾, 大規模SMP並列スーパーコンピューター(HITACHI SR16000モデルM1)の性能評価, 情報処理学会研究報告(CD-ROM), 2011, 6, ROMBUNNO.HPC-133,NO.5, 2012.04.
159. 長塚郁, 大島聡史, 平澤将一, 近藤正章, 本多弘樹, 複数GPU向けのCUDAコードを生成するOpenMP処理系の提案, 情報処理学会研究報告(CD-ROM), 2011, 6, ROMBUNNO.HPC-133,NO.12, 2012.04.
160. 大島 聡史, 實本 英之, 鴨志田 良和, 片桐 孝洋, 田浦 健次朗, 中島 研吾, 大規模SMP並列スーパーコンピューター(HITACHI SR16000モデルM1)の性能評価, 研究報告ハイパフォーマンスコンピューティング(HPC), 2012, 5, 1-10, 2012.03, 本稿では東京大学情報基盤センターにおいて 2011 年 10 月に稼働を開始したスーパーコンピューターシステム HITACHI SR16000 モデル M1(愛称 Yayoi) の性能について報告する.本システムは計算ノードに Power7 プロセッサを搭載した最新のスーパーコンピューターシステムである.いくつかのベンチマークを用いて性能評価を行った結果,性能の特性や重要な実行時環境変数の設定などが明らかとなった.We report the performance of HITACHI SR16000 model M1 supercomputer system (named Yayoi) which has started in October 2011 at Information Technology Center, The University of Tokyo. This is a latest supercomputer system which mounts Power7 CPU on the computation node. We executed several benchmarks on the system and unveiled characteristic features of performance and imporant parameters..
161. 長塚郁, 大島聡史, 平澤将一, 近藤正章, 本多弘樹, 複数GPU向けのCUDAコードを生成するOpenMP処理系の提案, 研究報告ハイパフォーマンスコンピューティング(HPC), 2012, 12, 1-8, 2012.03, 著者らは OpenMP プログラムから CUDA プログラムへ変換する処理系,"OMPCUDA" の開発を行っている.本稿では,OMPCUDA における複数 GPU 向けの CUDA プログラムを生成するための機能の実装を述べ,生成された CUDA コードの評価結果について考察する..
162. 伊藤 祥司, 片桐 孝洋, 櫻井 隆雄, 猪貝 光祥, 大島 聡史, 黒田 久泰, 直野 健, BiCGStab法の前処理付きアルゴリズムに対する改善, ハイパフォーマンスコンピューティングと計算科学シンポジウム論文集, 2012, 2012, 117-126, 2012.01.
163. 大島聡史, 實本英之, 鴨志田良和, 片桐孝洋, 田浦健次朗, 中島研吾, 並列スーパーコンピュータSR16000/M1の構成と性能, ハイパフォーマンスコンピューティングと計算科学シンポジウム論文集, 2012, 2012, 84-84, 2012.01.
164. 林雅江, 大島聡史, 中島研吾, ヘテロ環境を目指した拡張階層型領域間分割に基づく高次フィルイン付き前処理手法の高速化, 情報処理学会研究報告(CD-ROM), 2011, 2, ROMBUNNO.HPC-130,NO.5, 2011.08.
165. 大島聡史, 林雅江, 片桐孝洋, 中島研吾, 三次元有限要素法アプリケーションにおける行列生成処理のCUDA向け実装, 情報処理学会研究報告(CD-ROM), 2011, 2, ROMBUNNO.HPC-130,NO.11, 2011.08.
166. 櫻井隆雄, 片桐孝洋, 直野健, 黒田久泰, 中島研吾, 猪貝光祥, 大島聡史, 伊藤祥司, 自動チューニングインターフェースOpenATLibにおける自動チューニング機能の評価, 情報処理学会研究報告(CD-ROM), 2011, 2, ROMBUNNO.HPC-130,NO.43, 2011.08.
167. 林 雅江, 大島 聡史, 中島 研吾, ヘテロ環境を目指した拡張階層型領域間分割に基づく高次フィルイン付き前処理手法の高速化, 研究報告ハイパフォーマンスコンピューティング(HPC), 2011, 5, 1-5, 2011.07, 拡張階層型領域間分割は,領域外からの高次フィルインを考慮可能とする並列化手法であり,分散データの局所性も高いことから,メニーコア環境での効率的な並列化手法として期待される.本研究では,物性値分布に不均質性をもつことから悪条件となる三次元静弾性問題に対し,拡張階層型領域間分割に基づく高次フィルイン前処理付き反復解法を適用する.本報告では,T2K(東大) を利用し,マルチコア環境における本並列実装プログラムの収束性および高次フィルイン付き前処理の並列性能についてマルチカラー法との比較に基づき評価する.Extended version of Hierarchical Interface Decomposition(HID) is developed as an effective parallelization method for Finite Element Method(FEM) on multi/many-core environments for its high locality of distributed mesh data. And thichker separators introduced in Extended HID allow us to take into account high level fill-ins in parallel ILU preconditioners. We implemented Extended HID to OpenMP parallel FEM base simulation of linear elasticity problem with heterogeneous property. The developed code has been tested on the T2K Open Super Computer(T2K/Tokyo) using 1 node, 16 cores to evaluate the robustness and the scalability of parallel ILU decomposition based on the comparison with MC ordering..
168. 大島 聡史, 林 雅江, 片桐 孝洋, 中島 研吾, 三次元有限要素法アプリケーションにおける行列生成処理のCUDA向け実装, 研究報告ハイパフォーマンスコンピューティング(HPC), 2011, 11, 1-6, 2011.07, 本稿では三次元有限要素法 (FEM) アプリケーションにおける行列生成処理の CUDA 向け実装について述べる.GPU は高い演算性能・メモリ転送性能を持つため様々な科学技術計算アプリケーションに利用されており,FEM についても多くの研究がなされている.特に,FEM の実行時間の多くは疎行列ソルバーが占めるため,疎行列ソルバーを対象とした GPU 実装の研究が盛んである.本稿では,疎行列ソルバーに次いで実行時間を要する処理である行列生成処理を対象として,1GPU,2GPU および 2GPU と CPU を用いた実装と性能について報告する.We describe the implementation of matrix assembly process in 3D Finite Element Method (FEM) using CUDA. Because GPU has high calculation performance and memory transfer performance, GPU is now utilizing for several scientific applications include FEM. Especially, many researches aim at speeeding up of sparse matrix solver because sparse matrix solver has the largest time ratio of execution time of FEM. In this paper, we focus on matrix assembly process which has the second largest time ratio of FEM, and show the result of implementation and performance evaluation..
169. 櫻井 隆雄, 片桐 孝洋, 直野 健, 黒田 久泰, 中島 研吾, 猪貝 光祥, 大島 聡史, 伊藤 祥司, 自動チューニングインターフェースOpenATLibにおける自動チューニング機能の評価, 研究報告ハイパフォーマンスコンピューティング(HPC), 2011, 43, 1-6, 2011.07, 科学技術計算等で利用される行列計算ライブラリは高い演算性能が得られるパラメータの選択や入力に多大な手間が必要なため,それを自動的に設定する方式が求められている.そこで,筆者らは自動チューニングインターフェース OpenATlib を開発している.本稿では OpenATLib の提供する機能の 1 つであるリスタート周期自動チューニング機能について述べる.本機能では残差履歴を用いて最適なリスタート周期を自動的に選択する.T2K オープンスパコンを用いて 3 種の解法で本機能の効果を評価した結果,固定値と比較して最大で 38.5 倍の性能差があり,機能の有効性が確認できた.Matrix libraries have many parameters as inputs by the user. They include problem parameters what are difficult to set values and the approach of automatically setting them is needed. Then, we proposed Auto-tuning interface "OpenATLib." In this paper, we explain a runtime automatic tuning approach for deciding the size of projection matrix in Krylov subspace methods. This approach searches the best size of projection matrix with history of residual values at runtime.Performance evaluations of OpenATLib using 3 solvers on T2K Open Supercomputer indicates that the maximum speedup establishes 38.5x..
170. 伊藤祥司, 片桐孝洋, 櫻井隆雄, 猪貝光祥, 大島聡史, 黒田久泰, 直野健, 中島研吾, 前処理付きBiCGStab法の問題点に対する改良, 計算工学講演会論文集(CD-ROM), 16, ROMBUNNO.F-4-3, 2011.05.
171. 片桐 孝洋, 大島 聡史, 平澤 将一, 本多 弘樹, HxABCLibScript : 非均質計算機向け自動チューニング記述言語拡張 (ハイパフォーマンスコンピューティング(HPC) Vol.2011-HPC-129), 情報処理学会研究報告, 2010, 6, 1-8, 2011.04, 本稿では,CPUおよびGPU(Graphics Processing Unit)を混載した非均質計算機において,任意のプログラムの一部分が,適する計算資源上で実行される最適化を実現する自動チューニング専用言語HxABCLibScriptを提案する.性能評価の結果,HxABCLibScript記述から自動生成されるコードは,問題サイズや反復回数に応じ,CPUとGPU間で適切に計算資源を切り替えることで最適化されることを確認した.In this paper, we propose HxABCLibScript, which is a dedicated language for auto-tuning description on heterogeneous computer environment, which includes CPU and GPU (Graphics Processing Unit), to adapt arbitrary parts of programs. Results of performance evaluation indicated that the automatically generated codes from the description of HxABCLibScript can select the best computer resources between CPU and GPU according to problem size or the number of iterations on the program..
172. 大島 聡史, 林 雅江, 片桐 孝洋, 三次元有限要素法アプリケーションのCUDA向け実装と性能評価—Implementation and Evaluation of 3D Finite Element Method for CUDA, 情報処理学会研究報告, 2010年度, 6, 1-6, 2011.04.
173. 大島 聡史, 林 雅江, 片桐 孝洋, 中島 研吾, 三次元有限要素法アプリケーションのCUDA向け実装と性能評価, 研究報告ハイパフォーマンスコンピューティング(HPC), 2011, 20, 1-6, 2011.03, 本稿では三次元弾性静力学を対象とした有限要素法(Finite Element Method, FEM)のGPU(CUDA)向け実装と性能評価について述べる.高い演算性能・メモリ転送性能を持つGPUは様々な科学技術計算アプリケーションに利用されており,FEMについても多くの研究がなされている.本稿では特に前処理付き共役勾配法(Conjugate Gradient Method, CG法)による疎行列ソルバーと係数行列生成部分に注目し,CUDA向けの実装と性能評価を行った結果を報告する.In this paper, we describe the implementation and evaluation of Finite Element Method(FEM) on GPU(CUDA). Because GPU has high calculation performance and memory transfer performance, GPU is now utilizing for several scientific applications include FEM. We show the result of implementation and performance evaluation especially about sparse matrix solver using Conjugate Gradient Method and matrix creation..
174. 大島聡史, 櫻井隆雄, 片桐孝洋, 中島研吾, 黒田久泰, 直野健, 猪貝光祥, 伊藤祥司, Segmented Scan法のCUDA向け最適化実装, 情報処理学会研究報告(CD-ROM), 2010, 3, ROMBUNNO.HPC-126,NO.1, 2010.10.
175. 大島聡史, ATのGPUへの展開, 日本応用数理学会年会講演予稿集, 2010, 297-298, 2010.09.
176. 平澤 将一, 大島 聡史, 本多 弘樹, GPUコンピューティング向け中間言語の研究, 情報処理学会論文誌プログラミング(PRO), 3, 4, 66-66, 2010.09, 本発表においては,GPUコンピューティングに代表されるヘテロジニアスなデータ並列アクセラレータ環境に適する中間言語を明らかにする.主に画像処理用プロセッサとして用いられていたGPUなどのデータ並列プロセッサは汎用計算において高い実行ピーク性能を持ち,高性能コンピューティングにおいてアクセラレータとして注目されている.これらアクセラレータは,メインメモリとは独立したメモリ空間,アドレスを持つオンチップ高速スクラッチパッドメモリおよびSIMDやSPMDなどの並列実行モデルを持つ.既存のCPU向けコンパイラで用いられる中間言語はこれらアクセラレータが持つ特徴の記述性に乏しく,現在はアクセラレータの種類ごとに高いピーク性能を発揮させる独自のプログラミング環境が使用されており,ユーザがソースレベルでピーク性能に近付ける性能チューニングを行っている.本発表においてはヘテロジニアスなデータ並列アクセラレータ環境で使用可能な中間言語を明らかにするべく,Javaバイトコードをベースとしたネイティブコンパイル環境による実行性能を評価し,アクセラレータの持つ特徴を記述可能とする中間言語について議論する.In this presentation, we will discuss a intermediate language suitable for GPU computing. GPUs as data parallel processors have very high execution peak performance for general purpose computation. GPUs attract attention as accelerators in HPC (High Performance Computing). Accelerators usually have parallel execution models like SIMD and SPDM, independent memory, and high-speed on-chip scratchpad memory. Intermediate languages used in CPU compilers cannot fully describe these features. Users are using different programming environments for each accelerators and tuning source codes toward the peak performance. We evaluate the execution performance of a native compiling environment based on Java Bytecode and discuess the intermediate language which is suitable to describe the accelerator features..
177. 大島 聡史, 櫻井 隆雄, 片桐 孝洋, 中島 研吾, 黒田 久泰, 直野 健, 猪貝 光祥, 伊藤 祥司, Segmented Scan 法のCUDA向け最適化実装, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 126, 1, A1-A7, 2010.08, 本稿では Segmented Scan 法を用いた疎行列ベクトル積の CUDA 向け最適化実装について述べる.我々は実装の再利用性に着目した自動チューニングインターフェース OpenATLib の提案を行い,また OpenATLib の提供する機能の一つである疎行列ベクトル積においては Segmented Scan 方式を元にスカラ計算機向けに改良を行った Branchless Segmented Scan 方式を提案している.本稿ではこれらの方式を元にして CUDA 向けの新たな Segmented Scan 方式を考案し実装した.GPU 上で高速実行可能なようにアルゴリズムの改良や各種の最適化を行った結果,偏りの大きな行列に対して NVIDIA GeForceGTX285 上で最大で 3.26GFLOPS の性能を達成した.We discuss about optimized implementation of sparse matrix vector multiplication for CUDA using Segmented Scan method. We proposed Auto-tuning interface OpenATLib and we also proposed Branchless Segmented Scan method besed on Segmented Scan method for scalar computer as an important new feature of sparse matrix vector multiplication. In this paper, we proposed and implemented new Segmented Scan method for CUDA based on Segmented Scan method and Branchless Segmented Scan method. As a result of optimized implementation, we aimed 3.26GFLOPS on NVIDIA GeForceGTX285..
178. 平澤将一, 下田和明, 下田和明, 大島聡史, 本多弘樹, GPU向けソフトウェアキャッシュ機構の実装と評価, 情報処理学会研究報告(CD-ROM), 2009, 4, ROMBUNNO.ARC-186,9, 2009.12.
179. 平澤 将一, 下田 和明, 大島 聡史, 本多 弘樹, GPU向けソフトウェアキャッシュ機構の実装と評価, 情報処理学会研究報告. 計算機アーキテクチャ研究会報告, 186, I1-I10, 2009.11, 高性能コンピューティングにおいて GPU が注目されている.NVIDIA 製 GPU は CUDA において高性能なシェアードメモリを有効に用いるプログラミング技術により各種アプリケーションで非常に高いピーク性能が得られている一方,プログラミングの容易さ,汎用性に問題を残している.本研究においては CUDA においてユーザが明示的に使用するシェアードメモリの一部をデバイスメモリのキャッシュとするソフトウェアキャッシュ機構を提案する.本機構によりデバイスメモリからシェアードメモリへ暗黙的にデータ転送が行われ汎用計算の高速化が達成される.In HPC, GPU attracts attention. Although programming difficulty still remains, very high peak performance can be achieved using NVIDIA GPUs. In this research, we propose a software cache mechanism which caches the device memory of CUDA with the shared memory. User data can be transfered implicitly with the software cache and performance improvement of general-purpose computation benchmark programs can be achieved..
180. 平澤 将一, 下田 和明, 大島 聡史, 本多 弘樹, GPU向けソフトウェアキャッシュ機構の実装と評価, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 123, 9, I1-I10, 2009.11, 高性能コンピューティングにおいて GPU が注目されている.NVIDIA 製 GPU は CUDA において高性能なシェアードメモリを有効に用いるプログラミング技術により各種アプリケーションで非常に高いピーク性能が得られている一方,プログラミングの容易さ,汎用性に問題を残している.本研究においては CUDA においてユーザが明示的に使用するシェアードメモリの一部をデバイスメモリのキャッシュとするソフトウェアキャッシュ機構を提案する.本機構によりデバイスメモリからシェアードメモリへ暗黙的にデータ転送が行われ汎用計算の高速化が達成される.In HPC, GPU attracts attention. Although programming difficulty still remains, very high peak performance can be achieved using NVIDIA GPUs. In this research, we propose a software cache mechanism which caches the device memory of CUDA with the shared memory. User data can be transfered implicitly with the software cache and performance improvement of general-purpose computation benchmark programs can be achieved..
181. 大島聡史, 平澤将一, 本多弘樹, OMPCUDA:GPU向けOpenMP処理系, 情報処理学会シンポジウム論文集, 2009, 2, 42, 2009.01.
182. 大島聡史, 平澤将一, 本多弘樹, OMPCUDA:GPU向けOpenMPの実装, 情報処理学会シンポジウム論文集, 2009, 2, 131-138, 2009.01.
183. 大島 聡史, 平澤 将一, 本多 弘樹, OMPCUDA : GPU向け OpenMP の実装, 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 118, 125(HPC-118), 121-126, 2008.12, GPU(Graphics Processing Unit)を用いた汎用演算GPGPU(General-Purpose computation using GPUs)は高い演算性能が注目されている一方で,プログラム作成の難しさが問題となっている.そこで我々は,既存の並列プログラミング手法を用いたGPGPUプログラミングを提案している.本論文では共有メモリ型並列計算機で広く用いられているOpenMPを用いたGPGPUの可能性を探るため,CUDA対応GPU向けのOpenMP処理系OMPCUDAを実装した.また,並列性の高いテストプログラムを用いて評価を行い,並列プログラムが容易に作成できることおよび既存のOpenMPと同様の記述で容易に並列高速化できることを確認した..
184. 大島 聡史, 平澤 将一, 本多 弘樹, メッセージ通信型GPGPUプログラミング(プログラミング環境,「ハイパフォーマンスコンピューティングとアーキテクチャの評価」に関する北海道ワークショップ(HOKKE-2008)), 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2008, 19, 109-114, 2008.03, GPUの性能向上に伴い,GPUの性能を様々な用途に活用するGPGPUが注目されている.GPGPUは特に並列処理に適しているためCPUを超える演算性能が期待される一方,独自のプログラミング手法を用いる必要があるためソフトウェアの作成が容易ではない.そこで我々は既存の並列プログラミング手法を用いたGPGPUプログラミングを提案している.本稿ではメッセージ通信をはじめとした既存の並列プログラミング手法をいくつかとりあげ,それらがGPGPUプログラミングにどのように適用できるかを検討した。.
185. 大島 聡史, 平澤 将一, 本多 弘樹, メッセージ通信型GPGPUプログラミング, 情報処理学会研究報告. ARC,計算機アーキテクチャ研究会報告, 177, 19(ARC-177 HPC-114), 109-114, 2008.03, GPUの性能向上に伴い,GPUの性能を様々な用途に活用するGPGPUが注目されている.GPGPUは特に並列処理に適しているためCPUを超える演算性能が期待される一方,独自のプログラミング手法を用いる必要があるためソフトウェアの作成が容易ではない.そこで我々は既存の並列プログラミング手法を用いたGPGPUプログラミングを提案している.本稿ではメッセージ通信をはじめとした既存の並列プログラミング手法をいくつかとりあげ,それらがGPGPUプログラミングにどのように適用できるかを検討した。.
186. 大島 聡史, 平澤 将一, 本多 弘樹, 既存の並列化手法を用いたGPGPUプログラミング, 第49回プログラミング・シンポジウム予稿集, 49th, 2008, 81-88, 2008.01.
187. 大島 聡史, 平澤 将一, 本多 弘樹, 既存の並列化手法を用いたGPGPUプログラミングの提案, 情報処理学会研究報告. ARC,計算機アーキテクチャ研究会報告, 175, 115(ARC-175), 7-10, 2007.11, GPUの性能向上に伴い,GPUの性能を様々な用途に活用するGPGPUが注目されている.GPGPUは特に並列プログラムにおいてCPUを超える高い性能が期待される一方,GPGPUプログラミング特有の手法を用いる必要があるためソフトウェアの作成が容易ではない.本稿ではGPGPUプログラミングを容易にする1つの手法として既存の並列化手法を利用することを提案する.また具体的な実装に向けて,近年利用され始めたGPGPU向けプログラミング言語CUDAを利用し,GPU上の処理をOpenMPやMPIで記述する方法を検討する..
188. 今村 昌之, 鈴木 祥, 坂口 朋也, 大島 聡史, 片桐 孝洋, 吉瀬 謙二, 弓場 敏嗣, ソフトウェア DSM Mocha とMPIの並列ベンチマークを用いた性能評価, 情報処理学会研究報告. ARC,計算機アーキテクチャ研究会報告, 172, 17(ARC-172 HPC-109), 103-108, 2007.03, ソフトウェア分散共有メモリ(S-DSM)システムによるプログラミングは,一般に普及しているメッセージパッシングインタフェース(MPI)によるプログラミングよりも容易であるとされている.本稿では,MPIのひとつの実現ライブラリであるMPICHと,S-DSMであるMochaの性能を比較をした.4種のアプリケーション(MM, SOR, IS, LU)をベンチマークとして使用した.S-DSMシステムのオーバヘッドを測定するため,割り込みハンドラの実行時間を測定した.その結果,S-DSMの性能がMPIの性能に追いつくためには:1.ページフォルト時より前に共有データをプリフェッチ;2.ロック取得の高速化;3.バリア同期の高速化;の順番に改善をおこなうべきであることが明らかとなった..
189. 今村 昌之, 鈴木 祥, 坂口 朋也, 大島 聡史, 片桐 孝洋, 吉瀬 謙二, 弓場 敏嗣, ソフトウェアDSM MochaとMPIの並列ベンチマークを用いた性能評価(クラスタ,「ハイパフォーマンスコンピューティングとアーキテクチャの評価」に関する北海道ワークショップ(HOKKE-2007)), 情報処理学会研究報告. [ハイパフォーマンスコンピューティング], 2007, 17, 103-108, 2007.03, ソフトウェア分散共有メモリ(S-DSM)システムによるプログラミングは,一般に普及しているメッセージパッシングインタフェース(MPI)によるプログラミングよりも容易であるとされている.本稿では,MPIのひとつの実現ライブラリであるMPICHと,S-DSMであるMochaの性能を比較をした.4種のアプリケーション(MM, SOR, IS, LU)をベンチマークとして使用した.S-DSMシステムのオーバヘッドを測定するため,割り込みハンドラの実行時間を測定した.その結果,S-DSMの性能がMPIの性能に追いつくためには:1.ページフォルト時より前に共有データをプリフェッチ;2.ロック取得の高速化;3.バリア同期の高速化;の順番に改善をおこなうべきであることが明らかとなった..
190. 大島聡史, 片桐孝洋, 弓場敏嗣, 平澤将一, 本多弘樹, CPUとGPUを用いた基本行列計算ライブラリ, 情報処理学会シンポジウム論文集, 2007, 1, 66, 2007.01.
191. Satoshi Ohshima, Kenji Kise, Takahiro Katagiri, Toshitsugu Yuba, Parallel processing of matrix multiplication in a CPU and GPU heterogeneous environment, HIGH PERFORMANCE COMPUTING FOR COMPUTATIONAL SCIENCE - VECPAR 2006, 4395, 305-318, 2007.01, GPUs for numerical computations are becoming an attractive alternative in research. In this paper, we propose a new parallel processing environment for matrix multiplications by using both CPUs and GPUs. The execution time of matrix multiplications can be decreased to 40.1% by our method, compared with using the fastest of either CPU only case or GPU only case. Our method performs well when matrix sizes are large..
192. 大島 聡史, 吉瀬 謙二, 片桐 孝洋, 弓場 敏嗣, CPUとGPUを用いた並列GEMM演算の提案と実装, 情報処理学会論文誌コンピューティングシステム(ACS), 47, 12, 317-328, 2006.09, 画像処理用のハードウェアであるGPU(Graphics Processing Unit)の性能向上にともない,GPUの演算能力を様々な分野で活用する研究がさかんである.我々はGPUを用いた新しい計算方式として,CPUとGPUの並列処理による数値計算方式を提案してきた.本稿では既存の数値計算ライブラリに対して計算方式を適用し,性能チューニングのための検討およびベンチマークプログラムを用いた性能評価を行った.計算方式をBLASのGEMMに適用して並列GEMMを作成し,これを用いてHPLベンチマークを実行したところ,Pentium43.0GHz単体での実行と比べて最大で1.45倍の性能を達成した.GPUによる演算が単精度であるためHPLの高速化としては問題があるものの,計算方式が現実的なアプリケーションに適用できる可能性を示すことができた.GPUs for numerical computations are becoming an attractive research topics. We have proposed a new computation method of GPU, which utilizes parallel processing based on CPU and GPU. In this paper, we apply this method to existing numerical computation library. We examine a performance tuning method and execute performance experiments using a benchmark program. We also apply the method to the GEMM routine of BLAS and execute the HPL benchmark. As a result, the performance can be improved to 1. 45 times by our method, compared with a CPU only environment using Pentium 43.0GHz. There is a precision problem depending on GPU's arithmatic precision, but we show such a potentiality that our method can be applied to various applications..
193. 今村 昌之, 鈴木 祥, 坂口 朋也, 大島 聡史, 片桐 孝洋, 吉瀬 謙二, 弓場 敏嗣, MPIとの比較によるソフトウェアDSMの性能評価, 情報処理学会研究報告. ARC,計算機アーキテクチャ研究会報告, 169, 88, 157-162, 2006.08, ソフトウェア分散共有メモリ(S-DSM)システムは,PCクラスタなどの分散メモリ環境上で,ソフトウェアによって仮想的な共有メモリ環境を提供する.S-DSMによる並列プログラミングインタフェースは,一般に普及しているメッセージパッシングインタフェースよりもプログラミングが容易であるとされている.本稿では,メッセージパッシングインタフェースのひとつの実現ライブラリであるMPICHと,S-DSM Mochaの性能を比較をおこなった.三つのアプリケーション(MM, SOR, LU)をベンチマークとして使用した.その結果,プログラマが通信によるチューニングをおこなえるアプリケーションでは,MPIはS-DSMに対して性能が高く,反対におこなえない場合はMPIとS-DSMの性能は拮抗することがわかった..
194. 坂口 朋也, 今村 昌之, 鈴木 祥, 大島 聡史, 片桐 孝洋, 吉瀬 謙二, 弓場 敏嗣, 相乗り通信を利用したソフトウェアDSMの通信回数削減手法, 情報処理学会研究報告. ARC,計算機アーキテクチャ研究会報告, 169, 88, 151-156, 2006.08, PCクラスタにおいてソフトウェアで仮想的な共有メモリを実現するソフトウェア分散共有メモリ(S-DSM)システムの高速化について議論する.S-DSMシステムのクラスタを構成するノード間で,近い将来に転送されるページを動的に予測し,予め転送しておくことで通信オーバヘッドを削減し高速化を図る方法がある.本稿では,予測したページを予め転送しておく方式として,S-DSMシステムでやりとりされるメッセージにページデータを含ませる「相乗り通信」という転送方式を提案する.従来の転送方式のS-DSMシステムと比較して,提案手法を用いたS-DSMシステムは最大でMM(Matrix Multiply)では45.1%,SOR(Red-Black Successive Over Relaxation)で5.3%,LU(Parallel Dense-blocked LU Factorization, No Pivoting)で7.5%,IS(Integer sort)で4.8%の性能向上が得られた..
195. 今村昌之, 鈴木祥, 坂口朋也, 大島聡史, 片桐孝洋, 吉瀬謙二, 弓場敏嗣, MPIとの比較によるソフトウェアDSMの性能評価, 情報処理学会研究報告, 2006, 88(ARC-169), 157-162, 2006.07.
196. 坂口朋也, 今村昌之, 鈴木祥, 大島聡史, 片桐孝洋, 吉瀬謙二, 弓場敏嗣, 相乗り通信を利用したソフトウェアDSMの通信回数削減手法, 情報処理学会研究報告, 2006, 88(ARC-169), 151-156, 2006.07, PCクラスタにおいてソフトウェアで仮想的な共有メモリを実現するソフトウェア分散共有メモリ(S-DSM)システムの高速化について議論する.S-DSMシステムのクラスタを構成するノード間で,近い将来に転送されるページを動的に予測し,予め転送しておくことで通信オーバヘッドを削減し高速化を図る方法がある.本稿では,予測したページを予め転送しておく方式として,S-DSMシステムでやりとりされるメッセージにページデータを含ませる「相乗り通信」という転送方式を提案する.従来の転送方式のS-DSMシステムと比較して,提案手法を用いたS-DSMシステムは最大でMM(Matrix Multiply)では45.1%,SOR(Red-Black Successive Over Relaxation)で5.3%,LU(Parallel Dense-blocked LU Factorization No Pivoting)で7.5%,IS(Integer sort)で4.8%の性能向上が得られた.We discuss the method to speed up the software distributed shared memory (S-DSM) systems. By predicting a page which will be needed to be transferred in the future and prefetching it, we can speed up the S-DSM systems. In this paper, we propose a method to transfer the predicted pages together with a message used in S-DSM systems. We will call this method Ainori communication. We evaluate our implementation using four S-DSM benchmarks and show that it can decrease the number of communication and improve the performance..
197. 大島聡史, 吉瀬謙二, 片桐孝洋, 弓場敏嗣, CPUとGPUを用いた並列GEMM演算の提案と実装, 情報処理学会シンポジウム論文集, 2006, 5, 41-50, 2006.05.
198. 大島聡史, 吉瀬謙二, 片桐孝洋, 本多弘樹, 弓場敏嗣, CPUとGPUを複数用いた並列数値計算環境の検討, 情報処理学会シンポジウム論文集, 2006, 5, 252-253, 2006.05.
199. 大島 聡史, 吉瀬 謙二, 片桐 孝洋, 弓場 敏嗣, CPUとGPUの並列処理による行列積和演算方式の提案 (2005年並列/分散/協調処理に関する『武雄』サマー・ワークショップ(SWoPP武雄2005)--研究会・連続同時開催), 情報処理学会研究報告, 2005, 80, 139-144, 2005.08, 数値計算にGPU(Graphics Processing Unit)を利用する研究が盛んになりつつある.本稿ではGPUを用いてより高い演算性能を得るため, GPUで数値計算をおこなうだけではなく, 対象問題を分割し, CPUとGPUで並列に問題を解く方式を提案する.行列の積和演算をCPUとGPUで並列実行した結果, CPUのみで解いた場合に比べて, 最大38.1%の性能向上が得られた.また, 予備実験によって得たCPUとGPUそれぞれのFLOPS値を利用し, 最適な問題配分をおこなうための方法を検討した.その結果, 実験による測定値に近い値を, 計算によって求めることができた..
200. 大島聡史, 吉瀬謙二, 片桐孝洋, 弓場敏嗣, GPUによるBLAS演算の性能評価, 情報処理学会シンポジウム論文集, 2005, 5, 247-248, 2005.05.
201. 大島 聡史, 吉瀬 謙二, 片桐 孝洋, 弓場 敏嗣, GPUによる高速な行列積の実装, 第67回全国大会講演論文集, 2005, 1, 159-160, 2005.03.
202. 大島 聡史, 檜田 敏克, 吉瀬 謙二, 片桐 孝洋, 本多 弘樹, 弓場 敏嗣, 命令レベル並列性を利用したOpenMPによるプロセッサシミュレータの並列実行, 第66回全国大会講演論文集, 2004, 1, 121-122, 2004.03.

九大関連コンテンツ

pure2017年10月2日から、「九州大学研究者情報」を補完するデータベースとして、Elsevier社の「Pure」による研究業績の公開を開始しました。