機械学習・Deep Learning向け構成事例
機械学習・Deep LearningでGPU計算を行う場合はGPUを複数枚搭載する構成が一般的です。ホストとGPU間の転送時間がGPU上での計算よりも短い場合や、独立したモデルを各GPUに割り振って計算させる場合などではPCI-Eの帯域幅がそれほど重視されないこともあります。PCI-E帯域幅の重要性は複数のGPUの使い方、計算させるモデルやネットワークの構成によります。
GPUを4枚搭載する構成において、Xeon CPUの対応PCI-Eレーン数では4個のPCI-Eスロットを全てX16動作させることはできないため、マザーボード上のPCI-Eスイッチによって動作させることになります。AMD EPYCであれば4個のPCI-Eスロットを全てネイティブにX16動作させることが可能になります。PCI-E帯域幅を重視する場合にはEPYCを搭載したモデルが推奨となります。
Deep Learningの学習で要求されるGPUメモリ量は、計算させるモデルやネットワークの構成、入力データなどによって異なります。それほどGPUのメモリ量が必要でなければGeForceの費用対効果が高く、一方で物体検出など比較的大きなメモリ量が必要な場合には最上位モデルのGeForce GPUや、Quadro、サーバ向けのNVIDIA V100, A100などが必要となります。
構成事例
1. GPUでのディープラーニング+CPUでのマルチコア数値解析


お問い合わせ内容
デスクサイドマシンで、GPUを利用したディープラーニング(機械学習)計算とCPUでの偏微分方程式の数値解析の両方を行える計算機。
ご提案構成
ご予算および利用可能な電源容量の制約からGPUをGeForce RTX 2080Tiを2枚、小型のケースに納まってCPU性能が高く、メモリ帯域幅も広くなるようXeon Gold 6252 (2.40GHz, 20コア) 1基、メモリ192GBという構成としました。
主な仕様
- CPU: Xeon Gold 6252 2.10GHz 24コア
- メモリ: 192GB DDR4-2933 6-channel
- GPU: 2x GeForce RTX 2080Ti (モニタ出力兼用)
- ATXミドルタワーケース
関連モデル
・GPU-EPYC1W-GF-LC : EPYCを1基搭載、GeForce RTX 3090を最大4枚搭載可能なタワー型計算機
・GPU-Intel1W-GF-LC : Intel Core i9を搭載、GeForce RTX 3090を最大4枚搭載可能なタワー型計算機
・GPU-TR1W-GF-LC : Threadripperを1基搭載、GeForce RTX 3090を最大3枚搭載可能なタワー型計算機
2. GPU 4枚搭載ディープラーニング向け計算機


お問い合わせ内容
GeForce 2080Tiを4枚搭載したディープラーニング向けのサーバで、ラックマウントサーバのような高回転数ファンを使用しない構成。
ご提案構成
ディープラーニング向けということで、オンボードのPCI-Eスイッチを搭載したCPU 1基搭載マザーとしてGPU 4枚搭載で対応し、ご予算上限からGPGPUはGeForce RTX 2080Tiが4枚、CPU性能はそれほど必要はなく8コア/16スレッドのXeon W、メモリ128GBの構成としました。CUDAや各種ディープラーニング向けフレームワークに関しては複数バージョンのインストールのご要望があり、複数バージョンのCUDAインストールとAnaconda仮想環境内に複数バージョンの各種フレームワークをインストールしました。
主な仕様
- CPU: Xeon W 2145 3.70GHz 8コア
- メモリ: 128GB DDR4-2666 4-channel
- GPU: 4x GeForce RTX 2080Ti(モニタ出力兼用)
- SSD 1TB, HDD 4TB
- タワー型サーバケース
・GPU-EPYC1W-GF-LC : EPYCを1基搭載、GeForce RTX 3090を最大4枚搭載可能なタワー型計算機
・GPU-Intel1W-GF-LC : Intel Core i9を搭載、GeForce RTX 3090を最大4枚搭載可能なタワー型計算機
・GPU-TR1W-GF-LC : Threadripperを1基搭載、GeForce RTX 3090を最大3枚搭載可能なタワー型計算機
3. Tesla V100 (PCI-E) 搭載ディープラーニング向けサーバ


お問い合わせ内容
PCI-E Tesla V100を搭載したディープラーニング向けサーバ。
ご提案構成
設置場所や電源容量の確認を行い、騒音や電源容量には問題がなかったためTesla V100でご提案可能でした。ご予算の範囲内ではCPUやメモリは最低限のXeon Silver 4116 x2, メモリ96GBとしました。CUDAや各種フレームワークをインストールし、その後にTesla V100を追加される際にはCUDAや各種フレームワークのアップデート作業にもご対応しました。
主な仕様
- CPU: 2x Xeon Silver 4116
- メモリ: 96GB DDR4-2400 6-channel
- Video: Onboard VGA
- GPU: Tesla V100 32GB PCI-E
- SSD 1TB, HDD 4TB
- 4Uラック / タワー兼用サーバケース
PCI-EのTesla V100を搭載可能なマシン構成は限定されます。通常、Tesla V100を搭載したサーバは騒音が非常に大きいため、防音がしっかりしたサーバ室などに設置することになります。弊社では、研究室などにも設置できるように騒音を低減したPCI-E Tesla V100Sを最大4枚搭載可能なタワー型計算機を販売しており、騒音対策がされていない場所でもTesla V100Sを利用可能です。
関連モデル
・GPU-EPYC1W-V100S : PCI-E NVIDIA V100Sを4枚搭載可能な騒音を低減したタワー型計算機
・GPU-Xeon2W-SPCL-4UT: PCI-E NVIDIA V100Sを4枚搭載可能なGPUサーバ
本ページのハードウェア構成は納品当時の構成のため、最新のパーツではないことがあります。また同分野のアプリケーションであっても実際の性能は計算モデル、アルゴリズム、コンパイラ、ソルバーやライブラリ、ソースコードなどに依存するため、必ずしも最適な構成ではない場合があります。