PRODUCT

NVIDIA H100 NVL

Hopper Architecture
Securely Accelerate Workloads From Enterprise to Exascale

  • 96GB HBM3 Memory
  • MPC 350w-400w

NVIDIA H100 NVL は、NVLinkブリッジで接続された 2基の合計 188GB HBM3メモリ、帯域幅計 7.8TB/sを実現し、H100 NVL GPUを搭載したサーバでは、GPT-175Bモデルの性能を NVIDIA DGX A100システムの最大 12倍まで向上します。

製品仕様

H100 SXM H100 PCIe H100 NVL※1
x2 + NVLink Bridge
FP64 34 TFLOPS 26 TFLOPS 68 TFLOPS
FP64 Tensor コア 67 TFLOPS 51 TFLOPS 134 TFLOPS
FP32 67 TFLOPS 51 TFLOPS 134 TFLOPS
TF32 Tensor コア 989 TFLOPS※2 756 TFLOPS※2 1,979 TFLOPS※2
BFLOAT16 Tensor コア 1,979 TFLOPS※2 1,513 TFLOPS※2 3,958TFLOPS※2
FP16 Tensor コア 1,979 TFLOPS※2 1,513 TFLOPS※2 3,958 TFLOPS※2
FP8 Tensor コア 3,958 TFLOPS 3,026 TFLOPS 7,916 TFLOPS※2
INT8 Tensor コア 3,958 TOPS※2 3,026 TOPS※2 7,916 TOPS※2
GPU メモリ 80GB 80GB 188GB
GPU メモリ帯域幅 3.35TB/秒 2TB/秒 7.8TB/秒※3
デコーダー 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
14 NVDEC
14 JPEG
最大熱設計電力 最大 700W
(構成可能)
300-350W
(構成可能)
2x 350-400W
(構成可能)
マルチインスタンス GPU 各 10GB
最大 7 MIG
各 10GB
最大 7 MIG
各 12GB
最大 14 MIG
フォーム ファクター SXM PCIe
デュアルスロット
空冷
2x PCIe
デュアルスロット
空冷
相互接続 NVLink:900GB/秒
PCIe Gen5:128GB/秒
NVLink:600GB/秒
PCIe Gen5:128GB/秒
NVLink:600GB/秒
PCIe Gen5:128GB/秒
NVIDIA AI Enterprise アドオン 含む 含む

参考仕様。仕様は変更される場合があります。

With sparsity

HBM 帯域幅の総計

Enterprise-Ready Utilization

管理者はリソースの利用率(ピークと平均の両方)を最大化することを目指しています。多くの場合、コンピューティングを動的に再構成し、使用中のワークロードに合わせてリソースを正しいサイズに変更します。
H100の第 2世代 MIGでは、7個ものインスタンスに分割することで各 GPUの利用率を最大化します。コンフィデンシャル コンピューティング対応の H100 では、マルチテナントをエンドツーエンドで安全に利用できます。クラウド サービス プロバイダー (CSP) 環境に最適です。
H100 と MIG なら、インフラストラクチャ管理者は GPU アクセラレーテッド インフラストラクチャを標準化できて、同時に、GPU リソースを非常に細かくプロビジョニングできます。正しい量のアクセラレーテッド コンピューティングが安全に開発者に与えられ、GPU リソースの利用を最適化します。

NVIDIA H100 の MIG

H100 は MIGの機能を強化しています。最大 7個の GPUインスタンスで仮想環境のマルチテナント/マルチユーザー構成をサポートします。コンフィデンシャルコンピューティングによってハードウェアおよびハイパーバイザーレベルで各インスタンスが分離されるため安全です。
MIGインスタンスごとに専用のビデオデコーダーが与えられ、共有インフラストラクチャで安定したハイスループットのインテリジェントビデオ解析(IVA)が実現します。
同時実行 MIGプロファイリングを利用すると、管理者はユーザーのために正しいサイズの GPU高速化を監視し、リソースを複数のユーザーに割り当てることができます。
研究者のワークロードが比較的少ない場合、完全なクラウド インスタンスを借りる代わりに、MIGを利用して GPUの一部を安全に分離することを選択できます。
保存中、移動中、使用中のデータが安全なため、安心です。

MIG の仕様

H100 A100
コンフィデンシャル
コンピューティング
対応
インスタンスの種類 7x 10GB
4x 20GB
2x 40GB (より多くの計算処理能力)
1x 80GB
7x 10GB
3x 20GB
2x 40GB
1x 80GB
 GPU のプロファイリングと監視 すべてのインスタンスで同時実行 インスタンスは一度に 1 つだけ
テナントの保護 7x 1x
メディア デコーダー インスタンスあたりの
専用 NVJPEG と NVDEC
限定オプション

仕様は変更される場合があります。

NVIDIA コンフィデンシャルコンピューティング

使用中の AI ワークロードの機密性と完全性の保護

データや AIモデル、アプリケーションの使用時は、オンプレミスやクラウド等のいずれに展開されていても、外部からの攻撃や内部の脅威に対し脆弱となります。NVIDIA Hopperアーキテクチャで導入された画期的なセキュリティ機能である NVIDIA コンフィデンシャルコンピューティングは、AIワークロード向けの NVIDIA H100 Tensor コア GPU のかつてない高速化をユーザーに利用させながらそのような脅威を軽減します。強力なハードウェアベースのセキュリティを利用し、不正アクセスから機密データや専有の AIモデルを保護します。

NVIDIA H100 データシート

弊社では、科学技術計算や解析などの各種アプリケーションについて動作検証を行い、
すべてのセットアップをおこなっております。
お客様が必要とされる環境にあわせた最適なシステム構成をご提案いたします。