PRODUCT

NVIDIA H100 NVL

Hopper Architecture
Securely Accelerate Workloads From Enterprise to Exascale

  • 94GB HBM3 Memory
  • MPC 350w-400w

NVIDIA H100 NVL は、NVLinkブリッジで接続された 2基の合計 188GB HBM3メモリ、帯域幅計 7.8TB/sを実現し、H100 NVL GPUを搭載したサーバでは、GPT-175Bモデルの性能を NVIDIA DGX A100システムの最大 12倍まで向上します。

製品仕様

H100 SXM H100 NVL
FP64 34 teraFLOPS 30 teraFLOPS
FP64 Tensor コア 67 teraFLOPS 60 teraFLOPS
FP32 67 teraFLOPS 60 teraFLOPS
TF32 Tensor コア 989 teraFLOPS 835 teraFLOPS
BFLOAT16 Tensor コア 1,979 teraFLOPS 1,671 teraFLOPS
FP16 Tensor コア 1,979 teraFLOPS 1,671 teraFLOPS
FP8 Tensor コア 3,958 TFLOPS 3,341 TFLOPS
INT8 Tensor コア 3,958 TOPS 3,341 TOPS
GPU メモリ 80GB 94GB
GPU メモリ帯域幅 3.35TB/秒 3.9TB/秒
デコーダー 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
最大熱設計電力 最大 700W
(構成可能)
350-400W
(構成可能)
マルチインスタンス GPU 各 10GB
最大 7 MIG
各 12GB
最大 14 MIG
フォーム ファクター SXM PCIe
デュアルスロット
空冷
相互接続 NVLink:900GB/秒
PCIe Gen5:128GB/秒
NVLink:600GB/秒
PCIe Gen5:128GB/秒
サーバー オプション 4 または 8GPU搭載の
NVIDIA HGX H100パートナー
および
NVIDIA-Certified Systems
8 GPU搭載の
NVIDIA DGX H100
1~8 GPU搭載の
パートナーおよび NVIDIA Certified Systems
NVIDIA AI Enterprise アドオン 含む

疎性あり

Enterprise-Ready Utilization

管理者はリソースの利用率(ピークと平均の両方)を最大化することを目指しています。多くの場合、コンピューティングを動的に再構成し、使用中のワークロードに合わせてリソースを正しいサイズに変更します。
H100の第 2世代 MIGでは、7個ものインスタンスに分割することで各 GPUの利用率を最大化します。コンフィデンシャル コンピューティング対応の H100 では、マルチテナントをエンドツーエンドで安全に利用できます。クラウド サービス プロバイダー (CSP) 環境に最適です。
H100 と MIG なら、インフラストラクチャ管理者は GPU アクセラレーテッド インフラストラクチャを標準化できて、同時に、GPU リソースを非常に細かくプロビジョニングできます。正しい量のアクセラレーテッド コンピューティングが安全に開発者に与えられ、GPU リソースの利用を最適化します。

NVIDIA コンフィデンシャルコンピューティング

使用中の AI ワークロードの機密性と完全性の保護

データや AIモデル、アプリケーションの使用時は、オンプレミスやクラウド等のいずれに展開されていても、外部からの攻撃や内部の脅威に対し脆弱となります。NVIDIA Hopperアーキテクチャで導入された画期的なセキュリティ機能である NVIDIA コンフィデンシャルコンピューティングは、AIワークロード向けの NVIDIA H100 Tensor コア GPU のかつてない高速化をユーザーに利用させながらそのような脅威を軽減します。強力なハードウェアベースのセキュリティを利用し、不正アクセスから機密データや専有の AIモデルを保護します。

NVIDIA H100 NVL データシート

弊社では、科学技術計算や解析などの各種アプリケーションについて動作検証を行い、
すべてのセットアップをおこなっております。
お客様が必要とされる環境にあわせた最適なシステム構成をご提案いたします。