NVIDIA

NVIDIA A100 TENSOR コア GPU

AI/データ センター向けGPU

NVIDIA A100 Tensor コア GPU とは

あらゆる規模で前例のない高速化を実現し、世界最高のパフォーマンスを誇ります。
データ センターに AI、データ分析、HPC のためのパワーを与えるNVIDIA Ampere アーキテクチャで設計されたGPUです。

特長

  •  Tensorコア と Tensor Float (TF32)

    NVIDIA A100 の Tensor コアと Tensor Float (TF32) を利用することで、NVIDIA Volta と比較して最大 20 倍のパフォーマンスがコードを変更することなく得られます。加えて、Automatic Mixed Precision と FP16 の活用でさらに 2 倍の高速化が可能になります。

  •  ディープラーニング推論

    A100 には、推論ワークロードを最適化する画期的な機能が導入されています。FP32 から INT4 まで、あらゆる精度を加速します。マルチインスタンス GPU (MIG) テクノロジでは、1個の A100 で複数のネットワークを同時に動作できるため、コンピューティング リソースの使用率が最適化されます。

  •  企業で効率的に利用

    A100 と MIG の組み合わせにより、GPU 活用インフラストラクチャを最大限に利用できます。MIG を利用することで、A100 GPU を 7 つもの独立したインスタンスに分割できます。複数のユーザーが GPU アクセラレーションを利用できます。

仕様

データ センター GPU

HGX 向け NVIDIA A100 PCIe 向け NVIDIA A100
HGX 向け NVIDIA A100 PCIe 向け NVIDIA A100
あらゆるワークロードで究極のパフォーマンス。 あらゆるワークロードに対応する高い万能性。
  NVLink 用の
NVIDIA A100
PCIe 用の
NVIDIA A100
ピーク FP64 9.7 TF 9.7 TF
ピーク FP64 Tensor コア 19.5 TF 19.5 TF
ピーク FP32 19.5 TF 19.5 TF
ピーク FP32 Tensor コア 156 TF | 312 TF 156 TF | 312 TF
ピーク BFLOAT16 Tensor コア 312 TF | 624 TF 312 TF | 624 TF
ピーク FP16 Tensor コア 312 TF | 624 TF 312 TF | 624 TF
ピーク INT8 Tensor コア 624 TOPS | 1,248 TOPS 624 TOPS | 1,248 TOPS
ピーク INT4 Tensor コア 1,248 TOPS | 2,496 TOPS 1,248 TOPS | 2,496 TOPS
GPU メモリ 40GB 80GB 40GB
GPU メモリ帯域幅 1,555 GB/秒 2,039 GB/秒 1,555 GB/秒
相互接続 NVIDIA NVLink 600 GB/秒
PCIe Gen4 64 GB/秒
NVIDIA NVLink 600 GB/秒
PCIe Gen4 64 GB/秒
マルチインスタンス GPU さまざまなインスタンス サイズ、
最大 7 MIG @ 10 GB
さまざまなインスタンス サイズ、
最大 7 MIG @ 5 GB
フォーム ファクター 4/8 SXM on NVIDIA HGX A100 PCIe
最大 TDP 電力 400 W 400 W 250 W
  • スパース行列の場合

SB C&S独自のご支援

各種検証機材のお貸出し

データセンタ向け GPU (Tesla) に加え、Tesla の搭載が可能なサーバー、および NVIDIA の Deep Learning 専用機である DGX の一部機種をお貸出し可能です。
詳細については、以下のリンクよりお問い合わせください。

※基本の貸出期間は2週間を目安としております。2週間を超える期間をご希望の場合は、別途ご相談ください。

AI/ディープラーニング 導入のご支援

社内でAIエンジニアを育成したいというニーズ、NVIDIA製品の購入から構築サポートを依頼したいというニーズをトータルで対応可能です。

・社内でAIエンジニアを育成したいというニーズ
→教育プログラムの提供でカバー。
・NVIDIA製品の購入から構築サポートを依頼したいというニーズ
→弊社がNVIDIA製品の認定流通であり、且つNVIDIA製品を取り扱えるNPNパートナーの紹介も可能で、ご希望あればNPN登録希望の販売店へのご支援もいたします。

仮想化もSB C&Sの強みです!

SB C&S は、VMwareを主とした仮想化ソリューションのご支援を10年以上に渡って続けております。
また、米ヴイエムウェア社がVMwareのソリューション提供に最も貢献したパートナー企業を表彰する「VMware Partner Innovation Award」において、アジア・太平洋および日本における「Regional Distributor of the Year」を受賞するなど、VMware認定ディストリビューターとして確かな実績を築いています。

充実の販売支援体制

お見積もりのご支援

・ハードウエア構成・サイジング
・仮想化環境における適正なライセンス選定

営業/SE向けトレーニング

・営業向け仮想化入門セミナー
・SE向けハンズオントレーニング

仮想化関連製品個別提案

・サーバー、ストレージ、セキュリティ
・ネットワーク等トータルサポート

PoC/事前検証ご支援

・SB C&Sラボでの事前検証
・各種検証機材のお貸出し

各種資料のご提供

・販売促進資料
・検証レポート
・パートナー専用サイト公開

教育プログラムのご提供

・JDLA 監修トレーニング AI Standard 他

パートナー制度

NVIDIA Partner Network (NPN)とは?

NVIDIA Partner Network(略称:NPN)とはNVIDIA認定のパートナー制度です。

NVIDIA製品を販売するには?

NVIDIA製品の販売には対象のコンピテンシー取得の認定NPNパートナーを介することが必須となります。
認定NPNパートナーはこちら

SB C&Sは、NPNパートナーのご紹介、コンピテンシーの取得希望のお問い合わせについてもご支援をいたします。

コンピテンシープログラムとは?

コンピテンシーは、NPNパートナーの得意分野かつNVIDIAと一緒にフォーカスするソリューションです。

コンピテンシー 製品 利用シーン
Compute AI/データ センター向けGPU Compute 計算科学、CAE解析(GPGPU)、仮想化(vGPU)
Compute DGX DGX SYSTEMS Compute DGX Deep Learning
Virtualization vGPU Virtualization VDI
Visualization GPU Quadroシリーズ Visualizationワークステーション、VR、3D CAD

メンバーシップレベルは、上位から順にElite、Preferred、Communityの3つとなります。
詳細はメーカーサイトをご確認ください。
メーカーサイトで確認する

関連情報

  • NVIDIA 仮想 GPU (vGPU)

    仮想マシンで、物理デスクトップと同様に GPU を活用できます。
    GPU テクノロジの機能を仮想デスクトップやアプリケーションに拡張し、ユーザー エクスペリエンスが大幅に改善されます。

  • Quadro

    Quadroはデスクトップクラスやワークステーションのグラフィックスパフォーマンスを向上させ、業界をリードするサーバーソリューションでも利用できます。

  • DGX SYSTEMS

    世界最高レベルの複雑なAIの課題に取り組むことができるDeep Learning専用マシンです。

※ 本サイトに表示・記載されている表示価格はすべて税抜価格です。
※ 文中の社名、商品名などは各社の商標または登録商標である場合があります。

IT-EXchange IDを
お持ちの販売パートナーさま

IT-EXchangeへログインいただくと、
SB C&Sお取り扱い40万点の製品情報を
ご確認いただけます。
ログインに関するご不明点はこちら

新規お取引を
ご検討のお客さま

  • IT製品の
    自社導入について

    下記フォームより
    お問い合わせください。

  • 新規販売パートナー
    契約について

    お申し込み後、担当窓口より
    ご連絡いたします。

  • 自社製品の新規卸販売
    契約について

    お申し込み後、担当窓口より
    ご連絡いたします。