取り扱いGPUラインナップ

line Up

GPUラインナップ

NVIDIA GPUのご紹介です。ご用途に合わせてお選びいただくことが可能です。
「どれがいいかわからない」などご相談も受けつけておりますので是非お問合せください。

Compute/計算用途

  • NVIDIA A100

    コンピューティングのハイエンドAI学習、HPC、データ処理

    最速コンピューティング、FP64最大7つのMIGインスタンス

    • 250w/300w/400w
    • 2-slot FHFL
    • 40G&80G
    • NVLINK
    • DLトレーニング
    • 科学的な研究
    • データ分析
    データシートのダウンロード
  • NVIDIA A30

    コンピューティングのスタンダードAI推論、データ処理

    用途の広いメインストリーム コンピューティングFP64 最大4つのMIGインスタンス

    • 165w
    • 2-slot FHFL
    • 24GB
    • NVLINK
    • 言語処理
    • チャット型AI
    • リコメンドシステム
    データシートのダウンロード

Graphics/グラフィックス用途

  • NVIDIA A40

    グラフィックスのハイエンドレンダリング、デザイン、OmniverseCloudXR

    最高速のRTグラフィックス 最高のレンダリングモデル

    • 300w
    • 2-slot FHFL
    • 48GB
    • NVLINK
    • クラウド上のレンダリング
    • クラウド上のXR
    • オムニバス
    データシートのダウンロード
  • NVIDIA A10

    グラフィックスのスタンダードAIを使用したビデオ

    4Kクラウドゲームグラフィック、AIを使用したビデオ

    • 150w
    • 1-slot FHFL
    • 24GB
    • 仮想ワークステーション
    • ビデオミーティング
    • 4Kクラウドゲーム
    データシートのダウンロード
  • NVIDIA T4

    コンパクト&汎用用途高密度搭載可能モデル

    コンパクトで低消費電力 データセンターとエッジ推論

    • 70w
    • 1-slot HHHL
    • 16GB
    • エッジAI
    • エッジビデオ
    • モバイルゲーム
    データシートのダウンロード
  • NVIDIA A16

    仮想デスクトップ用高密度搭載可能モデル

    高解像度、マルチモニター、大容量のエンコード/デコードストリーム

    • 250w
    • 2-slot FHFL
    • 4×16GB
    • 仮想デスクトップ
    • トランスコーディング

データセンター向け
GPU比較表

A100 A30 A40 A10 T4
Design Highest Perf AI,
HPC & Data
Processing
AI Inference &
Mainstream
Compute
Highest Pref
Graphics &
Visual Computing
Mainstream
Graphics
& Video with AI
Small footprint
Datacenter &
Edge Inference
GPU Memory 40-80GB
HBM2/e
24GB
HBM2
480GB
GDDR6
24GB
GDDR6
16GB
GDDR6
Multi-Instance
GPU
UP to 7 UP to 4 N/A N/A N/A
Ray Tracing No No Yes Yes Yes
Fast FP64 Yes Yes No No No
DL & Compute Ultimate Fastest Fastest Faster Fast
Graphics Limited
(no visualization)
Limited
(no visualization)
Best Better Good
Max Power 250W-300W 165W 300W 150W 70W