AWSのGPU系インスタンスを紹介!特徴や料金をおさえておこう


GPUとは?
GPUとは主にゲームなどの3Dグラフィックを描画するために計算を行う半導体チップで、GraphicsProcessingUnitの略です。グラフィックボードに搭載されており、高画質なグラフィックを描画するのに特化しています。
元々のGPUはグラフィックを描画するためのものでしたが、行列計算を得意としているため近年ではディープランニングや暗号資産である仮想通貨のマイニングにも利用されています。
AWSにおいても高性能なGPUを搭載したインスタンスが数多く提供されています。今回はAWSにおけるGPU搭載のインスタンスについて紹介していきます。
AWSの高速コンピューティングインスタンスとは?
AWSのインスタンスのうち、GPUが搭載されているインスタンスはその処理能力の高さから高速コンピューティングインスタンスと呼ばれています。
AWSの高速コンピューティングインスタンスでは複数タイプのインスタンスが提供されており、そのうち汎用コンピューティング向けのGPUインスタンスとグラフィック集中型アプリケーション向けのGPUグラフィックインスタンスが、GPU系のインスタンスとなります。
インスタンスタイプはそれぞれ汎用コンピューティングはP系、グラフィックアプリケーション向けはG系となっています。
高速コンピューティングインスタンスには他にも機械学習の推論を利用したアプリケーション利用に特化したInf1系、ゲノム研究やビックデータ解析などを行うことができるFPGAによるカスタマイズ可能なハードウェアアクセラレーションを提供するF1系があります。
AWS Deep Learning AMIで推奨されているインスタンスは?
クラウド上において少ない準備で深層学習を行うことができるAWS Deep Learning AMIにおいて推奨されているインスタンスは、やはりGPU搭載のものとなっています。
下記に、推奨されているインスタンスとGPUの種類や最大個数をまとめてみました。
インスタンスタイプ | GPU種別/最大個数 |
---|---|
Amazon EC2 P3 インスタンス | NVIDIA® V100 Tensor Core GPU/8個 |
Amazon EC2 P2 インスタンス | NVIDIA K80 GPU/16個 |
Amazon EC2 P4 インスタンス | NVIDIA Tesla A100 GPU/8個 |
Amazon EC2 G3 インスタンス | NVIDIA Tesla M60 GPU/4個 |
Amazon EC2 G4 インスタンス | NVIDIA T4 GPU/4個 |
各GPU系インスタンスの特徴について解説
AWS Deep Learning AMIにおいて、推奨されている各GPUインスタンスについて特徴などを解説します。
各インスタンスの違いは主にGPUの種類や搭載できるGPUの個数、またメモリなどがあります。また、特定の使用用途向けに最適化されているなどの特徴があります。
Amazon EC2 P2インスタンス
Amazon EC2 P2インスタンスは、CUDA及びOpenCLのプログラミングモデルを使用した汎用GPUコンピューティング向けに提供されており、GPUは「NVIDIA Tesla K80 GPU」を搭載しています。
P2インスタンスの特徴として、広帯域のネットワーク、強力な単精度・倍精度浮動小数点機能が挙げられます。
また、GPU毎に12GiBのメモリを提供しており、ディープランニングをはじめ、金融工学やゲノム解析といったGPUの高性能な計算機能が必要な分野に幅広く対応することができます。
NVIDIA Tesla K80 GPUは現在、世界中のデータセンターで多く利用されているGPUです。
主なスペックはデュアルGPU設計992CUDA(クーダ)コア、NVIDIA GPUBoost時で最大2.91テラフロップスの倍精度パフォーマンス/最大8.73テラフロップスの単精度パフォーマンス、24GBのGDDR5メモリ、480GB/sの合計メモリ帯域幅などが挙げられます。
Amazon EC2 P3インスタンス
Amazon EC2 P3インスタンスはCUDA、およびOpenCLプログラミングモデルやMachine Learningフレームワークを使用する汎用GPUコンピューティング向けに提供されており、NVIDIA Tesla V100 GPUが搭載されています。
P3インスタンスの特徴としては広帯域幅のネットワーキング、強力な半精度・単精度、倍精度浮動小数機能が挙げられます。
また、GPU毎に最大で32GiBメモリを提供しており、ディープラーニングをはじめとする高精度な計算が必要な分野で活躍できます。
ただし、Tesla V100 GPUはグラフィックモードをサポートしていないため注意が必要です。
Amazon EC2 P4インスタンス
Amazon EC2 P4インスタンスは、2020年にローンチされたばかりの最新のGPUインスタンスであり、NVIDIA A100 Tensor Core GPUを8つ搭載しています。
2.5ペタフロップスの浮動小数点パフォーマンスと320GiBのGPUメモリを搭載しており、ディープラーニングにおいてはP3インスタンスと比べて2.5倍ものパフォーマンスを実現します。
Amazon EC2 G3インスタンス
Amazon EC2 G3インスタンスはDirectX、OpenGLを使用したグラフィックアプリケーション向けに最適化されたプラットフォームを提供しており、NVIDIA Tesla M60 GPUを搭載しています。
G3インスタンスの特徴は4096×2160の解像度を持つ4つのモニターやNVIDIA GRID仮想アプリケーションのサポート、NVIDIA GRID仮想ワークステーションの機能をサポートしている点が挙げられます。
Amazon EC2 G4インスタンス
Amazon EC2 G4インスタンスは、CUDAを使用した汎用GPUコンピューティングおよび、DirectXやOpenGLを使用したグラフィックアプリケーションを備えるディープラーニング用のフレームワークを提供しており、NVIDIA Tesla GPUを搭載しています。
G4インスタンスの特徴として広帯域幅のネットワーキング、強力な半精度浮動小数点・単精度浮動小数点機能、INT8精度・INT4精度を提供している点となります。
G4インスタンスは各GPUで16GiBのメモリを備えており、ディープラーニングでの推論や動画のトランスコード、リモートグラフィックワークステーションやクラウド内のゲームストリーミングなどのグラフィックアプリケーションに最適です。
GPUインスタンスの利用料金を紹介
AWS Deep Learning AMIをGPUインスタンスで始める場合のAWSオンデマンド料金について紹介します。
AWSオンデマンド料金は基本的に性能が高くなる分、料金も割高になってしまいます。しかし、ディープラーニングの特性上、性能の低いインスタンスを複数台使用した分散トレーニングのほうが利用時間が少なくなり結果的に料金を抑えることも可能となります。
今回紹介するAWSオンデマンド料金は、2021年2月現在のものとなります。
インスタンス | CPU | メモリ | GPU種類/個数/ビデオメモリ | 料金/1時間当たり |
---|---|---|---|---|
p2.xlarge | 12ECU(4コア) | 61GiB | NVIDIA K80 GPU/1/- | 0.90USD |
p2.8xlarge | 94ECU(32コア) | 488GiB | NVIDIA K80 GPU/8/- | 7.20USD |
p2.16xlarge | 188ECU(64コア) | 732GiB | NVIDIA K80 GPU/8/- | 14.40USD |
p3.2xlarge | 8コア | 61GiB | NVIDIA V100 GPU/1/- | 3.06USD |
p3.8xlarge | 32コア | 244GiB | NVIDIA V100 GPU/4/- | 12.24USD |
p3.16xlarge | 64コア | 488GiB | NVIDIA V100 GPU/8/- | 24.48USD |
p3dn.24xlarge | 96コア | 768GiB | NVIDIA V100 GPU/8/32GB | 31.212USD |
p4d.24xlarge | 96コア | 1152GiB | NVIDIA A100 GPU/8/40GB | 32.773USD |
g3.4xlarge | 16コア | 122GiB | NVIDIA M60 GPU/1/- | 1.14USD |
g3.8xlarge | 32コア | 244GiB | NVIDIA M60 GPU/2/- | 2.28USD |
g3.16xlarge | 64コア | 488GiB | NVIDIA M60 GPU/4/- | 4.56USD |
g3s.xlarge | 4コア | 30.5GiB | – | 0.75USD |
g4dn.xlarge | 4コア | 16GiB | NVIDIA T4 GPU/1/16GB | 0.526USD |
g4dn.2xlarge | 8コア | 32GiB | NVIDIA T4 GPU/1/16GB | 0.752USD |
g4dn.4xlarge | 16コア | 64GiB | NVIDIA T4 GPU/1/16GB | 1.204USD |
g4dn.8xlarge | 32コア | 128GiB | NVIDIA T4 GPU/1/16GB | 2.176USD |
g4dn.12xlarge | 48コア | 192GiB | NVIDIA T4 GPU/4/16GB | 3.912USD |
g4dn.16xlarge | 64コア | 256GiB | NVIDIA T4 GPU/1/16GB | 4.352USD |
g4dn.metal | 96コア | 384GiB | NVIDIA T4 GPU/8/16GB | 7.824USD |
AWSのGPUインスタンスを使ってディープラーニングを初めてみよう
AWSのGPUインスタンスを使うことで、初期コストを抑えてディープラーニングなどを用いたアプリケーションを構築することができます。
モデルによっては分散トレーニングにより短い時間で完了できる場合もあるため、それぞれにあったインスタンスを選択することが重要です。
トレーニングに使用するモデルに必要な処理能力を見極めつつ、ひとつのインスタンスにするか複数台とするかなど慎重に選択していきましょう。
この記事の監修者・著者

- AWSパートナー/Salesforce認定コンサルティングパートナー 認定企業
-
ITエンジニア派遣サービス事業を行っています。AWSやSalesforceなど専門領域に特化したITエンジニアが4,715名在籍し、常時100名以上のITエンジニアの即日派遣が可能です。
・2021年:AWS Japan Certification Award 2020 ライジングスター of the Year 受賞
・2022年3月:人材サービス型 AWSパートナー認定
・AWS認定資格保有者数1,154名(2024年6月現在)
・Salesforce認定コンサルティングパートナー
・Salesforce認定資格者276名在籍(2024年5月現在)
・LPIC+CCNA 認定資格者:472 名(2024年6月時点)
最新の投稿
- 2024-12-27営業インタビュー情報共有の活性化の中心に。SP企画部の新たな取り組み
- 2024-07-01営業インタビュー最短で当日にご提案可能。 OPE営業の対応が早い3つの理由
- 2024-07-01営業インタビュー研修見学ツアーが高評価!「お客様のOPEに対する期待を高め、継続に貢献できればと思います。」
- 2024-07-01営業インタビュー信頼関係を構築し、エンジニアの長期就業へ

- 求人・転職サイトや自社採用サイトを使っているが、自社に合ったITエンジニアが応募してこない…
- すぐに採用したいが、応募がぜんぜん集まらない
オープンアップITエンジニアをご検討ください!
当社のITエンジニア派遣サービスは
- 派遣スピードが速い!(最短即日)
- 4,500名のエンジニアから貴社にマッチした人材を派遣
- 正社員雇用も可能
こんな特長があり、貴社の事業やプロジェクトに合った最適なITエンジニアを派遣可能です。
まずは下記ボタンから無料でご相談ください。