IT人材をお探しの方は、まずはお電話ください。担当営業がすぐにご要望にマッチした人材をご提案いたします。
tel:03-6409-6766 お急ぎの方はお電話ください

ブログTOP > IT・技術関連 > AWSのGPU系インスタンスを紹介!特徴や料金をおさえておこう

AWSのGPU系インスタンスを紹介!特徴や料金をおさえておこう

IT・技術関連 更新日:2024.09.05
エンジニア採用
AWSのGPU系インスタンスを紹介!特徴や料金をおさえておこう

GPUとは?


GPUとは主にゲームなどの3Dグラフィックを描画するために計算を行う半導体チップで、GraphicsProcessingUnitの略です。グラフィックボードに搭載されており、高画質なグラフィックを描画するのに特化しています。

元々のGPUはグラフィックを描画するためのものでしたが、行列計算を得意としているため近年ではディープランニングや暗号資産である仮想通貨のマイニングにも利用されています。

AWSにおいても高性能なGPUを搭載したインスタンスが数多く提供されています。今回はAWSにおけるGPU搭載のインスタンスについて紹介していきます。

AWSの高速コンピューティングインスタンスとは?


AWSのインスタンスのうち、GPUが搭載されているインスタンスはその処理能力の高さから高速コンピューティングインスタンスと呼ばれています。

AWSの高速コンピューティングインスタンスでは複数タイプのインスタンスが提供されており、そのうち汎用コンピューティング向けのGPUインスタンスとグラフィック集中型アプリケーション向けのGPUグラフィックインスタンスが、GPU系のインスタンスとなります。

インスタンスタイプはそれぞれ汎用コンピューティングはP系、グラフィックアプリケーション向けはG系となっています。

高速コンピューティングインスタンスには他にも機械学習の推論を利用したアプリケーション利用に特化したInf1系、ゲノム研究やビックデータ解析などを行うことができるFPGAによるカスタマイズ可能なハードウェアアクセラレーションを提供するF1系があります。

AWS Deep Learning AMIで推奨されているインスタンスは?


クラウド上において少ない準備で深層学習を行うことができるAWS Deep Learning AMIにおいて推奨されているインスタンスは、やはりGPU搭載のものとなっています。

下記に、推奨されているインスタンスとGPUの種類や最大個数をまとめてみました。

インスタンスタイプ GPU種別/最大個数
Amazon EC2 P3 インスタンス NVIDIA® V100 Tensor Core GPU/8個
Amazon EC2 P2 インスタンス NVIDIA K80 GPU/16個
Amazon EC2 P4 インスタンス NVIDIA Tesla A100 GPU/8個
Amazon EC2 G3 インスタンス NVIDIA Tesla M60 GPU/4個
Amazon EC2 G4 インスタンス NVIDIA T4 GPU/4個

各GPU系インスタンスの特徴について解説


AWS Deep Learning AMIにおいて、推奨されている各GPUインスタンスについて特徴などを解説します。

各インスタンスの違いは主にGPUの種類や搭載できるGPUの個数、またメモリなどがあります。また、特定の使用用途向けに最適化されているなどの特徴があります。

Amazon EC2 P2インスタンス

Amazon EC2 P2インスタンスは、CUDA及びOpenCLのプログラミングモデルを使用した汎用GPUコンピューティング向けに提供されており、GPUは「NVIDIA Tesla K80 GPU」を搭載しています。

P2インスタンスの特徴として、広帯域のネットワーク、強力な単精度・倍精度浮動小数点機能が挙げられます。

また、GPU毎に12GiBのメモリを提供しており、ディープランニングをはじめ、金融工学やゲノム解析といったGPUの高性能な計算機能が必要な分野に幅広く対応することができます。

NVIDIA Tesla K80 GPUは現在、世界中のデータセンターで多く利用されているGPUです。

主なスペックはデュアルGPU設計992CUDA(クーダ)コア、NVIDIA GPUBoost時で最大2.91テラフロップスの倍精度パフォーマンス/最大8.73テラフロップスの単精度パフォーマンス、24GBのGDDR5メモリ、480GB/sの合計メモリ帯域幅などが挙げられます。

Amazon EC2 P3インスタンス

Amazon EC2 P3インスタンスはCUDA、およびOpenCLプログラミングモデルやMachine Learningフレームワークを使用する汎用GPUコンピューティング向けに提供されており、NVIDIA Tesla V100 GPUが搭載されています。

P3インスタンスの特徴としては広帯域幅のネットワーキング、強力な半精度・単精度、倍精度浮動小数機能が挙げられます。

また、GPU毎に最大で32GiBメモリを提供しており、ディープラーニングをはじめとする高精度な計算が必要な分野で活躍できます。

ただし、Tesla V100 GPUはグラフィックモードをサポートしていないため注意が必要です。

Amazon EC2 P4インスタンス

Amazon EC2 P4インスタンスは、2020年にローンチされたばかりの最新のGPUインスタンスであり、NVIDIA A100 Tensor Core GPUを8つ搭載しています。

2.5ペタフロップスの浮動小数点パフォーマンスと320GiBのGPUメモリを搭載しており、ディープラーニングにおいてはP3インスタンスと比べて2.5倍ものパフォーマンスを実現します。

Amazon EC2 G3インスタンス

Amazon EC2 G3インスタンスはDirectX、OpenGLを使用したグラフィックアプリケーション向けに最適化されたプラットフォームを提供しており、NVIDIA Tesla M60 GPUを搭載しています。

G3インスタンスの特徴は4096×2160の解像度を持つ4つのモニターやNVIDIA GRID仮想アプリケーションのサポート、NVIDIA GRID仮想ワークステーションの機能をサポートしている点が挙げられます。

Amazon EC2 G4インスタンス

Amazon EC2 G4インスタンスは、CUDAを使用した汎用GPUコンピューティングおよび、DirectXやOpenGLを使用したグラフィックアプリケーションを備えるディープラーニング用のフレームワークを提供しており、NVIDIA Tesla GPUを搭載しています。

G4インスタンスの特徴として広帯域幅のネットワーキング、強力な半精度浮動小数点・単精度浮動小数点機能、INT8精度・INT4精度を提供している点となります。

G4インスタンスは各GPUで16GiBのメモリを備えており、ディープラーニングでの推論や動画のトランスコード、リモートグラフィックワークステーションやクラウド内のゲームストリーミングなどのグラフィックアプリケーションに最適です。

GPUインスタンスの利用料金を紹介


AWS Deep Learning AMIをGPUインスタンスで始める場合のAWSオンデマンド料金について紹介します。

AWSオンデマンド料金は基本的に性能が高くなる分、料金も割高になってしまいます。しかし、ディープラーニングの特性上、性能の低いインスタンスを複数台使用した分散トレーニングのほうが利用時間が少なくなり結果的に料金を抑えることも可能となります。

今回紹介するAWSオンデマンド料金は、2021年2月現在のものとなります。

インスタンス CPU メモリ GPU種類/個数/ビデオメモリ 料金/1時間当たり
p2.xlarge 12ECU(4コア) 61GiB NVIDIA K80 GPU/1/- 0.90USD
p2.8xlarge 94ECU(32コア) 488GiB NVIDIA K80 GPU/8/- 7.20USD
p2.16xlarge 188ECU(64コア) 732GiB NVIDIA K80 GPU/8/- 14.40USD
p3.2xlarge 8コア 61GiB NVIDIA V100 GPU/1/- 3.06USD
p3.8xlarge 32コア 244GiB NVIDIA V100 GPU/4/- 12.24USD
p3.16xlarge 64コア 488GiB NVIDIA V100 GPU/8/- 24.48USD
p3dn.24xlarge 96コア 768GiB NVIDIA V100 GPU/8/32GB 31.212USD
p4d.24xlarge 96コア 1152GiB NVIDIA A100 GPU/8/40GB 32.773USD
g3.4xlarge 16コア 122GiB NVIDIA M60 GPU/1/- 1.14USD
g3.8xlarge 32コア 244GiB NVIDIA M60 GPU/2/- 2.28USD
g3.16xlarge 64コア 488GiB NVIDIA M60 GPU/4/- 4.56USD
g3s.xlarge 4コア 30.5GiB 0.75USD
g4dn.xlarge 4コア 16GiB NVIDIA T4 GPU/1/16GB 0.526USD
g4dn.2xlarge 8コア 32GiB NVIDIA T4 GPU/1/16GB 0.752USD
g4dn.4xlarge 16コア 64GiB NVIDIA T4 GPU/1/16GB 1.204USD
g4dn.8xlarge 32コア 128GiB NVIDIA T4 GPU/1/16GB 2.176USD
g4dn.12xlarge 48コア 192GiB NVIDIA T4 GPU/4/16GB 3.912USD
g4dn.16xlarge 64コア 256GiB NVIDIA T4 GPU/1/16GB 4.352USD
g4dn.metal 96コア 384GiB NVIDIA T4 GPU/8/16GB 7.824USD

AWSのGPUインスタンスを使ってディープラーニングを初めてみよう


AWSのGPUインスタンスを使うことで、初期コストを抑えてディープラーニングなどを用いたアプリケーションを構築することができます。

モデルによっては分散トレーニングにより短い時間で完了できる場合もあるため、それぞれにあったインスタンスを選択することが重要です。

トレーニングに使用するモデルに必要な処理能力を見極めつつ、ひとつのインスタンスにするか複数台とするかなど慎重に選択していきましょう。

この記事の監修者・著者

株式会社オープンアップITエンジニア
株式会社オープンアップITエンジニアAWSパートナー/Salesforce認定コンサルティングパートナー 認定企業
ITエンジニア派遣サービス事業を行っています。AWSやSalesforceなど専門領域に特化したITエンジニアが4,715名在籍し、常時100名以上のITエンジニアの即日派遣が可能です。

・2021年:AWS Japan Certification Award 2020 ライジングスター of the Year 受賞
・2022年3月:人材サービス型 AWSパートナー認定
・AWS認定資格保有者数1,154名(2024年6月現在)
・Salesforce認定コンサルティングパートナー
・Salesforce認定資格者276名在籍(2024年5月現在)
・LPIC+CCNA 認定資格者:472 名(2024年6月時点)
ITエンジニアの派遣を利用したい企業様へ
ITエンジニアを派遣で採用したい企業様へ
  • 求人・転職サイトや自社採用サイトを使っているが、自社に合ったITエンジニアが応募してこない…
  • すぐに採用したいが、応募がぜんぜん集まらない
こんな悩みをお持ちの採用・人事担当者の方は、
オープンアップITエンジニアをご検討ください!

当社のITエンジニア派遣サービスは

  • 派遣スピードが速い!(最短即日)
  • 4,500名のエンジニアから貴社にマッチした人材を派遣
  • 正社員雇用も可能

こんな特長があり、貴社の事業やプロジェクトに合った最適なITエンジニアを派遣可能です。
まずは下記ボタンから無料でご相談ください。

無料相談のお申し込みはこちら
IT・技術関連の記事一覧へ

カテゴリから記事を探す

すべての記事一覧へ