Tensorflow™ VGG16-benchmark
LeaderGPU®: een revolutionaire dienst waarmee u GPU-computing vanuit een nieuwe invalshoek kunt benaderen. De snelheid van de berekeningen voor het ResNet-50-model in LeaderGPU® is 1,8 keer sneller dan Google Cloud en 1,7 keer sneller dan AWS (gegevens worden verstrekt voor een voorbeeld met 8x GTX 1080). De kosten voor het per minuut huren van de GPU in LeaderGPU® beginnen al vanaf € 0,02, wat meer dan 4 keer lager is dan de kosten voor het huren bij Google Cloud en meer dan 5 keer lager dan de kosten bij AWS (per 7 juli, 2017).
In dit artikel zullen wij het VGG16-model testen bij verschillende diensten die GPU's verhuren, waaronder LeaderGPU®, AWS en Google Cloud. Uit de testresultaten blijkt waarom LeaderGPU® het meest winstgevende aanbod is onder de onderzochte opties.
Alle testen werden uitgevoerd met python 3.5 en Tensorflow-gpu 1.2 op machines met GTX 1080, GTX 1080 Ti en Tesla® P 100 met geïnstalleerd besturingssysteem CentOS 7 en geïnstalleerde CUDA® 8.0-bibliotheek.
De volgende commando's werden gebruikt om de test uit te voeren:
# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2(Aantal kaarten in de server) --model vgg16 --batch_size 32 (64)
GTX 1080-instanties
In de eerste test gebruiken wij instanties met GTX 1080. De testomgevinggegevens (met batchgroottes 32 en 64) vindt u hieronder:
Testomgeving
- Typen instanties:ltbv17, ltbv13, ltbv16
- GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
- OS:CentOS 7
- CUDA / cuDNN:8.0 / 5.1
- TensorFlow GitHub hash:b1e174e
- Benchmark GitHub hash:9165a70
- Opdracht:
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model vgg16 --batch_size 32 (optional 64)
- Model:VGG16
- Testdatum:juni 2017
De testresultaten zijn weergegeven in het volgende diagram:
GTX 1080Ti-instanties
Nu testen wij instanties met GTX 1080 Ti. De testomgevinggegevens (met batchgroottes 32 en 64) vindt u hieronder:
Testomgeving
- Typen instanties:ltbv21, ltbv18
- GPU:2x GTX 1080TI, 4x GTX 1080TI
- OS:CentOS 7
- CUDA / cuDNN:8.0 / 5.1
- TensorFlow GitHub hash:b1e174e
- Benchmark GitHub hash:9165a70
- Opdracht:
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model vgg16 --batch_size 32 (optional 64)
- Model:VGG16
- Testdatum:juni 2017
De testresultaten zijn weergegeven in het volgende diagram:
Tesla® P100-instantie
Ten slotte is het tijd om de instanties te testen met Tesla® P100. In dit geval ziet de testomgeving (met batchgrootte 32 en 64) er als volgt uit:
Testomgeving
- Type instantie:ltbv20
- GPU:2x NVIDIA® Tesla® P100
- OS:CentOS 7
- CUDA / cuDNN:8.0 / 5.1
- TensorFlow GitHub hash:b1e174e
- Benchmark GitHub hash:9165a70
- Opdracht:
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model vgg16 --batch_size 32 (optional 64)
- Model:VGG16
- Testdatum:juni 2017
De testresultaten zijn weergegeven in het volgende diagram:
Onderstaande tabel toont de resultaten van de VGG16-testen op Google Cloud en AWS:
GPU | Google cloud | AWS |
---|---|---|
1x Tesla K80 | 35.4 | 36.3 |
2x Tesla K80 | 64.8 | 69.4 |
4x Tesla K80 | 120 | 141 |
8x Tesla K80 | 234 | 260 |
* De gegevens zijn afkomstig uit de volgende bronnen:
https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80
Wij berekenen de kosten en verwerkingstijd van 1.000.000 beelden op elke machine van LeaderGPU®, AWS en Google (berekening gebaseerd op de hoogste uitkomst van elke machine):
GPU | Aantal beelden | Tijd | Kosten (per minuut) | Totale kosten |
---|---|---|---|---|
2x GTX 1080 | 1000000 | 96m 13sec | €0.03 | €2.89 |
4x GTX 1080 | 1000000 | 60m 17sec | €0.02 | €1.21 |
8x GTX 1080 | 1000000 | 38m 53sec | €0.10 | €3.89 |
4x GTX 1080TI | 1000000 | 41m 29sec | €0.02 | €0.83 |
2х Tesla P100 | 1000000 | 114m 45sec | €0.02 | €2.30 |
8x Tesla K80 Google cloud | 1000000 | 71m 12sec | €0.0825** | €4.84 |
8x Tesla K80 AWS | 1000000 | 64m 6sec | €0.107 | €6.85 |
** De Google Cloud-dienst biedt geen betaalplannen per minuut. De berekening van de kosten per minuut is gebaseerd op de uurprijs ($ 5.645).
Zoals te zien is in de tabel, is de beeldverwerkingssnelheid in het VGG16-model maximaal op 8x GTX 1080 van LeaderGPU®, waarbij:
de initiële leasekosten bij LeaderGPU® beginnen al vanaf € 0,02 per minuut. Dat is ongeveer 4,13 keer lager dan bij instanties van 8x Tesla® K80 van Google Cloud en ongeveer 5,35 keer lager dan bij instanties van 8x Tesla® K80 van AWS;
de verwerkingstijd 38 minuten 53 seconden bedroeg. Dat is 1,8 keer sneller dan bij de instanties van 8x Tesla® K80 van Google Cloud en 1,7 keer sneller dan bij de instanties van 8x Tesla® K80 van AWS.
Dit alles wijst erop dat LeaderGPU® veel winstgevender is dan zijn concurrenten, waardoor maximale snelheid voor optimaal geld kan worden bereikt. Huur vandaag nog de beste GPU met flexibel prijsbeleid bij LeaderGPU®.