Witold Kepinski - 13 juli 2020

Google Cloud zet Nvidia innovaties in voor versnellen AI toepassingen

Google Cloud zet Nvidia innovaties in voor versnellen AI toepassingen image

Google Cloud introduceert een cloud instantie met de nieuwe A100 GPU van Nvidia voor het versnellen van kunstmatige intelligentie ofwel artificial intelligence (AI).

Machine learning en HPC-applicaties kunnen volgens Goolge nooit teveel rekenprestaties krijgen tegen een goede prijs. Daarom is Google verheugd om de Accelerator-Optimized VM (A2) -familie op Google Compute Engine te introduceren, gebaseerd op de NVIDIA Ampere A100 Tensor Core GPUMet tot 16 GPU's in een enkele VM, zijn A2 VM's het eerste op A100 gebaseerde aanbod in de public cloud en zijn ze nu beschikbaar via ons private alpha-programma, met openbare beschikbaarheid later dit jaar. 

Voor acceleratoren geoptimaliseerde VM's met NVIDIA Ampere A100 GPU's 
De A2 VM-familie is ontworpen om te voldoen aan de meest veeleisende toepassingen van vandaag: werklasten zoals CUDA-geactiveerde machine learning (ML) training en gevolgtrekking, en high performance computing (HPC). Elke A100 GPU biedt tot 20x de rekenprestaties in vergelijking met de vorige generatie GPU en wordt geleverd met 40 GB krachtig HBM2 GPU-geheugen. 

Om multi-GPU-workloads te versnellen, gebruikt de A2 NVIDIA's HGX A100 systemen om snelle NVLink GPU-naar-GPU-bandbreedte aan te bieden die tot 600 GB / s levert. A2-VM's worden geleverd met maximaal 96 Intel Cascade Lake vCPU's, optionele lokale SSD voor workloads die snellere datafeeds naar de GPU's en tot 100 Gbps aan netwerken vereisen. Bovendien bieden A2 VM's volledige vNUMA-transparantie in de architectuur van onderliggende GPU-serverplatforms, waardoor geavanceerde prestatieafstemming mogelijk is. 

Lees meer details op de site van Google Cloud.

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!