Witold Kepinski - 10 september 2018

Cisco UCS server voor AI, machine learning en deep learning

Cisco UCS server voor AI, machine learning en deep learning image

Cisco introduceert een nieuwe UCS server voor AI, machine learning en deep learning. Deze Cisco C480ML M5 UCS is samen met NVIDIA GPU technologie ontwikkeld voor AI en machine learning workloads en andere toepassingen zoals big data.

Kunstmatige intelligentie (AI) en machine learning (ML) bieden grote bedrijven nieuwe manieren om complexe problemen op te lossen. Tegelijk hebben deze technologieën een diepgaand effect op de onderliggende IT-processen en –infrastructuur. Volgens marktonderzoeker Gartner zegt slechts 4% van de CIO’s dat zij AI-projecten in productie hebben. Dat percentage zal de komende jaren drastisch toenemen met als gevolg dat IT nieuwe workloads, nieuwe verkeerspatronen en nieuwe relaties binnen de business moet managen. Om grote bedrijven met deze uitdagingen te helpen introduceert Cisco nu de eerste server die van meet af aan is gebouwd voor AI en ML workloads.

Deep Learning

De nieuwe Cisco UCS Server zorgt voor snellere deep learning, een rekenintensieve vorm van machine learning die gebruik maakt van neurale netwerken en grote dataverzamelingen om computers te trainen voor complexe taken. Met behulp van krachtige NVIDIA Tesla V100 Tensor Core GPU’s is deze server ontworpen om veel van de huidige, meest bekende software stacks te versnellen. Met deze GPU’s kunnen AI-modellen waaraan eerder wekenlang gerekend moest worden, in enkele uren getraind worden. Datawetenschappers en ontwikkelaars kunnen op een laptop experimenteren met machine learning. Maar grootschalige deep learning vereist veel meer rekenkracht en heeft een IT-infrastructuur nodig die grote hoeveelheden data aankan. Ook zijn er tools nodig om die data te prepareren voor ML. Daarom werkt Cisco met zijn technologiepartners om veel van de populairste machine learning tools te valideren, de implementatie ervan te vereenvoudigen en de ‘time to insight’ te verkorten.

AI

Met de toevoeging van de Cisco UCS C480 ML zegt Cisco nu een complete reeks computing-opties voor elke AI- en ML-fase te kunnen bieden: van het verzamelen van data tot de analyse aan de rand van het netwerk en van het prepareren van data tot real-time inferentie in het hart van AI.

Gebouwd voor datawetenschappers en ontwikkelaars: duizenden organisaties maken gebruik van Cisco UCS om informatie uit big data te halen. De nieuwe server voor AI en ML bouwt verder op Cisco’s ervaring met het verplaatsen van data van de rand van het netwerk naar het centrum. Klanten kunnen zo meer informatie uit hun data halen. Met het nieuwe DevNet AI Developer Center en de DevNet Ecosystem Exchange stelt Cisco tools en middelen beschikbaar aan datawetenschappers en ontwikkelaars om een nieuwe generatie apps te ontwikkelen.

Gebouwd voor IT: UCS maakt het makkelijk om nieuwe technologie aan de IT-omgeving toe te voegen. Met Cisco Intersight krijgen zij ook de eenvoud en het bereik van cloudgebaseerd systeembeheer. Hierdoor kunnen zij het beleid en de operaties vanuit de cloud automatiseren voor hun gehele computing-infrastructuur.

Gebouwd met een ecosysteem: Cisco werkt niet alleen. Er wordt gebruik gemaakt van containers en multicloud computing-modellen om het makkelijker te maken om op grote schaal open source software te gebruiken, ongeacht waar de apps draaien. Ook wordt samengewerkt aan de validatie op de nieuwe server van machine learning omgevingen en software zoals Anaconda, Kubeflow en oplossingen van Clouderea en Hortonworks.

Technische details

De C480 ML M5-rackserver ondersteunt acht NVIDIA Tesla V100 Tensor Core GPU's met NVIDIA NVLink-interconnect. De V100 is volgens Cisco de eerste GPU ter wereld die de 100 teraflops-barrière van deep learning prestaties doorbreekt met maar liefst 640 Tensor-kernen. NVLink biedt 10x de bandbreedte van PCIe en verbindt alle GPU's in een punt-naar-punt netwerk (hybride kubus mesh) dat optimale prestaties biedt voor deze snelle GPU's.

De Cisco UCS C480 ML koelt goed. Vier fans van 92 mm trekken koele lucht langs de harde schijfbehuizingen en CPU / lege laden en koelen de eerste vier GPU's rechtstreeks af. Hoe dan de tweede rij GPU's af te koelen die direct achter de 1e rij worden geplaatst. De vier achterste GPU-koellichamen zijn langer dan de eerste vier. Hierdoor kan de koele lucht uit het gebied van de lege lade ongehinderd en onverwarmd direct op de achterste meeste koellichamen stromen en voldoende koeling bieden, aldus Cisco.

Een ander belangrijk kenmerk van de C480 ML M5 is de hoeveelheid opslag die wordt ondersteund. Die 24 SFF-schijfstations ondersteunen meer dan 182 TB aan SSD-opslag. Dit betekent dat de beheerder de ruimte heeft voor veel verschillende gegevenssets zonder te hoeven vertrouwen op externe opslag, wat de totale kosten van de oplossing vermindert. Als de beheerder nog snellere opslag nodig heeftt dan een SSD kan bieden, ondersteunen zes van de bays NVMe storage.

Lees meer op de Cisco website.

Door: Witold Kepinski

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!