Intel lanceert Neural Network Processors voor Deep Learning en AI toepassingen
Intel lanceert zijn nieuwe Neural Network Processors reeks voor Deep Learning en AI workloads toepassingen. Zo neemt de Nervana NNP-T1000 neural network processor tegen de NVIDIA chipsets op.
Intel Neural Network Processors (Intel NNP's) zijn volgens de leverancier vanaf het begin gebouwd om bestaande knelpunten in het geheugen en de datastroom te doorbreken, waardoor gedistribueerde leeralgoritmen en systemen die diepgaande redenering kunnen opschalen, met behulp van meer geavanceerde vormen van AI, verder kunnen gaan dan de conversie van gegevens in informatie - gegevens in wereldwijde kennis veranderen.
Intel meldt: "Next-gen deep learning-opleidingssystemen moeten efficiënt worden opgeschaald voor grotere, complexere modellen. De Intel Nervana Neural Network Processor-T (NNP-T) is ontworpen voor dit doel en kan zelfs de meest geavanceerde deep learning-modellen trainen op bijna lineaire schaal en ongelooflijke efficiëntie. De zorgvuldige balans tussen reken-, geheugen- en netwerkmogelijkheden zorgt voor maximaal gebruik bij weinig tijd om te trainen in praktijkscenario's, of het nu gaat om kleine clusters of grote POD's, en zelfs bij kleinere matrixgroottes."
Verder meldt het bedrijf: "Enterprise-schaal AI-implementaties verhogen snel het volume van de inferentiecyclus voor een steeds diversere set toepassingen met verschillende latentie- en stroombehoeften. De Intel Nervana Neural Network Processor-I (NNP-I) is gebouwd voor ultra-efficiënte multimodale inferencing van intense, bijna real-time, high-volume compute. Het is geschikt voor exponentieel grotere, complexere modellen die tot tientallen modellen en netwerken parallel lopen. Gericht op energie- en budgetefficiëntie, biedt het 10W-75W-vormfactoren voor schaalbaarheid en flexibiliteit in de praktijk."