NVIDIA versnelt machine learning met nieuw end-to-end hyperscale datacenterplatform

Machine learning wordt in toenemende mate gebruikt in allerlei toepassingen. Machine learning workloads worden hierdoor steeds groter. NVIDIA kondigt een end-to-end hyperscale datacenterplatform aan dat bedrijven die webdiensten leveren in staat stelt grote machine learning workloads sneller af te leveren.

Machine learning is gebaseerd op deep neural networks, kunstmatige netwerken die gebaseerd zijn op biologische neurale netwerken. De netwerken zijn zelflerend en hebben een grote hoeveelheid voorbeelden nodig om hun werk nauwkeurig te kunnen doen. Dit zorgt ervoor dat een enorme hoeveelheid rekenkracht nodig in om de netwerken snel en effectief te laten werken. NVIDIA speelt hierop in met haar nieuwe end-to-end hyperscale datacenterplatform.

NVIDIA Tesla M40 GPU en de NVIDIA Tesla M4 GPU

Het platform bestaat uit twee GPU’s: de NVIDIA Tesla M40 GPU en de NVIDIA Tesla M4 GPU. De NVIDIA Tesla M40 GPU is gericht op het trainen van deep neural networks. NVIDIA stelt dat de GPU de tijd die het kost om netwerken te trainen met een factor acht kan terugdringen. De NVIDIA Tesla M4 GPU is ontwikkeld om deze netwerken vervolgens in datacenters te implementeren. Deze GPU biedt een hogere doorvoersnelheid dan CPU’s, waardoor tot 5 keer meer videostreams gelijktijdig kunnen worden geconverteerd, verbeterd en geanalyseerd. De GPU’s helpen ontwikkelaars gebruik te maken van het NVIDIA Tesla Accelerated Computing Platform, waarmee zij onder andere big data analyses kunnen versnellen.

Daarnaast lanceert NVIDIA de NVIDIA Hyperscale Suite, een suite met tools gericht op ontwikkelaars en datacenterbeheerders. De suite bestaat uit:

  • cuDNN - algoritmesoftware voor het verwerken van ‘convolutional neural networks’ die worden gebruikt voor toepassingen met kunstmatige intelligentie
  • GPU-gebaseerde GGmpeg multimedia software - software die gebruik maakt van de FFmpeg software om het converteren en verwerken van video te versnellen.
  • NVIDIA GPU REST Engine - een engine die het mogelijk maakt webdiensten te ontwikkelen die een hoge doorvoersnelheid en lage latentie bieden voor het dynamisch resizen van afbeeldingen, versnellen van het doorzoeken van afbeeldingen, classificeren van afbeeldingen en andere taken.
  • NVIDIA Image Compute Engine - een GPU-gebaseerde dienst met de REST API die afbeeldingen tot vijf keer sneller kan resizen dan een CPU.

Mesosphere

NVIDIA kondigt ook aan dat Mesosphere ondersteuning voor het Tesla Accelerated Computing Platform gaat toevoegen aan Apache Mesos en het Mesosphere datacenterbesturingssysteem (DCOS). Dit moet het voor bedrijven die webdiensten leveren eenvoudiger maken datacenters te ontwerpen en bouwen voor hun next-generation applicaties.

Naar verwachting zijn de Tesla M40 GPU accelerator en de Hyperscale Suite software later dit jaar beschikbaar. De Tesla M4 GPU is in het eerste kwartaal van 2016 beschikbaar.

Dossiers
Lees ook

Nieuw analyticsplatform van Cisco geeft real-time inzicht in datacenters

Cisco introduceert het Tetration Analytics platform. Dit platform verzamelt op grote schaal data over allerlei aspecten van het datacenter en laat hier machine learning op los. Hierdoor levert het platform in real-time actiegedreven inzichten, die beheerders kunnen gebruiken om hun datacenter te optimaliseren. Om inzichten eenvoudig begrijpbaar te maken wordt deze weergegeven in visuals. Het systeem verzamelt per seconden 1 miljoen events, en slaat data voor een periode van een jaar op. Dit maakt het mogelijk historische gegevens te gebruiken om patronen, ontwikkelingen en trends inzichtelijk1

Qualcomm richt zich op CPU’s voor servers met ARM gebaseerde SoC

Qualcomm Technologies, een dochteronderneming van Qualcomm, gaat zich op CPU’s voor servers richten met een processor gebaseerd op de ARMv8-A architectuur. Met de CPU richt Qualcomm zich voornamelijk op hyperscale omgevingen van bedrijven als Facebook en Google, service providers en grote bedrijven. Het bedrijf presenteert een prototype van de nieuwe System on a Chip (SoC) die over 24 kernen. Qualcomm verwacht dat de definitieve CPU meer kernen heeft. De System on a Chip (SoC) is twee jaar in ontwikkelen en wordt ontworpen met het oog op veel voorkomende workloads in datacenters. A1