Het datacenter in 2017

Patrick-van-de-Werken

Mijn voorspelling voor 2017? De traditioneel voorzichtige datacentermarkt gaat grote veranderingen doormaken. Natuurlijk blijft er ook een hoop vertrouwd: nog heel wat bedrijven zullen druk zijn met de virtualisatie van workloads, legacy integration en de schijnbaar eindeloze zoektocht naar betere prestaties en capaciteit. Maar dat doet niet af aan het feit dat de groeiende acceptatie van de publieke cloud een sleutelrol gaat spelen in de digitale transformatie. Ook big data, het Internet of Things, process automation en andere veelbelovende technologieën worden toegankelijker. Waar CIO’s nieuwe technieken en producten omarmen, komen IT-afdelingen voor geheel nieuwe uitdagingen te staan. En veel mogelijkheden.

Een van de grootste veranderingen die ons te wachten staat, is het groeiende belang van data opslagmogelijkheden. Waar in het verleden vaak rekenkracht nog zeer relevant werd geacht neemt de waardering hiervoor komend jaar sterk af. Dat komt doordat we steeds vaker met Big Data applicaties te maken hebben. Ook de toename van data analytics tools voor datacenters speelt een belangrijke rol. Op het gebied van hardware betekent dit dat de groeiende overmacht van flash ten aanzien van klassieke magnetische opslag nog verder toe zal nemen. Nu al kiezen steeds meer bedrijven voor all-flash architectures, omdat deze constructie de prestaties doet toenemen en silo’s overbodig maakt. In 2017 komen daar nog nieuwe technologieën als NVMe en 3D XPoint bij, die data op DRAM-achtige snelheden kunnen afleveren tegen de kosten van flash-achtige oplossingen.

Data doet er toe

Natuurlijk kan het best even duren voordat bedrijven in aanraking komen met ontwikkelingen als hierboven genoemd. Dat doet echter niet af aan het feit dat ze op termijn aanzienlijke verbeteringen op het gebied van storage en agility met zich meebrengen, terwijl de operationele kosten zullen afnemen. Mooie kans voor bedrijven om naar creatieve nieuwe use cases op het gebied van storage te zoeken, zodat er nog meer successen geboekt kunnen worden. Daarnaast zullen deze ontwikkelingen een bijdrage leveren aan de ontwikkelingen van next-gen storage oplossingen. Hiermee wordt beantwoord aan de behoefte om storage resources beter te kunnen verdelen, zodat relevante data zo dicht mogelijk bij de plek wordt gebracht waar het nodig is. Zonder dat dit ten koste gaat van prestaties, controle of veiligheid.

Het ooit overheersende Storage Area Network (SAN) zal een van de slachtoffers van deze veranderingen worden. Dat hangt samen met de groeiende beschikbaarheid van schaalbare alternatieven, die niets te maken hebben met de management overhead van de SAN aanpak. De betere beschikbaarheid speelt ook een rol, evenals het toenemende inzicht ten aanzien van de voordelen van data analyse binnen het datacenter. Op korte termijn kunnen er nieuwe tools worden verwacht die voor een betere balans zorgen tussen rekenkracht en het opslaan van workloads, en de automatisering van het management van dat proces over meerdere platformen(private, hybride of public cloud).

Einde van het klassieke datacenter?

De publieke cloud zal eens steeds belangrijker onderdeel worden van de platformmix die door IT moet worden omarmd. Voor sommigen is dit een indicatie dat het einde van de huidige corporate datacenters nabij is. De complexiteit van het bouwen en onderhouden van een on-premise infrastructuur neemt immers sneller toe dan de vaardigheid van de verantwoordelijke IT-afdelingen. Het lijkt echter onwaarschijnlijk dat bedrijven zonder slag of stoot afscheid zullen nemen van het datacenter. Gedurende 2017 zal de hybride aanpak niet alleen stand houden, maar vermoedelijk zelfs de standaard worden voor de toekomstgerichte enterprise IT.

Steeds meer vendors worden zich bewust van deze trend. Zelfs Amazon, dat ooit nog beweerde dat niemand een on-premise datacenter nodig had, heeft zijn standpunt aangepast en de migratie en het balanceren van workloads tussen publieke en private domeinen eenvoudiger gemaakt. Anderen zorgen onder aanvoering van Nutanix voor de integratie van publieke cloudtechnologieën in hun producten. Achterliggend doel hiervan is om bedrijven te helpen om optimaal gebruik te maken van de directe en gemakkelijke schaalbaarheid en pay-as-you-use werking van de publieke cloud, zonder dat eigendom, controle en veiligheid in het geding komen.

Op naar utility computing

De inherente complexiteit van de hybride aanpak wordt ook onder handen genomen. Dat gebeurt zowel op infrastructureel als op applicatieniveau. Op het gebied van infrastructuur worden de virtualisatietechnieken die eerder zo succesvol werden toegepast voor het verdelen van resources, nu ingezet om hetzelfde voor elkaar te krijgen op storage- en netwerkgebied. Producten en technologieën worden snel volwassen: 2017 lijkt het jaar te worden waarin het software-defined datacenter (SDDC) eindelijk realiteit wordt.

Ook voor wat betreft het managen van applicatie workloads zijn er grote stappen gezet. Bovendien heeft de inzet van data analytics de ontwikkeling van geavanceerde zakelijke automation tools bevorderd. Deze tools helpen organisaties om helder te krijgen hoe ze willen dat hun digitale systemen worden gemonitord, gemanaged en gemeten. Het zou de vooravond kunnen zijn van het langverwachte ‘utility’ tijdperk van de enterprise IT.

Patrick van de Werken is Senior Regional Director Northern Europe bij Nutanix