Hoe maak je optimale uptime betaalbaar?

lenovo datacenter-800.jpg

Bedrijfskritische applicaties moeten steeds vaker ook aan de randen van het netwerk beschikbaar zijn, dichtbij de gebruiker waar de data worden gegenereerd, verwerkt en geanalyseerd. Dan is het geen prettig idee als de beschikbaarheid van die applicatie en de data op een edgelocatie afhankelijk is van één enkele server. Twee servers dan maar? Dan verdubbelen ook de kosten. Wat is het alternatief?

Het over een netwerk versturen van grote hoeveelheden data – bijvoorbeeld naar de cloud of een eigen datacenter – kost tijd en geld. Bij edgecomputing vindt daarom een deel van de gegevensverwerking plaats aan de ‘randen’ van het netwerk. De gebruiker op bijvoorbeeld een bijkantoor is dan niet afhankelijk van de netwerkverbinding met het centrale datacenter of met de cloud. Met als belangrijkste voordeel een lagere latency.

Bij grotere aantallen edgelocaties kunnen de kosten echter ook snel oplopen, zeker als gebruik wordt gemaakt van legacy applicaties die veel data genereren. Op alle locaties is hard- en software nodig voor het verwerken, back-uppen en opslaan van al die data. De IT op al die verspreide locaties vraagt ook om beheer en onderhoud. En als het om bedrijfskritische applicaties en data gaat, moet alles voor een optimale uptime ook nog eens redundant worden uitgevoerd.

Scenario’s voor edge-uptime

In het tijdperk van de grote monolitische systemen werd een zekere mate van downtime, dataverlies en verlies aan productiviteit misschien nog geaccepteerd. Met back-ups en een procedure voor recovery werd erger voorkomen. De tijd dat downtime werd geaccepteerd, ligt echter al ver achter ons. De impact van downtime is daarvoor te groot geworden. Ook aan de edge.

Voor het aanbrengen van redundantie op edgelocaties heeft IT meerdere opties, met elk een eigen kostenplaatje en voor- en nadelen. In de whitepaper ‘On-Premises Edge Computing Infrastructure for the Real World’ zet Scale Computing drie mogelijke opties uiteen:

  1. Redundantie inbouwen

Een mogelijkheid is om per edgelocatie te vertrouwen op één enkele server, maar dan wel met uitsluiting van de meest voorkomende single points of failure (de SPOF’s). Bijvoorbeeld door het dubbel uitvoeren van de voedingen en de netwerkverbindingen. En door het redundant uitvoeren van de storage.

Storage – met name in de vorm van harde schijven – is de belangrijkste oorzaak van systeemfouten. Het is dan ook gebruikelijk om disks redundant uit te voeren en aan te sturen met (kostbare) RAID-storagecontrollers. Dat bevordert niet alleen de beschikbaarheid en de performance van de storage, maar voorkomt ook dataverlies in het geval een schijf crasht.

Een server bevat echter ook componenten die niet zo eenvoudig redundant zijn uit te voeren, zoals de processor en het moederbord. Hoe zwaar de server ook is ‘versterkt’, deze componenten blijven een single point of failure. En als er dan met zo’n monolitische server iets misgaat, dan zijn alle applicaties die erop draaien onbereikbaar en moet een IT-expert zo snel mogelijk naar de getroffen edgelocatie. De beschikbaarheid van data is hiermee dus niet gegarandeerd.

  1. Servers dubbel uitvoeren

Wie alle SPOF’s wil uitsluiten, kan ervoor kiezen om per locatie niet één maar twee servers in te zetten die volledig met elkaar zijn gesynchroniseerd. In geval van een storing kan de server die stand-by staat de taken overnemen. De applicaties die op de getroffen server staan, blijven dan beschikbaar voor de gebruiker. Ook is het met deze opstelling mogelijk om de load te verdelen.

 Toch is ook deze aanpak niet ideaal. Op de eerste plaats omdat een verdubbeling van het aantal servers ook minimaal een verdubbeling van de kosten met zich meebrengt. De stand-by server staat het grootste deel van de tijd niets te doen maar verbruikt wel stroom. En als het met de primaire server misgaat, dan is er alsnog maar één server beschikbaar. Mirroring van nieuwe of gewijzigde data naar een tweede server is dan niet mogelijk. Zolang de primaire server in storing is, is er dus geen sprake van een back-upplan en ligt permanent dataverlies op de loer.

  1. Serverclusters

Maar wat is dan het alternatief voor investeren in twee high-end servers, waarbij de helft van de capaciteit ‘idle’ draait? Dat is het plaatsen van drie (of meer) kleinere servers in een cluster en de compute- en storageload verdelen over die servers.

De manier waarop die load wordt verdeeld, is te vergelijken met de werking van een Redundant Array of Independent Disks. Een RAID-systeem zorgt ervoor dat de gegevens binnen een systeem over meerdere harde schijven worden verdeeld, op meer dan één schijf worden opgeslagen, of beide. Dit principe kan ook worden toegepast op schijven die verspreid staan over meerdere servers. Een kopie biedt dan niet alleen bescherming als een schijf uitvalt, maar ook als een complete server in het cluster onderuit gaat.

In een opstelling met drie servers bieden twee servers dan voldoende capaciteit om alle vereiste toepassingen te draaien en toegang te verlenen tot alle gegevens. De stand-by server hoeft slechts de taken van één actieve server over te kunnen nemen. Op die manier wordt altijd twee derde van de totale capaciteit benut. Bij het gebruik van vier servers (waarvan er één stand-by staat), is dat drie kwart. En als er een node onderuit gaat, blijft de bescherming van nieuwe en gewijzigde gegevens gegarandeerd. Er is dus minder noodzaak om de storing direct te verhelpen. Onderhoud aan een van de nodes is bovendien zonder downtime mogelijk.

HC3 van Scale Computing

Hypergeconvergeerde systemen zoals HC3 Edge van Scale Computing maken het mogelijk om extra nodes toe te voegen of nodes te vervangen wanneer daar behoefte aan is, zonder downtime en herconfiguraties. En maken het dus mogelijk de storage- en computecapaciteit uit te breiden zonder de aanschaf van high-end servers.

Scale Computing HC3 Edge is uitermate geschikt voor de ThinkSystem-servers van Lenovo. De oplossing brengt compute, storage, memory en network samen in een self-monitoring en self-healing systeem dat beschikbaarheid van applicaties en de redundantie van het systeem automatisch regelt. Het beheer van een servercluster is daarmee net zo eenvoudig als het beheer van een enkele server, en eenvoudiger dan het beheer van twee servers die synchroon moeten blijven.

Meer over
Lees ook
Leaseweb kondigt nieuwe Dedicated Ampere Altra servers aan

Leaseweb kondigt nieuwe Dedicated Ampere Altra servers aan

Leaseweb Global, een toonaangevende leverancier van cloudservices en Infrastructure as a Service (IaaS), heeft vandaag de lancering aangekondigd van Leaseweb Dedicated Ampere Altra servers in Nederland, Duitsland en de Verenigde Staten.

5 manieren om te besparen op je IT-uitgaven

5 manieren om te besparen op je IT-uitgaven

Slokken IT-kosten inmiddels een steeds groter deel van je budget op? Voorkom onnodig hoge uitgaven en zie waar je slim kunt besparen. Te beginnen met deze 5 tips.

Met een CI/CD-pijplijn leid je de verschuiving naar microservices in goede banen

Met een CI/CD-pijplijn leid je de verschuiving naar microservices in goede banen

Waar vroeger vooral met monolithische applicaties werd gewerkt, bestaan applicaties vandaag de dag steeds vaker uit een verzameling microservices. Deze verschuiving brengt verschillende voordelen met zich mee, maar kent ook enkele uitdagingen. Kilian Drewel, trendwatcher bij True, zoomt in op de belangrijkste ontwikkelingen rondom de verschuiving1