Groot voordeel van Hyper Converged systemen is dat je een compleet systeem koopt, met onder meer servercapaciteit, opslagruimte en software. Omdat alles sterk en naadloos met elkaar is geïntegreerd, is installeren en implementeren een fluitje van een cent. Na ongeveer een kwartiertje heb je al een draaiende VMWare-omgeving en kun je VM's uitrollen. Zeker voor MKB'ers is dit een makkelijke en goede manier om IT in te richten

Op deze manier is heel je storage-omgeving software defined. Je hebt een gedeelde pool van storagecapaciteit binnen je IT infrastructuur en daarmee heb je dus geen externe storage array nodig. Toch is het in bepaalde situaties raadzaam om alsnog gebruik te gaan maken van dedicated storage. In plaats van opslagruimte die logisch gezien één geheel vormt maar in werkelijkheid verspreid is over meerdere systemen, gebruik je dan een centraal opslagapparaat dat gespecialiseerd is in gegevensopslag. Dat geeft je vooral meer mogelijkheden wat betreft groei, performance en beschikbaarheid.

Scheefgroei voorkomen

Hyper Converged systemen zijn super efficiënt en erg makkelijk te installeren en te implementeren. Waar je wel rekening mee moet houden, is dat als je zo'n systeem wilt uitbreiden, zowel de computecapaciteit als de storagecapaciteit zullen toenemen. Want deze systemen zijn zeer sterk geïntegreerd. Hierdoor kan er bij een sterke datagroei een onbalans ontstaan. Gartner geeft aan dat de hoeveelheid data jaarlijks met gemiddeld vijftig procent groeit, terwijl de gevraagde servercapaciteit met slechts tien procent toeneemt. "Een Hyper Converged oplossing heeft als groot voordeel dat je het enorm snel en makkelijk kunt uitrollen. Maar als er een sterke datagroei is, moet je tegelijkertijd ook servercapaciteit bijkopen", benadrukt Remko Westrik, Solution Architect bij HPE. "Op die manier kan er scheefgroei ontstaan. Je moet meer servercapaciteit neerzetten dan daadwerkelijk nodig is. Alleen maar omdat je meer storagecapaciteit nodig hebt."

Door in dat geval gebruik te maken van dedicated storage, heb je ineens veel meer vrijheid. "Omdat je computekracht en opslag dan volledig onafhankelijk van elkaar kunt schalen", licht Westrik toe. "Je bepaalt zelf welke servers je koopt afhankelijk van de benodigde verwerkingskracht die je nodig hebt. Wat betreft opslagcapaciteit kun je eenvoudig schijven bijplaatsen in de storage array, zonder dat dit invloed heeft op de servers die je gebruikt."

Gespecialiseerd in opslag

Ook performance kan een overweging zijn om voor dedicated storage te kiezen. Een storage array is namelijk specifiek bedoeld voor opslag en kan dit zeer efficiënt afhandelen. Software Defined Storage kan dit uiteraard ook, maar dan moet de serverinfrastructuur dit erbij doen. Westrik: "Dat kost een bepaalde hoeveelheid rekenkracht die anders door applicaties gebruikt kan worden. Door het afhandelen van opslag uit te besteden aan een storage array, komen serverresources vrij, wat de performance van applicaties ten goede komt." Opslag laten afhandelen door een apparaat dat er speciaal voor bedoeld is, geeft altijd een prestatiewinst vergeleken met Software Defined Storage in generieke serveromgevingen.

Hoge beschikbaarheid

Dankzij Software Defined Storage en Hyper Converged systemen kan de beschikbaarheid van omgevingen verhoogd worden, omdat data gerepliceerd kan worden. Zolang gegevens zich op één server bevinden, loop je als bedrijf grote risico's. Want valt een server uit, dat is alle data die zich erop bevindt in één klap ontoegankelijk en kunnen bepaalde applicaties niet meer draaien. "Met Software Defined Storage kun je belangrijke data repliceren, zodat het via andere servers benaderbaar blijft", licht Westrik toe. "Applicaties krijgen zo een hogere beschikbaarheid, omdat ze automatisch of handmatig op een andere server zijn te herstarten." Nadeel van replicatie is wel dat gegevens dubbel worden opgeslagen. Er is dus twee keer zoveel opslagruimte nodig. Dit probleem heb je weer niet als je kiest voor dedicated storage.

"Een storage array is van zichzelf redundant uitgevoerd", legt Westrik uit. "Dankzij dubbele controllers wordt standaard een hoge beschikbaarheid geboden. Anders dan bij Software Defined Storage is geen dubbele hoeveelheid opslagcapaciteit nodig. Dankzij RAID heb je slechts vijfentwintig procent overhead en ben je toch beschermd tegen diskuitval." Mocht een controller defect raken, dan neemt een andere controller het automatisch over. Valt een disk uit, dan zorgt de array ervoor dat de data gewoon beschikbaar blijft. "In beide gevallen merken applicaties hier niets van. Dit in tegenstelling tot Software Defined Storage, waarbij applicaties op een andere server herstart moeten worden met een kopie van de data."