De technologie om dubbele data te filteren uit het opslagsysteem komt te zitten in de storage virtualisatie oplossingen uit de NetApp V-Series productlijn, met onder meer de controllers van de NetApp opslaghardware, maar zonder de componenten voor beheer. De deduplicatie is een standaardonderdeel van het Data ONTAP besturingssysteem van NetApp.

De V-Serie werkte al met opslagsystemen van concurrenten als HP, EMC en Hitachi Data Systems, maar de functie om deduplicatie toe te passen op de primaire opslag was voorbehouden voor materiaal van NetApp zelf. Dat laatste is een van de unieke punten die NetApp graag naar buiten brengt: waar de concurrentie dedup vaak op de langdurige, secundaire opslag uitvoert (bijvoorbeeld virtuele tape), gaat NetApp er prat op dat zijn oplossing geschikt is voor de primaire systemen.

De moeilijkheid bij het gebruik van deduplicatie op het primaire opslagsysteem zit hem in het garanderen van prestaties en beschikbaarheid, iets wat NetApp een tijd terug opgelost heeft, zegt NetApp-consulent Tim Waldron tegenover Techworld. "Net als bij andere opslagtechnologieën zie je dat het begint bij de secundaire opslag, zoals backup," zegt Waldron. "Bij de primaire opslag zijn prestaties en beschikbaarheid dermate van belang dat je een dergelijke potentieel belastende technologie er niet direct op kunt of wilt toepassen". Als voorbeeld noemt Waldron SATA. "Dat begon ook op backupniveau, maar met de verbetering van de RAID-technologie sloeg het ook over naar de primaire opslag."

Vooral voor klanten met gevirtualiseerde servers is het product volgens Waldron interessant. "In bijvoorbeeld een omgeving met honderd virtuele servers en honderd Windows installaties krijg je dat ook bijvoorbeeld een service pack honderd keer geïnstalleerd moet worden", schetst hij. "De dedup vervangt de data in 99 gevallen met verwijzingen. De overgebleven ruimte kan bijvoorbeeld worden aangewend voor het spiegelen van het rekencentrum." Bron: Techworld