De hardware lost de prestatieproblemen op

Manfred Buchmann is als Senior Director Systems Engineering EMEA een soort “technisch meesterbrein” bij Netapp. Voor ons werpt hij een blik op het datacenter van de toekomst.

ITB: Wat is momenteel de grootste uitdaging voor datacenters?

Buchmann: Het gebruikersgedrag is veranderd. Vandaag kunnen zij van geen enkele gebruiker meer verwachten dat hij wacht op onderhoudsvensters, noch dat hij wachttijden heeft door trage reactietijden. Vroeger werd dit aanvaard, maar tegenwoordig wacht niemand meer 10 seconden tot een webvenster opengaat. De verwachting is: een dienst moet altijd onmiddellijk beschikbaar zijn: van traditionele diensten als ERP tot online reiskostenrekeningen in het weekend. Datacenters bevinden zich dus midden in een transformatie. En dit in meerdere opzichten. Ten eerste, hoe beheer ik het datacenter? Ten tweede, welke diensten worden intern geleverd of komen van buitenaf omdat ze niet langer relevant zijn voor de kernactiviteiten. Met andere woorden, het hele scala van hybride benaderingen. Dit leidt tot een verandering in de managementstijl van een datacenter.

Buchmann: Op technisch niveau vereisen deze scenario’s dat de diensten te allen tijde honderd procent beschikbaar moeten zijn. Always-on werkt alleen als het op elke laag aanwezig is, d.w.z. op het niveau van de toepassing, de server, het netwerk en de opslag. De opslaginfrastructuur moet daarom zo worden gebouwd dat er geen downtime meer nodig is voor hardwarewijzigingen, software-upgrades of onderhoud. Bovendien moet het de mogelijkheid bieden om workloads dynamisch of op verzoek heen en weer te verplaatsen: van controller naar controller, van flashopslag naar SATA-schijven, dat zijn de dingen die we daar nodig hebben: Dus de beroemde load balance.

ITB: Hoe gaat u om met de voorspelde exponentiële datagroei?

Buchmann: De IDC-cijfers spreken van 35 zetabytes in 2020, op dit moment zitten we op twee zetabytes. Als we dat uitsplitsen naar een bedrijf, hebben we het over een tien- of vijftienvoudige toename gemiddeld. De daarmee gepaard gaande problemen op het gebied van personeel, capaciteit, stroomverbruik en vloeroppervlak zijn voor niemand meer te behappen. We hebben dus meer technologieën nodig, zoals deduplicatie, die het datavolume verminderen, en we hebben gelaagde opslagconcepten nodig.

ITB: Gelaagde opslag betekent onvermijdelijk ook gelaagde data, d.w.z. differentiatie in termen van data voor operationele processen, back-up en archivering. Hoe pakt u dit aan?

Buchmann: U kunt de gegevens via opslaggrids als objecten behandelen, d.w.z. ze voorzien van metadata. Een andere variant is om de gegevens altijd op het goedkoopste apparaat op te slaan en deze te voorzien van SLA’s. U kunt flash ook gebruiken als cache voor operationele gegevens om goedkopere schijfcapaciteiten te versnellen. Wat belangrijk is voor dergelijke hybride benaderingen is de flexibiliteit van de gegevens. En in de context van metadata management, hebben ze te maken met API’s. Daartoe heeft de opslagindustrie onlangs de CDMI-norm goedgekeurd. Het doel van CDMI is te komen tot een uniforme API voor inhoudsbeheer, d.w.z. een soort cloud-interface voor objectgebaseerde gegevens. Dit betekent dat een overeenkomstige toepassing zoals SAP of Oracle met alle opslagniveaus kan praten zonder speciale aanpassingen. Nu is het een kwestie van de fabrikanten die deze standaard implementeren.

Aanvullende informatie

Over de persoon

Manfred Buchmann is Senior Director Systems Engineering EMEA bij Netapp. Het zwaartepunt van zijn activiteiten ligt bij de integratie van Netapp-, Fujitsu- en SAP-aanbiedingen in de context van veeleisende projecten zoals scale-out architecturen of Big Data. Hij geeft er de voorkeur aan om dergelijke taken in samenwerking met partners uit te voeren.

web | www.netapp.com/de

ITB: En wat zegt uw kristallen bol?

Buchmann: Over vijf jaar hebben we zoveel kracht in hardware dat bijna alles gevirtualiseerd zal zijn. Fysieke apparaten voor softwareversnelling zullen dus geleidelijk in onbruik raken.