Beheer

Storage

Vier storage vragen aan EMC-president Jeremy Burton

18 juli 2014

 Is storage nog wel spannend voor de business?
“Zéker wel. De business zit met een aantal ‘uitdagingen’. De hoeveelheid informatie die over een weer wordt gestuurd neemt enorm toe, dat heeft zijn weerslag op je storage en je bandbreedte en het maakt nieuwe investeringen in je infrastructuur noodzakelijk. Neem nu een verzekeringsmaatschappij. Tien jaar geleden gingen daar hoogstens wat formulieren heen en weer, maar nu is er in vrijwel elke schadezaak sprak van verschillende foto’s en vaak zelfs videomateriaal. Je kunt je voorstellen wat voor weerslag dat heeft op je systemen.  De hoeveelheid data neemt zo snel toe, dat je dat met rechttoe rechtaan storage niet meer kunt coveren. Een traditionele backup is ook niet efficiënt. Je pakt de data die je gebruikt en die prop je door je netwerk naar een storage device. Dat kost tijd, de mensen van het datacenter haten het en de jongens  van de applicaties draaien vaak ook nog eens hun eigen backups omdat ze bang zijn om anders niet aan de SLA te kunnen voldoen.”

Hoe kan het beter dan?
“Allereerst door betere en snellere apparatuur. We hebben recent veel innovaties gepresenteerd. Maar het is eerst en vooral een kwestie van architectuur. Als je niet goed nadenkt, zit je met een hoeveelheid data ter grootte van 10TB al snel op een hoeveelheid backups ter grootte van 80 TB. Je moet dus goed in de gaten houden wat al is opgeslagen en, waar mogelijk, via de-duplicatie de hoeveelheid data weer terugbrengen. Storage staat of valt met intelligente opslag – je zorgt dat alleen de nieuwe data naar het datadomain worden verstuurd. Én met een nieuwe architectuur voor data waarbij zo min mogelijk sprake is van silo’s. Er wordt nu veel ontwikkeld rondom data lakes, of data landing zones. Waarbij alle  vormen van informatie worden opgeslagen op zo’n manier dat gebruikers vanuit  organisatie op elk moment toegang kunnen krijgen tot de data die ze nodig hebben. Locatie of tijd maakt niet meer uit. Je hebt geen additionele databases of  duplicate systems nodig. Alle gebruikers putten uit dezelfde bron en hebben dus de juiste en meest bijgewerkte gegevens ter beschikking.”

EMC schermt met een TCO voor cloudstorage die tot 28 procent lager ligt dan die van grote aanbieders als Amazon en Google.
“Dat klopt. Hert beeld bestaat dat alles wat AWS aanbiedt goedkoop is. Dat hebben ze knap gedaan, en het gaat wellicht op voor hun clouddiensten, maar het gaat niet specifiek op voor storage.  Het gebruik van een public cloud is flexibel. Je kunt dus naar behoefte capaciteit up en down scalen. Maar storage is iets permanents. Als je iets bewaart moet je dat ook continu doen. Dus ook Amazon en Google maken uiteindelijk flinke kosten voor storage. En dan pakt onze aanpak wat betreft slimme storage dus echt beter uit. Belangrijkste is dat er een verschil gemaakt wordt tussen dat wat in een flash memory beschikbaar is (oftewel dat wat milliseconden vergt om op te vragen)) en die info die een stuk minder acuut is en dus best op een schijf mag worden opgeslagen. Of zelfs op een schijf die niet continu draait. Want dan zit je met radicaal lagere opslagkosten. Flash is een prachtig ding, maar de opslag in flash is nog wel duur. Maar heel veel informatie hoeft echt niet in flashgeheugen bewaard. Als het eenmaal verwerkt en geanalyseerd is, kan het prima naar Elastic Cloud Storage of zelfs cold storage. We moeten de snelle opslag sneller maken en de goedkope opslag goedkoper.”

Internet of Things  gaat zorgen voor een enorme data-explosie. Dat is toch niet meer op te slaan?
“Nee, de huidige storagecapaciteit is niet opgewassen tegen de data-explosie die IoT gaat brengen. We are far from finished there. Maar we zijn hard aan het werk om ook daar een antwoord op te vinden. Het is vooral een in-memoryprobleem: welke informatie moet direct in flash beschikbaar zijn voor trendanalyses en welke data mag verder weggestopt worden op tragere geheugenschijven? Maar heel belangrijk voor ons is ook de aankoop van DSSD. Daar verwacht ik heel veel van. Bij DSDD werken ze aan nieuwe architecturen voor in-memory databases en daarmee radicaal snellere opslag. Vlak overigens niet uit dat het vermogen van harddisks nog een stuk groter kan dan we nu gewend zijn. Over een paar jaar zijn harddisks van 60 TB geen uitzondering meer.”

 
Lees het hele artikel
Je kunt dit artikel lezen nadat je bent ingelogd. Ben je nieuw bij AG Connect, registreer je dan gratis!

Registreren

  • Direct toegang tot AGConnect.nl
  • Dagelijks een AGConnect nieuwsbrief
  • 30 dagen onbeperkte toegang tot AGConnect.nl

Ben je abonnee, maar heb je nog geen account? Laat de klantenservice je terugbellen!