Overslaan en naar de inhoud gaan

ICT 2007: In de serverruimte ligt het g€ld voor het oprapen

Dat stelde Gartner-analist Thomas Bittman tijdens een presentatie op de ITXpo waarin hij de voor het x86-domein beschikbare virtualisatieoplossingen de maat nam.
Virtualisatie is voor mainframes en Unix-servers niets nieuws; het is op dit moment vooral een issue bij servers die werken met een x86-processor van Intel of AMD.
Carriere
Shutterstock
Shutterstock

Dit type servers wordt traditioneel vooral ingezet in het Windows-domein, en voor Windows gold lange tijd het advies: één applicatie per server om complicaties te voorkomen. Veel bedrijven hebben dat advies ter harte genomen omdat x86-servers relatief goedkoop waren, en zijn. En daardoor draaien er nu volgens Bittman nog steeds reeksen servers onder Windows waarvan de capaciteit voor niet meer dan 10 of 20 procent wordt gebruikt.
In de loop der tijd zijn een aantal randvoorwaarden ingrijpend gewijzigd. Windows is robuuster geworden, waardoor het minder problematisch is om meerdere applicaties op één server te draaien. De processors in de x86-architectuur zijn in rap tempo een stuk krachtiger geworden, in een tempo dat de groei in de eisen van software aan de hardware verre overtreft. En er zijn volwaardige virtualisatietechnieken voor het x86-platform ontwikkeld.

Mogelijkheden
Bij elkaar genomen betekent dat dat er geld te verdienen valt door onderbenutte x86-servers samen te voegen. Want x86-servers zijn dan wel relatief goedkoop, gratis zijn ze natuurlijk niet. En bovendien lokt iedere server extra bijkomende kosten uit, zoals energieverbruik, installatie- en aansluitkosten en de ‘huisvestings’kosten; die kosten zijn even hoog voor een server die voor 10 procent wordt gebruikt als voor een server met 90 procent bezettingsgraad, stelt Bittman. Wat daarop te besparen valt, moet ieder bedrijf voor zich uitrekenen; dat hangt sterk af van de specifieke omstandigheden, zoals:
- de piekbelastingen die de afzonderlijke servers moeten verwerken (die van invloed zijn op de mogelijkheden tot combineren);
- de intensiteit van de communicatie met randapparatuur (idem);
- de ouderdom van het serverpark, (ofwel, is vervanging van de servers verantwoord);
- upgrade- en uitbreidingsplannen, (zijn er schaalvoordelen te behalen);
- eventueel ruimtegebrek.
Maar dat de besparingen aanzienlijk kunnen zijn, staat volgens Bittman vast.

Gastheer
De eerste virtualisatie-oplossingen voor het Windows-platform kregen vorm in een beheersinstrument dat virtuele machines kon inrichten bovenop het besturingssysteem Windows, dat als gastheer fungeert. De bekendste voorbeelden zijn VMware Server en Microsoft Virtual Server 2005. Die aanpak heeft een aantal voordelen: installatie en onderhoud is eenvoudig, ook al omdat het contact met de randapparatuur door de gastheer wordt onderhouden. Bovendien: beide producten zijn gratis. Maar deze oplossing kent ook nadelen. Dat betreft met name de kwetsbaarheid van de gecombineerde servers voor storingen in c.q. aanvallen op het onderliggende gastbesturingssysteem – die in één klap alle virtuele machines stil leggen – en de relatief hoge overhead. Dit type virtualisatie-oplossingen soupeert makkelijk 25 procent of meer van de beschikbare processorcapaciteit op.
Om die reden hebben modernere oplossingen, die bekend staan onder de naam hypervisortechnologie, Bittmans voorkeur, zeker voor productieomgevingen. Een hypervisoroplossing, zoals Vmware ESX server of Xen, draait rechtstreeks op de hardware en pakt daardoor niet meer dan 5 procent van de processorcapaciteit. Nadelen zijn er ook. De hypervisor heeft meestal zijn eigen drivers nodig en vraagt extra kennis van de beheerders van de systemen.

Afwegen
Op dit moment is volgens Bittman VMwares ESX Server de meest uitgekristalliseerde hypervisor-oplossing; ESX Server verslaat de concurrentie op dit moment op eigenlijk alle criteria: de prestaties zijn beter, de schaalbaarheid eveneens, de ondersteuning voor besturingssystemen is ruimer, en de beheershulpmiddelen zijn functioneler. Het enige criterium dat in het nadeel van ESX Server uitvalt is prijs: het is de enige oplossing waarvoor licenties verschuldigd zijn.
Maar dat is niet de enige reden dat een keus wat minder eenduidig is dan op grond van de productspecificaties alleen het geval zou zijn. Ook de ontwikkelingen bij de belangrijkste concurrent, het open-sourceproduct Xen, vragen aandacht wanneer men op zoek is naar een virtualisatieoplossing. In versie 3.0, sinds december vorig jaar in bèta, is Xen ook met hypervisortechnologie uitgerust. In eerste aanleg waren bij Xens virtualisatieoplossing nog aanpassingen nodig in de besturingssystemen die op Xen draaiden, maar die noodzaak komt in versie 3.0 te vervallen. Een definitieve, stabiele versie van Xen 3.0 wordt nog voor het eind van dit jaar verwacht.

Complicaties
Een keuze wordt verder gecompliceerd door ontwikkelingen die het speelveld veranderen. Intel en AMD hebben dit jaar nieuwe voorzieningen in hun processors ingebakken waarmee virtualisatie ook op hardwareniveau ondersteund wordt. Dat geeft nieuwe mogelijkheden die nog ten volle uitgenut moeten worden in de virtualisatieoplossingen. Daarnaast is er nog – zoals altijd – Microsoft: dat heeft nog geen hypervisor, maar zal daar te eniger tijd wel mee komen. Wanneer, dat is nog niet duidelijk, maar Bittman verwacht die op zijn vroegst in de loop van 2008.
Een belangrijk punt van overweging is ook dat de virtualisatietechniek zelf niet uitontwikkeld is. In de toekomst zullen bijvoorbeeld technieken gemeengoed worden om een virtuele computer dynamisch te verplaatsen naar een andere server, zonder dat daarvoor de server herstart hoeft te worden of draaiende toepassingen moeten worden onderbroken. VMware levert al een dergelijke optie bij zijn virtualisatiesoftware. In het verlengde daarvan zullen binnen de gevirtualiseerde omgevingen ook meer en eenvoudiger te gebruiken mogelijkheden geboden worden om de resources van een server naar behoefte dynamisch te verdelen tussen virtuele machines en tussen de toepassingen die in een virtuele machine draaien. Met dergelijke technieken wordt een nog efficiënter gebruik van de hardware mogelijk. Maar ze versnellen ook de uitrol van nieuwe informatiesystemen, zijn behulpzaam bij het verminderen van de downtime (of maken het, met andere woorden, mogelijk systemen met hoge beschikbaarheid te creëren uit goedkope servers), maken herstel na storingen mogelijk zonder dat men hoeft te investeren in duplicaatsystemen, en bieden aanknopingspunten voor bedrijfsbrede capaciteitsplanning.

Fout
De grootste fout die men dan ook op dit moment zou kunnen maken is volgens Bittman een omvangrijk virtualisatieproject met grote aanloopinvesteringen en lange doorlooptijd te starten. Gezien de ontwikkelingen in de techniek moet men zich beperken tot projecten die zich binnen zes maanden terugverdienen en moet men vermijden zich vast te leggen op de techniek van één leverancier, waarschuwt Bittman.

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in