Rekenkracht uit een stopcontact

7 december 2000
Nieuwe technologieën komen in soorten en maten. Sommige bieden compleet nieuwe mogelijkheden, zoals werkgroepsoftware bij het verschijnen van Lotus Notes. Andere borduren voort op wat er al is, zoals een nieuwe versie van Office die beter gebruik maakt van de mogelijkheden van het Internet. Maar van tijd tot tijd verschijnt er een radicaal nieuwe technologie aan de horizon, die de potentie heeft om alles op zijn kop te zetten. Dat gebeurde bij de komst van de personal computer in de jaren tachtig en bij de verspreiding van het Internet in het decennium daarna.
In de komende tien jaar kan een vergelijkbare rol in het verschiet liggen voor The Grid. The Grid wordt, als hij wordt gerealiseerd, een wereldwijd netwerk van computers, die bij het afhandelen van allerlei taken als één geheel opereren. Via speciale software vindt elke toepassing de noodzakelijke verwerkingskracht en opslagcapaciteit op het netwerk, en wel op de meest efficiënte manier. The Grid is daardoor vergelijkbaar met het elektriciteitsnetwerk, dat op elk moment en op elke plek de benodigde hoeveelheid stroom kan leveren voor het functioneren van elektrische apparaten. De Engelse benaming voor het elektriciteitsnetwerk is Power Grid, vandaar de naam.
Het idee voor The Grid werd voor het eerst beschreven in het boek ’The Grid. Blueprint for a new Computing Infrastructure’ van Ian Foster en Carl Kesselman, dat eind vorig jaar verscheen. Het betrof een verzameling essays geschreven door figuren uit de wereld van parallelle en gedistribueerde computers waarin de bouwstenen voor een Grid-achtig netwerk werden aangedragen. Nadat het boek verscheen is The Grid het stadium van het idee ontstegen: zowel in Europa als in de Verenigde Staten zijn projecten gestart die ten doel hebben het baanbrekende idee te realiseren.
Een van de hoofdrolspelers bij de ontwikkeling van The Grid is CERN, het Europese centrum voor deeltjesonderzoek bij Genève, Zwitserland. Hier lijkt de geschiedenis zich te herhalen, omdat CERN eerder betrokken was bij de ontwikkeling van het World Wide Web, dat de doorbraak van het Internet versnelde. Het web, bedacht door onderzoeker Tim Berners-Lee, was bedoeld als gereedschap om de grote hoeveelheden gegevens die bij het deeltjesonderzoek werden geproduceerd, zo efficiënt mogelijk met de wetenschappelijke wereld te kunnen delen. De totstandkoming van The Grid heeft een vergelijkbaar doel: CERN wil de enorme hoeveelheid informatie die vrijkomt bij het deeltjesonderzoek zo efficiënt mogelijk over wetenschappelijke instituten verdelen om de gegevens sneller te kunnen verwerken en analyseren.
Zo’n netwerk is voor CERN bittere noodzaak. Die hoeveelheid gegevens die de komende jaren bij het deeltjesonderzoek wordt geproduceerd, zal sprongsgewijs toenemen omdat een nieuwe fase van het onderzoek aanbreekt. Tot dusver werden alle experimenten bij CERN uitgevoerd met de zogenoemde Large Electron Positron Collider (LEP), een 27 kilometer lange ringbuis waarin deeltjes, zoals bosonen en quarks, worden versneld om met hoge energie tegen elkaar aan te botsen. De LEP wordt de komende vijf jaar omgebouwd tot de Large Hadron Collider (LHC), die nog meer energie aan de deeltjes zal meegeven. Bij de botsingen zal zo veel informatie vrijkomen, dat traditionele manieren van gegevensverwerking ontoereikend worden. Zelfs als de informatie van de tests zwaar wordt gefilterd, zal de hoeveelheid data die door de LHC wordt gegenereerd even groot zijn als het complete verkeer op het wereldwijde telefoonnetwerk, inclusief het Internet-verkeer. Dit gaat het vermogen van elke individuele supercomputer ver te boven.
In het netwerk dat CERN voor ogen staat worden de computers van wetenschappelijke instituten in de lidstaten met elkaar verbonden om gezamenlijk de benodigde rekenkracht te leveren. Eerst worden de data verdeeld over nationale hubs die netwerken met hoge snelheden gebruiken, waarna de gegevens verder worden opgesplitst naar regionale centra om uiteindelijk te worden geanalyseerd op de computernetwerken van individuele universiteitscentra.
Om de technologie uit te testen heeft CERN dit jaar een soort proto-Grid gebouwd die kan beschikken over een virtuele exabyte geheugen (een miljard maal een miljard bytes). Dit is vergelijkbaar met ongeveer de helft van alle unieke elektronische gegevens – teksten, databases, beelden – die per jaar wereldwijd worden aangemaakt. Een andere praktische invulling betrof een netwerk met een capaciteit van diverse gigabits per seconde dat bij een demonstratie van CERN in september werd getoond.
Ook op nationaal niveau is in Europa de afgelopen jaren geëxperimenteerd met kleinschalige gedistribueerde computerarchitecturen die doen denken aan het door CERN beoogde netwerk, maar de voorbereidingen voor een grootschalige Grid worden nu getroffen. Enkele tientallen Europese organisaties en bedrijven hebben zich verenigd in Egrid (European Grid), een internationaal forum dat is opgericht om de strategie uit te stippelen en de vorderingen te bespreken. Leden zijn onder meer het Albert Einstein Institut in Potsdam, de Franse onderzoeksgroep Inria, een centrum voor supercomputers in Poznan (Polen) en de Vrije Universiteit in Amsterdam. Ook in de Verenigde Staten werken diverse instellingen samen om een Grid aan te leggen.
De deelnemers, verenigd in het Grid Forum, zijn onder andere Northwestern University, het San Diego Supercomputer Center en Nasa Ames Research Center. Egrid en Gridforum vormen samen het Global Grid Forum, dat wordt gesponsord door een aantal organisaties waaronder Microsoft, Nasa en Sun Microsystems. Maar voor er een Grid operationeel is, en de wensen van de wetenschappers zijn ingevuld, moet nog een lange weg worden afgelegd. Sommige basistechnologieën, zoals communicatieprotocollen, kunnen worden gekopieerd van het Internet. Ook is er het programma Globus, dat op gedistribueerde computernetwerken dienst doet als besturingssysteem. Maar andere componenten moeten speciaal worden ontwikkeld.
Volgens sommigen zullen de vereiste nieuwe technologieën een zodanig revolutionair karakter krijgen dat het huidige Internet erbij verbleekt. Het betreft voornamelijk zogenoemde middleware, de programmatuur die ervoor zorgt dat allerlei software en apparatuur naadloos met elkaar kunnen samenwerken. Daarnaast zullen nieuwe interfaces en beveiligingsprogramma’s het licht moeten zien. Om ervoor te zorgen dat ver van elkaar verwijderde computers inderdaad met elkaar aan een taak kunnen werken, is ook geavanceerde software voor zogenoemd resource management nodig.
Hoe snel de realisatie van een wereldwijThe Grid zal verlopen, is nog niet duidelijk. De huidige situatie, met een min of meer gescheiden ontwikkeling in Europa en in de Verenigde Staten, duidt er op dat er voorlopig sprake zal zijn van twee regionale grids. De ontwikkeling van het netwerk in Europa dreigde afgelopen herfst zelfs vertraging op te lopen door een toevalligheid.
Experimenten met de LEP duidden op aanwezigheid van het zogenoemde Higgs boson, een deeltje dat tot dusver alleen theoretisch was verondersteld. Het vormt voor natuurkundigen een soort heilige graal, omdat het de completering betekent van het zogenoemde standaardmodel. Probleem was dat de LEP volgens de planning in november zou worden gesloten. Onderbreking van het onderzoek zou buitenlandse instituten echter de gelegenheid bieden als eerste de waarneming van het Higgs Boson te claimen. Doorgaan zou betekenen dat de planning voor de LHC vertraging zou oplopen. Na een maand uitstel hakte CERN de knoop door en besloot toch de LHC te gaan aanleggen.
De volgende stap bij de invulling van Grid-technologie in Europa zal waarschijnlijk bestaan uit de bouw van de zogenoemde Particle Physics DataGrid, een infrastructuur die het mogelijk maakt dat duizenden wetenschappers kunnen werken aan de analyse van gegevens van het deeltjesonderzoek. Een verbond van Europese onderzoeksinstituten heeft daarvoor financiering verkregen van de Europese Commissie.
Naast CERN gaat het om het CRNS (Frankrijk), Esrin (onderdeel van ESA), INFN (Italië), Pparc (Verenigd Koninkrijk) en het Nikhef, het Nederlands Instituut voor Hoge Energie Fysica in Amsterdam. Er zijn ook vijftien geassocieerde partners, waaronder het rekencentrum Sara in Amsterdam en het KNMI. De hoeveelheid informatie die het DataGrid moet opslaan beslaat volgens de betrokken instituten verschillende petabytes.
De Amerikaanse tegenhanger is het Griphyn-project (Grid Physics Network), een netwerk dat wordt aangelegd door de universiteiten van Florida en Chicago en Argonne National Laboratory. Griphyn zal worden gebruikt voor verwerking van onderzoeksgegevens van CERN en van Amerikaans ruimteonderzoek.
Als de deeltjesonderzoekers erin slagen een infrastructuur voor The Grid te verwezenlijken, is het logisch dat, net als bij Internet, de ’buitenwereld’ vroeg of laat van de inspanningen kan meeprofiteren. Andere toepassingen binnen de wetenschap liggen voor het oprapen. Grid-technologie kan bijvoorbeeld worden ingezet voor het voorspellen van weerpatronen, research naar de opwarming van de aarde, het verloop van het proces van kernsplijting of onderzoek naar de structuur van het menselijk genoom. Maar waarschijnlijk zal de techniek op termijn ook voor commerciële doeleinden worden ingezet.
Bij Eforum zijn nu al een handvol bedrijven betrokken die werken aan sleuteltechnologieën van The Grid, zoals Gridware, een samenwerkingsverband van het Duitse bedrijf Genias en Sun Microsystems. Genias heeft een zogenoemd Grid Engine ontwikkeld, dat de onbenutte capaciteit van computers gebruikt voor verwerkingstaken elders op een netwerk. Een ander betrokken softwarebedrijf is het Amerikaanse Entropica.
Een doorbraak op de commerciële markt is pas gegarandeerd als er een killer-applicatie zou verschijnen die The Grid voor elk bedrijf en elk huishouden toegankelijk maakt. Het web bereikte zijn huidige massale omvang pas na de komst van het bladerprogramma Mosaic, en diens opvolger Navigator, dat zowel bedrijven als burgers aan zich wist te binden. De kans dat bij Grid-technologie iets dergelijks gebeurt, lijkt zelfs groter dan bij het web. CERN was tot nu toe altijd een centrum met een puur wetenschappelijke missie. Maar de frustratie over wegkapen van de technologie van het web door – nota bene Amerikaanse – bedrijven zit zo diep dat binnen CERN en de overheden die het onderzoekscentrum subsidiëren meer interesse komt voor het optuigen van commerciële poot onder het onderzoekscentrum. Eerste stappen in die richting zijn de benoeming van een directeur voor technologieoverdracht, de opening van een technologie liaison kantoor en het registreren van patenten. Er wordt ook gespeculeerd over een science park, met een bijbehorende ondernemerscultuur, waardoor het instituut van de commercialisering van nieuwe technologieën kan profiteren.
Aangenomen mag worden dat ook de Nederlandse instituten die bij het Grid-onderzoek zijn betrokken, zoals Sara en Nikhef, sneller dan voorheen de weg naar de commerciële markt weten te vinden. Diverse bedrijven in het Twinning Center Amsterdam in de Watergraafsmeer maken nu al gebruik van de technologie van het nabijgelegen Sara. Bovendien zorgt de korte geografische afstand tot zowel Sara als Nikhef ervoor dat de Twinning-bedrijven op de eerste rang zitten om van Grid-technologie en de snelheid van het netwerk te profiteren.
Duidelijk is dat als The Grid werkelijkheid wordt, een compleet nieuwe fase in de ontwikkeling van ICT ontstaat. Terwijl het Internet gebruikers in staat stelt informatie met elkaar te delen, maakt The Grid het mogelijk computerkracht met elkaar te delen waardoor de kracht van een supercomputer voor iedereen en elk bedrijf beschikbaar komt. Het is niet moeilijk voor te stellen dat zo’n netwerk tot compleet nieuwe toepassingen zal leiden die de huidige programmatuur in snelheid en functionaliteit overtreffen en uiteindelijk misschien overbodig zullen maken.
De snelheid van The Grid zal ook nieuwe impulsen geven aan terreinen die bijzonder veel rekenkracht vergen, zoals spraakherkenning, virtual reality-achtige simulaties. Ook biedt The Grid op termijn een uitweg uit het probleem dat de continue prestatieverbetering van computertechnologie, die wordt beschreven in de wet van Moore, op afzienbare termijn ophoudt. Computers hoeven niet meer sneller te worden, want het netwerk levert de benodigde verwerkingscapaciteit.
Sommigen speculeren al over een programma dat als een soort meterkastje bijhoudt hoeveel computerkracht vanaf een werkplek wordt gebruikt, net als bij een elektriciteitsmeter die registreert hoeveel stroom een huishouden consumeert.
Toch is enige scepsis rond de toepassing van Grid-technologie op zijn plaats. Als voor een willekeurige taak de benodigde computerkracht van een wereldwijd netwerk moet worden gehaald, wordt de capaciteit van de verbindingen een nieuw knelpunt.
Een oplossing die sommige wetenschappers aandragen is het ontwikkelen van geavanceerde rekenmodellen om de beschikbare bandbreedte zo efficiënt mogelijk te benutten. Ook wordt zo langzamerhand duidelijk dat naarmate er steeds meer en steeds krachtiger computers komen, de behoefte aan elektriciteit op zeker moment het aanbod overstijgt. Optimisten zien hier overigens weer een extra reden in om The Grid aan te leggen: bij een tekort aan elektriciteit moeten computers in de ruimte worden opgehangen die werken op zonne-energie.
Tenslotte kunnen de benodigde investeringen om wereldwijd The Grid aan te leggen een snelle verwezenlijking in de weg staan. Maar voor de wetenschappers van het deeltjesonderzoek is er eigenlijk geen alternatief voor The Grid. De komende jaren willen ze de eerste gedeelten van het nieuwe netwerk gaan realiseren. Als de technologie uiteindelijk commercieel wordt, kan er, net als bij de komst van het World Wide Web, een interessante tijd voor de ICT-sector aanbreken.
 
Lees het hele artikel
Je kunt dit artikel lezen nadat je bent ingelogd. Ben je nieuw bij AG Connect, registreer je dan gratis!

Registreren

  • Direct toegang tot AGConnect.nl
  • Dagelijks een AGConnect nieuwsbrief
  • 30 dagen onbeperkte toegang tot AGConnect.nl

Ben je abonnee, maar heb je nog geen account? Neem contact met ons op!