Als je organisatie grote hoeveelheden rekenkracht tekort komt, dan zijn er twee mogelijkheden. Zo kun je een supercomputer bouwen met snelle servers, storage arrays en dataverbindingen, maar dat gaat in de papieren lopen. Goedkoper is het bouwen van een cluster van zuinige en goedkope computers. Op die manier hebben vier zwaargewichten hun capaciteitsproblemen opgelost. Met hun clusters beschikken zij over voldoende near-realtime rekenkracht om het heelal te onderzoeken, innovatieve radars te ontwikkelen of slechts zo snel mogelijk het eigen netwerk te testen.

1. GPU cluster voor sterrenkundig onderzoek

Het is een mooie uitdaging: het opzetten van een goed presterend computercluster in de binnenlanden van Australië, waar je ’s nachts naar signalen uit het vroege heelal kan speuren zonder verstoringen van radiogolven. Het aantal mogelijkheden is daar beperkt, zo merkte de onderzoekers van Murchison Widefield Array. Vooral de stroomvoorziening liet te wensen over, aangezien de radiotelescoop is opgesteld op 50 kilometer afstand van een dorpje en op 300 kilometer van een stad.

Een cluster van high-performance nodes zou teveel stroom verbruiken, gezien het gebrek aan voorzieningen op deze locatie. In plaats daarvan is de Murchison Widefield Array opgebouwd uit zo’n 80 afzonderlijke GPU’s – de Nvidia Tesla S1070 - in twee clusters. Dit geheel draait op dieselgeneratoren die 40 kilowatt opwekken.

De telescoop genereert een kolossale hoeveelheid van 2,5 teraflops aan astronomische data met een snelheid van 3GB/sec. De beeldverwerking moet ter plaatse geschieden, omdat er geen glasvezelkabels naar de binnenlanden van Australië lopen. De radiodata wordt opgevangen door antennes gaat door de zogenaamde ‘correlator’, die vervolgens de data doorgeeft aan de GPU’s.

Voor de beeldverwerking moeten de mathematische vergelijkingen van Fourier-gegevens worden omgezet, waarbij ionosferische vervorming en het kalibreren van de instrumenten worden gecorrigeerd. ‘De huidige CPU’s zoals Xeon en Opteron kunnen met de beperkte stroomvoorziening niet voldoende rekenkracht leveren’, zo ondervond de onderzoeker Richard Edgar bij het opzetten van de cluster. ‘Daarom probeerden we het met MIPS-processors die minder energie nodig hebben, maar die konden het niet aan. Alleen met GPU hadden we een kans van slagen, gezien de extreem hoge capaciteitsbehoefte en het lage beschikbare elektriciteitsverbruik.’

De cluster is nog niet voltooid, hoewel een prototype al draait. Volgens Edgar is dit de snelste cluster op het gebied van teraflops per watt.

2. PlayStation 3 cluster op het U.S. Air Force Research Laboratory

Een van de grootste technologische uitdagingen is het ontwikkelen van een computer die dezelfde taken kan verrichten als een mens. Voor de Amerikaanse luchtmacht betekende dat een computer die radarbeelden kan analyseren en afwijkingen hierop kan zien, meestal in realtime en zonder vertraging.

Volgens Richard Linderman van de Air Force Research Laboratory in Rome in de Amerikaanse staat New York stelt het laboratorium hoge eisen aan de computerkracht. Zo moeten atmosferische storingen in realtime uit beeld worden gehaald. Verder gebruikt het laboratorium ‘neuromorphic computing algorithms’, waarmee ‘wordt onderzocht hoe je computers kunt gebruiken op dezelfde manier als waarop het brein werkt, zoals bij het herkennen van doelen’, legt Linderman uit.

Jaren geleden dacht Linderman er al aan om de spelcomputer PlayStation in te schakelen, toen zijn team uitzocht wat de aanschaf van supercomputers zou kosten. Aan de Los Alamos Roadrunner supercomputer van IBM hing bijvoorbeeld een prijskaartje van ruim 100 miljoen dollar, terwijl Linderman had gelezen dat de chip overeenkomt met de Cell processors die IBM, Sony en Toshiba ontwikkelden voor PlayStation 3.

De kosten om de PlayStation 3 cluster te bouwen bedroegen aanvankelijk zo’n 330.000 dollar, met een maximale prestatie van 40 teraflops. Daarmee was de cluster ongeveer 10 keer zo kosteneffectief als de Roadrunner. Onlangs heeft de Amerikaanse luchtmacht de cluster herzien, zodat met minder kostbare onderdelen nog meer rekenkracht wordt verkregen. De verhouding tussen GPU’s en PS3 chips is nu ongeveer 50-50, terwijl de maximale prestaties neerkomen op 500 teraflops. De kosten zijn nu zo’n 2 miljoen dollar.

‘We wilden niet teveel betalen aan energiekosten, dus de oplossing moest weinig stroom verbruiken’, vertelt Linderman. ‘De meeste 500-teraflop machines verbruiken onvoorstelbaar veel megawatt, maar ons systeem slechts 300 kilowatts. Hiermee besparen wij jaarlijks ruwweg 1 miljoen dollar per megawatt, wat een grote kostenbesparing is terwijl we voldoende rekenkracht behouden’, aldus Linderman.

3. Plug computercluster van MIT

Bij een cluster of supercomputer is het doel meestal om zoveel mogelijk applicaties te draaien of taken te laten verrichten door op verschillende snelheden gedeeld geheugen te gebruiken. Daartoe heb je op z’n minst een snel netwerk en rappe schijftoegang nodig.

Het kan echter voorkomen dat voor slechts één taak, zoals het testen van een netwerk, hoge snelheden nodig zijn, maar geen capaciteiten van een supercomputer of HPC-cluster. Het MIT {http://web.mit.edu/} heeft ontdekt dat je netwerktests kan uitvoeren met slechts weinig energieverbruik door een cluster of ‘plug’-computers in te zetten. Een plug computer is eigenlijk een uitgeklede server in een kleine behuizing die is aangesloten op een netwerk. Voorbeelden zijn de SheevaPlug of GuruPlug, beide producten van de Marvell Technology Group, of apparaten gebaseerd op een van deze platformen, zoals de QuadPlug van QuadAxis.

De MIT cluster is verbonden met een standaard wifi en verbruikt slechts 100 watt, zegt systeembeheerder Kurt Keville van MIT die de cluster heeft helpen opzetten: ‘Onze grootste knelpunten zijn nu geheugen en bandbreedte en snelheid van het netwerk.’ Momenteel verdeelt MIT de taken over een draadloos netwerk met veel stand-alone kernen via multipath netwerk-opties. Voor deze technologie zijn minder draadloze hotspots nodig en komt er meer uit iedere kern afzonderlijk. Hierdoor kan MIT met goedkope ‘plugs’ verschillende clusters bouwen voor specifieke applicatietaken. Dat kost veel minder geld dan de oude clusters alle HPC-taken deden.

De cluster wordt ook gebruikt als goedkope, op zonne-energie draaiende draadloze netwerk voor studenten van MIT.

Volgens Keville zijn er geen plannen om een gegeneraliseerde cluster te bouwen, omdat krachtige processors teveel energie verbruiken en de kosten te hoog zijn. MIT kan niet gebruikmaken van gedeeld geheugen voor ingewikkelde computertaken, omdat de ‘plugs’ afzonderlijk onvoldoende geheugen en snelheid hebben om verschillende taken tegelijk te doen.

4. Schijfloos cluster van Sandia National Laboratories

Een laatste clustermogelijkheid blijft over: helemaal geen traditionele hardwareknooppunten gebruiken. Ron Minnich van Sandia National Labs ontwikkelde een cluster die gebruikmaakt van een miljoen virtuele machines (vm’s). Het is zijn streven om dit aantal dit jaar uit te breiden naar 10 miljoen vm’s.

Elke vm is opgebouwd uit een Linux-kern op de Thunderbird supercomputer van het laboratorium. Deze supercomputer is eigenlijk zelf een cluster van bijna 5.000 onderling verbonden Dell-computers. Om de cluster van miljoenen knooppunten te maken, draaide Minnich 250 vm’s op iedere Dell. Om te komen tot 10 miljoen nodes zal hij proberen nog meer virtuele machines per Dell te laten draaien binnen de bestaande cluster.

Minnich en diens team gebruiken de cluster om aanvallen van botnets na te bootsen, te analyseren hoe internet functioneert en om de nieuwe generatie besturingssystemen en veiligheidssoftware te helpen ontwikkelen. Uiteindelijk hopen zij het computernetwerk van een klein land of zelfs zo groot als de VS te kunnen nabootsen, zodat zij veilig kunnen bekijken wat er gebeurt tijdens een virtuele cyberaanval, zo stelt Minnich in een persbericht.

‘Belangrijke problemen, zoals modellen van klimaatverandering, de ontwikkeling van nieuwe medicijnen en onderzoek naar een efficiëntere energieproductie, vragen om steeds meer computerkracht’, zegt Minnich. Virtualisatie zal een steeds grotere rol spelen bij de ontwikkeling van grootschalige systemen, omdat je er verschillende besturingssystemen mee kunt hosten op een enkel platform.

‘Cluster computing’ blijft intussen in ontwikkeling. In de nabije toekomst voorspelt Keville van MIT het einde van de enorme supercomputerclusters die een volledige etage in beslag nemen. Onderzoekers hoeven batch jobs dan niet meer weken van tevoren te plannen, maar pakken een paar plugcomputers en maken er zelf een. ‘We moeten het gehele computerconcept heroverwegen vanwege deze nieuwe producten en vanwege de hoge energiekosten. Er zijn meer antwoorden nodig op nieuwe vragen’, besluit Keville.

Bron: Techworld