In Barcelona presenteerde CERN-onderzoeker Andrzej Nowak vorige week op een conferentie van Intel Labs details over de verwerking van data in de jacht op het Higgs-deeltje. Bij de experimenten in deeltjesversneller LHC worden 40 miljoen botsingen van materie en antimaterie per seconde gemeten en dit levert gigantische hoeveelheden ruwe data op. Er worden 40 miljoen plaatjes gegenereerd en een real-time algoritme vist daar de data uit die dubbel of irrelevant is.

Tien procent van de data blijft dan nog over en 1 procent van de 40 miljoen afbeeldingen per seconde moeten geanalyseerd worden. CERN gebruikt daarvoor een gigantisch netwerk van datacenters bij universiteiten en onderzoekscentra om de workload te verdelen. “Een tijdje hadden we met ons grid het grootste datacenter ter wereld, maar inmiddels is Google ons voorbijgestreefd", zegt Nowak. Het grid bestaat in totaal uit 250.000 processorkernen en verwerkt 2 miljoen jobs per dag.

Nowak denkt dat het goed mogelijk is dat in de nabije toekomst de LHC 1 exabyte (1 miljoen terabyte) per seconde aan ruwe data verwerkt. De wereld is simpelweg nog niet klaar voor de rekenkracht en opslagcapaciteit die daarvoor nodig zijn. De R&D-afdeling van Intel leeft in de toekomst en onderzoekt onder meer wat er allemaal bij komt kijken om het exaschaaltijdperk in te luiden. Met tweaks in de cachegeheugens, het vergroten van het aantal kernen en een procesknooppunt als 7 nanometer zijn we er nog lang niet.

Algoritmes opnieuw uitdenken

CERN werkt samen met Intel aan de implementatie van de many integrated core (MiC) om de rekenkracht voor het nieuwe tijdperk op te schroeven. De chipfabrikant heeft afgelopen zomer het eerste resultaat gepresenteerd van zijn langverwachte Knight's Corner project, dat de opvolger is van het in development hell verdwenen superchip Larrabee. De Xeon Phi bevat meer dan 50 processorkernen en is een pci-kaart die als coprocessor de rekenkracht van een CPU flink opschroeft.

De uitdagingen om het exaschaaltijdperk te bereiken zijn volgens Nowak vooral te vinden in de software, niet de hardware. De MiC is daar een voorbeeld van. “Wat we doen met de MiC-familie is in feite het uitvoeren van parallelle taken vergroten door algoritmes opnieuw uit te denken", vertelt MiC-grondlegger Jim Held aan Webwereld. “En dat is een flinke uitdaging. Maar wel een waar we flink van genieten", lacht de onderzoeker.

Naarmate meer kernen worden toegevoegd aan de processor, wordt ook de cache groter om taken op verschillende kernen goed te verdelen. In de cache worden instructies vast opgeslagen, zodat de processorkern er vlug bij kan. De cache op dezelfde chip kan een stuk sneller worden aangesproken dan de RAM. “De truc is het inschatten van welke instructies nodig zijn voor welk proces zodat de cache niet hoeft mee te groeien met de groei van het aantal kernen", vertelt Held.

“We proberen met bijvoorbeeld de Knight's Corner de efficiëntie van de cache te vergroten door instructies eleganter in te zetten", aldus Held. Het R&D-centrum in Barcelona werkt aan het stroomlijnen van instructies om zo kostbare tikken in de kloksnelheid te besparen zodat kernen niet op elkaar hoeven te wachten om een berekening uit te voeren. De Xeon Phi voert 1 teraflops uit, maar dat moet allemaal nog veel sneller worden.

Grens van Moore

De International Technology Roadmap for Semiconductors (ITRS) heeft een aantal knooppunten omschreven die processorfabrikanten volgen om te blijven evolueren. Momenteel worden chips gefabriceerd met patronen van 22 nanometer. Het volgende knooppunt is 14 nanometer en rond 2014 zouden er processors moeten verschijnen met deze dichtheid. Tegen 2020 zouden we volgens deze planning patronen van 5 nm op wafers moeten kunnen projecteren.

Op de volgende pagina: Vertragingen op de weg naar snellere processors, zoals kosmische stralen.

Hoe kleiner de schakelingen worden, hoe meer problemen chipontwerpers tegenkomen. Een daarvan is het tunneleffect en een ander is de invloed van kosmische stralen. Deze geladen deeltjes veroorzaken fouten omdat de processor deze storing kan interpreteren als een bitje en daardoor een berekening uitvoert op verkeerde informatie, de zogenoemde soft error. IBM berekende in de jaren 90 dat voor elke 256 MB er één zo'n fout wordt gemaakt per maand (PDF). Naarmate de dichtheid van de IC toeneemt, wordt dit probleem nog groter.

Oplossingen liggen in een grotere fouttolerantie, maar mogelijk ook in heel nieuwe ideeën. Intel heeft bijvoorbeeld patent op een deeltjesverklikker die de processor tijdig moet waarschuwen voor dreigende soft errors. Het R&D-lab van Intel in Barcelona werkt ondertussen aan methodes om de invloed van interferentie van kosmische stralen te verminderen.

Productieproblemen kunnen er ook nog eens toe leiden dat de Wet van Moore de nek om wordt gedraaid. Zo verwacht Intel vertraging op te lopen met het implementeren van ASML's EUV-machines. Deze gebruiken extreme ultraviolet om nog kleinere patronen in wafers te branden. De fotolak die fabrikanten gebruiken op de wafer om patronen te branden is niet gevoelig genoeg voor de EUV-lichtbron die volgens de huidige specificaties wordt gebruikt. Daarom moeten wafers langer onder de machine liggen en dat betekent productieverlies voor fabrikanten als Intel. De vertraging in de ontwikkeling van deze techniek noopte ASML er deze maand toe om lichtbronproducent Cymer over te nemen.

Ontwerp op de schop

We slaan meer data op en hebben meer real-time analyse nodig dan de ict-infrastructuur momenteel technisch aankan. Volgens Nowak van CERN is er winst te halen in de software in plaats van hardware. Snellere databaseverwerking is mogelijk door het slimmer inzetten van opgeslagen data, bijvoorbeeld door een nieuwe query-methode zoals Google's F1 databasebeheersysteem gebruikt.

“De snelste supercomputer van dit moment berekent 16 petaflops. De eerste computer die een exaflops aankan, is zeker nog 6 a 7 jaar weg", denkt researchmanager Brian Quinn van Intel. “De ontwikkelingen in dit gebied gebeuren de laatste jaren veel in Europa en China. Vorig jaar stootte een machine van Chinese makelij de Amerikanen zelfs van de nummer één-positie in de supercomputer top 500."

De uitdaging ligt volgens Quinn in het creëren van een krachtig systeem dat vooral efficiënt omgaat met zijn energie. Hij denkt dat om exaflops een realiteit te maken, het huidige systeem daarom volledig op de schop moet. Nu wordt met elke keer dat het aantal schakelingen op een IC verdubbelt, stroomconsumptie relatief kleiner, maar dit zijn kleine winsten. “Bedrijven zijn op zoek naar zuinige servers en consumenten willen langer doen met de batterij van hun smartphone. Daar moeten we dus flink innoveren."

De terahertz-processor lijkt vooralsnog niet dichtbij te zijn. Vervelende natuurwetten spelen processortechnologie parten en de vooruitgang wordt momenteel stapje voor stapje gehaald uit het efficiënter inzetten van algoritmes in de firmware en softwaremanagement. “Iemand zei een keer dat voor exascale computing geen evolutie nodig is, maar een revolutie", vertelt Quinn. “Voor een aantal dingen moeten we het processorontwerp weggooien en opnieuw beginnen."