HPC-systemen zitten net een fractie onder supercomputers, en worden gebruikt door grote instellingen om extreem ingewikkelde berekeningen mee uit te voeren, zoals weermodellen en andere simulaties. Dit soort systemen gelden op architectuurgebied ook als showcase van wat er in de toekomst mogelijk is voor meer conventionele systemen.

De bullx is dan ook een 7u bladeserver waarin per chassis ruimte is voor maar liefst achttien blades. De blades komen voorlopig in twee varianten, en ook die zijn niet misselijk.

De Compute Blade is gebaseerd op twee quadcore Xeons geprikt op een Intel S5500 chipset. Maximaal kan elke blade 96 GB aan geheugen aan, verdeeld over 12 geheugensleuven (DDR 3 DI MM). Ter ondersteuning heeft Bull een tweede soort blade die geheugencapaciteit inruilt voor twee GPU's van Nvidia. Daarmee moeten ook zware grafische applicaties bediend worden. Softwarematig draait het systeem op Windows HPC Server 2008 en Red Hat Enterprise Linux 5 met extra toevoegingen van Bull zelf.

Maar het bedrijf is vooral trots op de backendarchitectuur, die het bedrijf voor het eerst sinds 2002 zelf heeft ontwikkeld. Toen werd het laatste Itaniumsysteem van Bull ontwikkeld, zo legt Gerard Brok van Bull Nederland uit. "We hebben vervolgens een pauze ingelast om over te stappen van Itanium naar uiteindelijk de Xeonarchitectuur, en hebben we dat deel overgelaten aan derden." De interconnect tussen de verschillende blades is gebaseerd op een Infiniband Switch Module (ISM), terwijl het netwerk draait op een Ethernet Switch Module (ESM) van 1 Gb.

Dat is volgens Bull System Engineer Ronald van Pelt gedaan om juist daar bottlenecks te voorkomen. "Je hebt helemaal niets aan rekenkracht als de verschillende onderdelen van de HPC de informatie niet snel door kunnen geven", zegt Van Pelt. "We hebben op dat gebied geen concessies gedaan." Bron: Techworld