De Europese Organisatie voor Nucleair Onderzoek (CERN) gebruikt virtualisatiesoftware Hyper-V van Microsoft en de Xen-uitvoering van Red Hat. Daar overheen legt het beheerprogrammatuur van de Canadese leverancier Platform Computing.

CERN gebruikt al diens gridsoftware voor het verdelen van rekentaken over diverse supercomputers. Het Zwitserse onderzoekslab, vooral bekend van de deeltjesversneller LHC, koppelt die supercomputeromgeving (high perfomance computing, hpc) nu aan een private cloud, compleet met infrastructuurdiensten.

Self-service

Wetenschappers kunnen in die cloud niet slechts rekenklussen indienen om die te laten draaien. Dat kan nu al in het CERN-grid. De private cloud moet onderzoekers meer eigen mogelijkheden geven, waaronder het opstellen en beheren van rekenklussen.

De gebruikers krijgen echter niet een volledige self-service interface zoals bijvoorbeeld Amazon biedt voor diens rekencloud EC2. CERN biedt de wetenschappers enkele voorgeconfigureerde virtuele machines; complete pakketten van besturingssysteem, compilers en andere softwaretools. Veel wetenschappers zijn immers geen ict'ers, dus hebben geen kennis van of behoefte aan diepgaand ict-beheer.

Efficiënter

"Onze gebruikers willen altijd meer rekenkracht, zodat ze één scenario extra kunnen evalueren, of net dat ene ding nog kunnen uitproberen", vertelt ict-manager Tony Cass van CERN aan Networkworld.com. "Des te meer cpu-cycles we kunnen persen uit de vastliggende hoeveelheid ict-middelen die we hebben, des te meer onderzoek onze gebruikers kunnen doen."

Daarvoor wordt dus de bestaande gridomgeving gekoppeld aan een heterogene omgeving waarin zowel virtuele machines als fysieke servers en supercomputers worden beheerd. CERN wil hiermee niet alleen de eigen ict-efficiency verhogen, zegt Cass. Het wil met deze cloud ook een flexibeler geheel neerzetten, zodat het een onderzoeksomgeving biedt die meekan met veranderende eisen van de gebruikende wetenschappers.

15 petabyte per jaar

De CERN-cloud moet grote hoeveelheden informatie kunnen verwerken. Er komt jaarlijks zo'n 15 petabyte aan wetenschappelijke data binnen. De verwerking daarvan levert een veelvoud op; des te meer modellen en scenario's, des te meer gegenereerde nieuwe data. Hierbij is realtime toegang tot de data van toenemend belang voor wetenschappers.