Intel gaat de aankondiging volgende maand doen tijdens een conferentie in San Francisco. Veel details zijn nog niet bekend over de chip; het zou dus gaan om een 45nm achtkerner die zestien threads aankan. Waarschijnlijk gaat het om een nieuwe Nehalem-processor, de Nehalem EP, die voor het begin van dit jaar op de rol staat.

En dat terwijl de software nog niet eens met vier kernen om kan gaan, laat staan met acht, iets dat in de toekomst voor zeer grote problemen gaat zorgen, zo waarschuwt Gartner-analist Carl Claunch in een bericht. De aanpassing van software aan wat hij 'de multicore-revolutie' noemt gaat dusdanig traag dat gebruikers in de toekomst voor grote problemen komen te staan.

"Moore's Law is al een tijd geleden veranderd van een situatie waarbij het aantal transistors op een chip verdubbelt, naar eentje waarbij het aantal rekenkernen op een processor verdubbelt", zegt Claunch tegen Techworld. "Dat is op dit moment de meest efficiënte manier om rekenkracht te vergroten, en dus de snelste ontwikkelmethode van chips."

Eigenbelang

De bijkomende problemen worden al breed onderkend. Intel, maar ook onder andere IBM en Microsoft, investeren flink in onderzoek en promotie voor multi-thread programmeren. Dat pushen gebeurt vooral uit eigenbelang; als software de hardware niet kan bijbenen, dan zullen bedrijven hun spullen minder snel vervangen.

Maar investeringen ten spijt, het gaat lang niet hard genoeg. "Zelfs de theorie is nog niet af. Bij universiteiten zijn ze weliswaar druk bezig, en er zijn meerdere kortetermijnsoplossingen zoals het splitsen van applicatieprocessen. Maar niets wijst op een universele, algemene oplossing", zegt Claunch.

Kwaliteit naar de haaien

De overduidelijkste problemen zitten in de overhead en efficiëntie, waarbij niet alle naar bedrijven geduwde hardware optimaal wordt gebruikt en wat afnemers dus geld kost. Maar er loert nog een technisch probleem, dat vooral eindgebruikers parten zal spelen. Hij rekent daarbij voor dat servers met achtkerners in 2009 dus 256 rekenkernen kunnen gaan draaien, en dat het aantal over twee jaar verdubbeld is naar 512.Hij wijst erop dat de gangbare virtualisatiesoftware het huidige maximum van 64 kernen nog niet eens aankan.

"Wat er gaat gebeuren is dat leveranciers van hardware die van software gaan aansporen om hun software sneller te ontwikkelen, en beter aan te passen op de nieuwe rekenkracht", zegt Claunch. "Consequentie is dat afnemers applicaties op een veel korte lifecycle moeten draaien met meer onderhoud en minder ontwikkeltijd. Dat jaagt ze op kosten, en het komt de kwaliteit van de software niet ten goede."

Uiteindelijk, zo verwacht Claunch, zal het probleem zeker opgelost worden. Hij denkt dan aan bijvoorbeeld nieuwe programmeertalen. "Maar het duurt nog wel even, want er is zoals gezegd geen basis om op te werken." Bron: Techworld