
Google geeft snelle sites voorrang in ranking
Het zoekalgoritme van Google weegt sinds vrijdag ook de snelheid van een website mee. Een trage site komt dus lager in de zoekresultaten te staan.
Het zoekalgoritme van Google weegt sinds vrijdag ook de snelheid van een website mee. Een trage site komt dus lager in de zoekresultaten te staan.

Google geeft snelle sites voorrang in ranking
Het zoekalgoritme van Google weegt sinds vrijdag ook de snelheid van een website mee. Een trage site komt dus lager in de zoekresultaten te staan.
De Engelstalige zoekmachine van Google (google.com) houdt sinds vrijdag rekening met de laadtijd van websites. Bij een deel van de zoekopdrachten maken sites die snel laden een grotere kans op een hoge ranking. Volgens Google is dat het geval bij circa 1 procent van de zoekopdrachten.
De toevoeging van de factor snelheid aan het zoekalgoritme moet leiden tot meer tevreden gebruikers, meldt Google. Uit eigen onderzoek van de zoekreus blijkt dat internetgebruikers minder tijd besteden op trage sites. Overigens speelt sitesnelheid vergeleken met relevantie maar een marginale rol in het opmaken van de siteranking.
Scripts en afbeeldingen
De snelheid van een site kan van diverse factoren afhangen. Bijvoorbeeld de afstand van de hostingserver tot de eindgebruiker en het gebruik van scripts en afbeeldingen op de site. Zonder het snelheidsalgoritme precies weg te geven, verwijst Google naar tips om de laadtijd te verbeteren.
Niet alle webmasters zijn blij met het aangepaste algoritme, blijkt uit de comments onder de Google-blogpost. "Wat betekent dit voor sites met een hoop foto's of andere elementen die lang moet laden? En wat betekent dit voor sites die advertenties draaien? Die doen er duidelijk langer over dan een simpele site met alleen HTML."
Analytics
Een andere commenter vraagt zich af of webmasters met Google Analytics, dat sites ook langzamer maakt, hierdoor ook hun huidige posities verliezen in de ranking. "Dat zou de ultieme ironie zijn."
Google-engineer Matt Cutts vertelt in februari 2010 al over de plannen om sitesnelheid op te nemen in het zoekalgoritme:
Als jij dat wel weet moet jij dat kunnen bewijzen.
Hoe kan jij het bewijzen als je nooit de code voor je ogen hebt gehad?
Gepubliceerde algoritme is de code niet.
Wat zijn jullie toch naïef.
Dat komt omdat de domeinnaam een hele hoge factor heeft in de ranking-formule. Je kunt nog zo een bagger-website hebben, als jouw domeinnaam precies overeen komt ("www" ervoor en jouw landcode erachter) met de zoekopdracht heb je grote kans dat je vrij hoog komt.
Misschien komen al die minnetjes omdat je overduidelijk totaal niet weet waar je het over hebt en volslagen onzin uitkraamt.
Het algoritme dat nu aangepast is, is het Organische algoritme.
Die plekken worden niet verkocht.
De gesponsorde links worden wel verkocht. (Google Adwords). Daar is het al lang zo dat laadtijd, relevantie en goede landingspagina's van belang zijn voor je klikkosten ( = Google KwaliteitsScore).
Dat is handig van Google.
Nu gaan site bouwers de Google spiders bevoordelen met snellere pagina's dan de gebruikers en dat scheelt Google weer in het aantal spiderende machines dat ze moeten inzetten.
Ook zal Google wel vooral goed gemeten hebben dat hun advetentieservers sneller zijn dan die van de concurrentie (ze hebben ten slotte veel meer datacentra die dus vaak dichter bij de eindgebruikers zitten) zodat sites met advertenties van Google iets sneller zijn en dus hoger ranken dan sites met advertenties van concurrenten.
Webwereld is 1 van de slechts gebouwde slome ICT sites die ik ooit ben tegen gekomen.
En dan laten zo ook nog de actuele delen hun site cachen die nooit gecached zouden moeten worden.
BINGO!
Het is aan google om haar strategie zelf te bepalen hoe ze wil. Het is aan
iedere gebruiker om te beslissen of ze er gebruik van wil maken of niet.
Google is geen filantropische instelling of publiek bezit.
Google verandert niets aan het bestaansrecht van sites.
Haha overdrijven is ook vak :)
Google censureert inderdaad, maar om dit nou onder censuur te scharen...
Dat maakt Google zelf wel uit denk ik zo. En ik vermoed dat Google haar zoekalgoritmes optimaliseert op een manier waarmee ze concurrerende zoekmachines voor kunnen blijven.
Wanneer Google faalt lopen de gebruikers vanzelf weg naar de concurrent. Niet druk over maken dus.
Je wijt er een heel p.s. aan dus blijkbaar maak je je er wel druk om.
Niemand dwingt je om Google te gebruiken. Dan gebruik je toch lekker Yahoo of Bing of whatever. Google != internet.
Er zullen in de komende jaren nog zoveel meer websites bij komen, dat kunnen we ons gewoon niet voorstellen. Dus moet Google wel steeds strenger filteren (dit is pas het begin). Ook heeft Larry Page heeft gesteld dat internet net zo snel moet zijn als een (papieren) magazine. Wie het hier niet mee eens is moet Google inruilen voor een andere zoekmachine.
Het is niet aan Google om te bepalen hoe wij het internet ervaren (welke website we bezoeken, de snelheid van deze website, etcetera). Het is aan Google om ons te faciliteren bij het zoeken naar informatie. Meer niet.
Je mag best tips geven over zoekopdrachten en surfgedrag, en je mag ook best aangeven hoe betrouwbaar een website is en/of hoe snel een website is, maar sorteren op basis van die factoren lijkt me niet helemaal de bedoeling. Dat neigt steeds meer naar opdringen in plaats van faciliteren.
en als je op basis van query 20 gelijkwaardig relevante resultaten
krijgt dan sorteren ze die op basis van snelheid....harstikke handig dus!
Van meer hits word een site trager, dus komtie lager in de results ...
Ik ben er op zich als programmeur voor dat prutsende "collega's" gestraft worden, maar dit slaat echt nergens op. Het doel van een zoekmachine is datgene vinden wat je zoekt, en of het beste resultaat nou 1 of 10000 miliseconden moet laden dat boeit dan niet. Google verweeft hierbij m.i. twee categorieen die niks met elkaar te maken hebben, en dat is domweg fout. Laat dan "bekende langzame sites" vergezeld gaan van een icoontje ofzo als waarschuwing, maar laat je ranking er niet door beinvloeden. 100% fout.
Jammer genoeg is het internet geen Duitse Autobahn, met mijn glasvezel verbinding kan ik knipperen met groot licht wat ik wil, maar krijg nog steeds geen voorrang :D
Dat was vast ironisch bedoeld, WW is bij tijd en wijlen zo traag dat je gaat kijken of je op een 1200 baud modempje met internet verbonden bent.
Geen idee waarom een IT nieuwssite zo slecht kan performen, maar misschien moeten ze eens een kijkje in de keuken geven zodat we 'open source' de situatie voor hun en ons kunnen oplossen.
Maar dat maakt deze categorieën niet meteen minderwaardig ten opzichte van de overige weggebruikers die wel harder mogen. Sterker nog, vrachtauto's en bussen kunnen in veel opzichten vele malen belangrijker zijn. Hoe dan ook, ze hebben allemaal een bestaansrecht en tevens het recht om op de verschillende wegen te rijden.
Google vind vrijwel alles waar ik naar op zoek ben, het zij met simpele teksten, het zij met wat intensiever speurwerk. Hoe snel de website is waar ik mijn benodigde informatie weghaal is niet relevant. Evenmin boeit het me ook 0,0 hoe een website er uit ziet. Ik zoek informatie, niet mooie plaatjes en snelheid.
Jep maar langzame auto's (aanhangers), bussen en vrachtauto's morgen maar 80 en horen dus rechts te rijden
Ik zie hier geen toegevoegde waarde in. Dit zou hetzelfde zijn als snelle auto's voorrang moeten geven ten opzichte van langzame auto's. Ongeacht de specs en topsnelheid hebben alle auto's evenveel bestaansrecht en het recht om op dezelfde wegen te rijden.
Als alles zo 1 op 1 een kwestie van oorzaak en gevolg zou zijn, dan zit daar wel wat in. Maar er spelen natuurlijk meer zaken mee.
Meer hits op een site kan de site ook meer inkomsten opleveren en dus fondsen voor een nog dikkere pijp. Je kan op dezelfde manier dus "vaststellen" dat dit de snelle sites onevenredig bevoordeeld...
Waarschijnlijk is het netto effect voor de sites nihil, maar ik weet wel zeker dat dit voor de gemiddelde zoeker een voordeel is als de snellere sites bovenaan komen. Je zal sneller vinden wat je zoekt (elementaire wachtrij-theorie).
Natuurlijk was dat grappig bedoeld. Kom op zeg.
Dit werkt als loadbalancer.
Snelle websites komen bovenaan en worden meer bezocht. Hierdoor worden ze meer belast. Trage websites worden minder bezocht en worden door de lagere belasting sneller.
Ik weet niet of het grappig bedoeld was maar als ik Webwereld in Google intyp, is het eerste resultaat webwereld.nl
lol kruip maar snel weer onder de steen waar je vandaan bent gekomen.
selthae, het gaat niet om het "de site wel of niet te vinden is", alles is met enige moeite te vinden. Het gaat om het prioriteren (lees HET FILTEREN) van informatie naar je eigen hand.
Als je weet dat Joe The Plumber niet verder kijkt dan de eerste 10-60 zoekresultaten dan kan je hem vanuit de dominerende zoekmachine alles voorschotelen wat je wilt.
Het gaat Google niet meer om de informatie zelf maar om verkoop van de plekken 'onder de zon'. Wie meer betaald komt hoger te zitten. Zeg eens eerlijk, zit jij hierop te wachten dat het voor jou beslist wordt wat je wel en wat niet mag vinden op het Internet?
Dit verschilt niet veel met zogenaamd "vrije pers" waar de redacteuren naar de eigenaren luisteren en de eigenaren naar best betalende partijen hun oren laten hangen.
Sterker nog, dit is vele malen zwaarder omdat Google ongekende bereik heeft t.o.v. bijvoorbeeld De Telegraaf, the NY Times of Pravda van mijn part.
Van begin af was het Internet vrij in de zin van meningsuiting. Nu kan je van alles uitten, maar als Google het niet wilt blijf je roepende in de woestijn.
Ik hoop dat mensen het ooit zich gaan realiseren. Zo niet - eigen schuld dikke bult.
P.S.: Ik weet niet wie er zoveel moeite neemt om mijn uitspraken hier zover te downgraden, maar het lijkt naar een gerichte zwartmakerij, gezien het totale aantal waarderingen hier.
Niet dat het mij op een of andere manier beïnvloedt of zo, maakt me niet zoveel uit.
Potverdorie je bent me voor.
Ik wilde schrijven dat binnenkort Webwereld niet meer te vinden is via Google.... :-)
Nee hoor, Google zegt al jaren.. de website is van de webmaster/eigenaar en de zoekmachine is van ons. Verder geven Google en Yahoo aardig was suggesties voor snellere sites.
Fijn. Als ik op zoek ben naar simpele informatie (laten we zeggen: de sterfdatum van een bekende Nederlander of het telefoonnummer van mijn tandarts) dan wil ik dat op google kunnen intypen en in de eerste 5 hits de pagina selecteren waarop de informatie staat. Het komt mij nog te vaak voor dat ik dan een pagina aanklik die ontiegelijk traag laadt...
Een lagere pagerank betekent niet dat een site niet meer via Google te vinden is. En zelfs als Google besluit een site niet in haar index op te nemen, is die site via andere methoden alsnog te vinden.
Google is net zo min de enige ontsluiter van informatie als dat IE de enige browser is.
De werking en techniek van welke grootschalige zoekmachine dan ook is niet voor de normale (lees: niet ict) te begrijpen. Het interesseert ze ook niet, zolang ze de informatie maar vinden.
"gebrek aan kennis" van wat?
Vandaar dat ik Webwereld nooit via Google vind....
SitePerformance maakt al enige tijd deel uit van Google's "Webmaster Tools":
[Link]
Nee, een duidelijk gebrek aan kennis...
Sarcasme? eerder de blote waarheid.
Dat is sarcasme, toch?
Sarcasme werkt niet zo goed in tekst.
Eindelijk!
Een niet verhulde censuur van Google.
Hiervoor was het allemaal versluierd achter allerlei excuus die de normale bevolking niet kon begrijpen.
Nu moet het iedereen eindelijk duidelijk worden dat Google onze toegang tot informatie zwaar censureert, i.e. naar eigen hand zet.
Je moet je site dus op een server zitten van je doelgebied. Host je in de usa voor de Nederlandse markt heb je dus een nadeel.
Merk zelf dat bijv een webserver met lightspeed en joomla er op razendsnel is. Dit is hosting in DE. Dezelfde site loopt ook zonder litespeed op een nederlandse vps en is daar stukken tragen.
Op zich zit er wel wat in het argument voor snel laden van een website. sommige shops zijn bijv super traag.
Reageer
Preview