Mensen die iets op internet zetten en niet willen dat die bestanden door zoekmachines worden geïndexeerd, kunnen dat doen door het bestand `robots.txt' op hun webserver te zetten. Zoekmachines indexeren in dat geval de `achterliggende' pagina's niet. Bij het indexeren van bijna 4 miljoen https-pagina's negeerde Google het document robots.txt echter. Als gevolg daarvan kwam allerlei privacygevoelige informatie via Google op straat te liggen. Met enige moeite bleek het bovendien mogelijk rechtstreeks toegang te krijgen tot betaalde informatie. De zoeksite Voelspriet slaagde er bijvoorbeeld in om betaalde software gratis te downloaden. Woordvoerder Nathan Tyler van Google geeft tegenover Voelspriet toe dat er een fout zat in de software van de zoekmachine. "We waren een nieuwe technologie aan het testen." Inmiddels is het probleem opgelost, aldus Tyler. "We hebben de bug opgespoord en alle https-pagina's verwijderd uit de Google-index en de cache."