Google biedt gebruikers de mogelijkheid om een pornofilter aan te zetten waardoor bijvoorbeeld kinderen veilig van de zoekmachine gebruik kunnen maken. Uit een studie van de Hardvard Law School blijkt nu dat er te veel onschuldige websites worden uitgefilterd. De sites worden door SafeSearch automatisch beoordeeld op inhoud en de url van de pagina's. Websites die gebruikmaken van het bestand robots.txt, dat zoekspiders aangeeft welke pagina's van een website niet `gespidered' moeten worden, worden hierbij automatische geblokkeerd. Google heeft hiervoor gekozen omdat de zoekmachine bij het gebruik van robots.txt pagina's niet meer kan beoordelen op de inhoud. En dat is belangrijker, vindt Google. Door het negeren van websites met robots.txt wordt ongeveer 11 procent van de onderzochte sites tegengehouden door Google SafeSearch, aldus CNet. Daarbij zaten ook webpagina's van onder meer de BBC, IBM en Apple. Maar ook duizenden sites zonder robots.txt-bestanden worden tegengehouden vanwege `foute advertenties' of bepaalde trefwoorden in artikelen. Google is op de hoogte van de strenge beoordeling van websites door SafeSearch, maar ziet dit niet als een probleem. "SafeSearch is bedacht als een opt-in functionaliteit", verklaart een woordvoerder van de zoekmachine. "Mensen die kiezen voor deze opt-in vinden het erger dat een `foute site' toch wordt getoond, dan dat een `goede' site wordt tegengehouden."