Google bot?

Het is leuk te weten dat je site wordt gevonden. Meer zelfs, het is leuk te weten dat je site wordt gevonden door mensen die je oprecht willen lezen: medebloggers, sympathisanten, en-ga-zo-maar-door. Via google bijvoorbeeld. En daar gaat het soms mis.

Zoekmachines zoals Google werken met nogal domme programma’s die dagelijks het web afluisteren, pagina’s verzamelen, daar dan informatie extraheren en op basis daarvan je website via ingewikkelde algoritmes zoals pagerank je website tonen in zoekresultaten wanneer die relevant is voor het ingegeven trefwoord. Het grote probleem is dat je dus een pak geluk moet hebben dat je website opduikt waar je hem graag zou willen hebben. In werkelijkheid worden website vaak gewoon “verkeerd geklasseerd”. En dat leidt dan weer tot een hoop frustratie. Enerzijds omdat je website vaker dan niet geen relevant zoekresultaat (signal to noise) vormt, anderzijds omdat jij een hoop mensen over de vloer krijgt die geen fluit geven om wat je schrijft. En in het slechtste geval van de gelegenheid gebruik maken om ook nog eens wat keet te schoppen.

Persoonlijke ervaring: een tijd geleden berichtte ik over de top 10 zoektermen waarmee men mij vond. Het resultaat was op zijn minst ontnuchterend te noemen: ongeveer alle mogelijke constellaties bestaande uit de trefwoorden paradise, hotel en erik of vt4. Een onderwerp waar ik een tijd geleden welgeteld 1 item aan had gewijd. De googlebot kende het potsje een hoge pagerank score toe waardoor het direct zeer hoog eindigde in elk zoekresultaat op die termen. Gevolg: een stroom mensen op zoek naar meer info over de TV show die hier belandden en niet noodzakelijk vonden waar ze naar op zoek waren. Sommigen gingen er zelfs vrij hard tegen aan in de commentaren. Om nog maar te zwijgen van de verbruikte – of verspilde zo u wil – bandbreedte!

Ten lange leste heb ik dan maar de hulp van een robots.txt bestand ingeroepen om de googlebot volledig buiten te houden. Mijn site wordt dus niet langer meer geïndexeerd door Google. En dat valt op zijn beurt weer op in de statistieken:

Maar is dit nu de juiste weg? Uiteindelijk ontloop ik het probleem alleen maar. Niemand vindt mijn site nu nog. Tenzij via links op andere blogs. Zou het gewoon niet mogelijk zijn om de robots te verhinderen om te indexeren op bepaalde trefwoorden? Zou het niet mogelijk zijn om dergelijk gedrag bij te sturen? Het omgekeerde bestaat immers: de metatag laat immers toe om een aantal trefwoorden te specifiëren. Jammer genoeg geraakt de metatag langzaam in onbruik en werd zelfs al dood verklaard!

Het zou anders wel mooi zijn moest er een gemakkelijkere wijze zijn om Google een handje te helpen. Alleen zie ik het technisch zo niet snel gebeuren. Om nog maar te zwijgen over bepaalde ethische kwesties.

2 replies

  • Mijn weblog maak ik in de eerste plaats voor mezelf, daar kan ik mijn ding in kwijt als ’t ware. ’t Is natuurlijk leuk als er veel mensen komen kijken en dat wil ik dan ook wel weten (vandaar de teller).
    Of google mijn site vind of niet is ook niet zo belangrijk, als de mensen mij zo vinden hoop ik dat ze er iets aan hebben. Maar ik zal er zeker niet wakker van liggen zenne.
    Greetz,

  • Matthias

    22 december 2005 at 11:01 pm

    Mja, ik natuurlijk ook wel hoor. Maar technology minded als ik ben, durf ik mij ook wel eens dergelijke, eerder praktische vragen te stellen.

    Het gaat er mij niet om dat mensen mij vinden, het gaat er em om dat ze er iets aan hebben.

Commentaar is gesloten