fbpx
online marketing strategie

Limieten van zoekmachines

3 jaar geledenLeestijd 5 minuten
Onwise » Kennisbank » Limieten van zoekmachines

Limieten van zoekmachines

Een belangrijk aspect van SEO is het begrijpelijk maken van jouw website voor bezoekers en zoekmachines. Ondanks dat zoekmachines steeds intelligenter worden, kunnen ze websites nog altijd niet zien zoals mensen dat kunnen.

Stel je voor dat je online een foto van je hond hebt geplaatst. Een mens zou het kunnen omschrijven als een ‘zwarte, middelgrote hond, ziet eruit als een labrador en is aan het apporteren is in het park’. Een zoekmachine zal echter moeite hebben om deze inhoud te kunnen begrijpen. Hiervoor kan je middels SEO richtlijnen aangeven waarmee je de zoekmachine kan helpen bij het bepalen welke content getoond wordt. Door het toevoegen van aanwijzingen en richtlijnen, wordt inhoud begrijpelijk voor zoekmachines als Google. Door het begrijpen van zoekmachine optimalisatie en het kennen van de mogelijkheden en de beperkingen, is het mogelijk uw web content op de juiste manier in te richten. Zonder SEO kan een website onzichtbaar zijn voor zoekmachines.

De grenzen van zoekmachine technologie

Alle grote zoekmachines werken op dezelfde wijze, zoals uitgelegd in dit artikel. [link naar eerste blog] Echter hebben zoekmachines nog steeds hun technische grenzen. Hieronder een paar voorbeelden:
• Online formulieren en log-ins. Deze zijn lastig te lezen en achtergelegen content is vaak onbereikbaar.
• Gedupliceerde pagina’s. Veel websites maken gebruik van zogenaamde content management systemen (CMS). Enkele van deze systemen dupliceren pagina’s. Een zoekmachine zoekt altijd naar het origineel, maar de mogelijkheid bestaat dat de verkeerde pagina als origineel gezien wordt, waardoor de juiste content wordt geblokkeerd.
• Een slechte linkstructuur. Als een website zijn linkstructuur niet begrijpelijk is voor een zoekmachine kan het zijn dat bepaalde pagina’s niet geïndexeerd worden. Het is van belang om ook aan interne linkbuilding te doen.
• Geblokkeerde code. Wanneer het robot.txt document verkeerd is, dit is een document dat de zoekmachine vertelt welke gedeelten van de website gescand dienen te worden, kan het zijn dat de volledige website wordt geblokkeerd.
• Non-tekstuele content. Ondanks dat zoekmachines zaken als video, afbeeldingen, audio en plug-in content steeds beter begrijpen, is het nog altijd lastig voor ze om dit goed te indexeren.

Wat kan je hieraan doen?

Voor veel van deze problemen zijn meerdere oplossingen mogelijk. Hieronder staat voor elk bovenstaand beschreven punt een oplossing waar jij mee bezig kan.
• Zorg dat belangrijke content niet achter log-in systemen staat. Zet de informatie die jij wil dat geïndexeerd wordt, open op de website.
• Controleer goed of je geen dubbele pagina’s hebt. Als je dit hebt, stel een 301 redirect (een verwijzing) of een canonical (dit geeft aan welke pagina het origineel is) in.
• Gebruik maximaal 3 niveaus op je website. Hierdoor wordt je site niet te diep. Plaats daarnaast in de footer van je website een sitemap. Dit is een pagina met een verzameling van alle pagina’s die op je website te vinden zijn.
• Controleer in Google Search Console of je robot.txt bestand goed gelezen wordt.
• Plaats belangrijke content op je website als tekst. Door afbeeldingen bij te plaatsen visualiseer je de content voor je gebruiker.

Kennis is macht, kennis delen is kracht

Schrijf je in voor onze nieuwsbrief!

  • Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.
Internet marketing bureau

Benieuwd wat online marketing voor jou kan betekenen?

Vul de website scan in en ontdek of je website klaar is voor online succes!

  • Hidden
  • Hidden
  • Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.