Als de indexatie van zoekmachines in SEO Start niet werkt, kan dit door verschillende problemen komen. In dit artikel leer je mogelijke oorzaken en oplossingen om je website succesvol te laten indexeren.
Google heeft je website nog niet gevonden
Dit is vaak het probleem met nieuwe websites. Geef het een paar dagen (in ieder geval). Is het dan nog steeds niet gelukt, controleer dan of je sitemap geüpload is en goed werkt. Als je nog geen sitemap gemaakt hebt, kan dat het probleem zijn. Je kunt Google ook vragen om je website opnieuw te checken.
Blokkade met robots.txt
Een ander probleem is dat je website is geblokkeerd met een robots.txt. Die is nodig, maar moet wel kloppen. Pas de robots.txt aan zodat je website wel gescand kan worden door zoekmachines.
Een sitemap.xml
Elke website moet een sitemap.xml hebben. Dit is een simpel overzicht waarmee Google ziet hoe je website gelezen moet worden. Plaats dit bestand als je hem nog niet hebt of plaats hem of upload hem voor de zekerheid opnieuw.
Crawl errors
In sommige gevallen kunnen de Google-bots je website of bepaalde pagina's niet doorzoeken (crawlen) en ze daardoor niet indexeren. Kijk of je crawl errors hebt bij Google Webmaster Tools.
Dubbele content
Te veel dubbele content (of duplicate content) op een website kan de zoekmachines in verwarring brengen. Als verschillende URL's op je website de exact zelfde content bieden, dan heb je een dubbele content probleem op je website. Kies 1 pagina die je wilt houden en verwijs de rest door naar deze pagina.
Blokkade door .htaccess
Je .htaccess file is een onderdeel van je website op de server die ervoor zorgt dat je website beschikbaar is op internet. Het is een handig onderdeel, maar kan door verkeerde instellingen ook voorkomen dat crawlers van zoekmachines je website indexeren.
NOINDEX in metatag
Een andere manier om nee te zeggen tegen de Google-robots en dus geen indexatie te krijgen, is noindex metatags. Die zien er vaak zo uit:
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
AJAX/JavaScript problemen
JavaScript en AJAX zijn programmeertalen. Google indexeert ze, maar ze zijn niet zo makkelijk te scannen als HTML. Als je je AJAX-pagina's en JavaScript-pagina's dus niet goed configureert, indexeert Google die pagina's niet.
Je website laadt langzaam
Google houdt niet van websites die een eeuwigheid duren om te laden. Als de crawler grote laadtijden tegenkomt, is de kans groot dat hij je website overslaat.
Downtime van je webhosting
Als Google je website niet kan bezoeken, kan Google je website ook niet indexeren. Dat is natuurlijk logisch, maar kan wel een oorzaak zijn. Houd in de gaten of je webhosting voldoende up is.
Je bent verwijderd van de index
Deze is niet goed. Als je handmatig straf hebt gekregen en daarom bent verwijderd van de index, dan weet je er waarschijnlijk al vanaf. Als je een website hebt met een donker verleden, dan kan het hierdoor komen. Je moet dan erg hard je best doen om weer een plek te krijgen in de zoekmachines.