Indexering
Het opslaan en catalogiseren van webcontent door zoekmachines zodat deze vindbaar wordt.
Indexering is het proces waarbij een zoekmachine de gecrawlde content analyseert, categoriseert en opslaat in haar database (de index). Alleen geïndexeerde pagina's kunnen verschijnen in zoekresultaten.
Indexering versus crawling
Crawling — bibliotheekterm en indexering zijn twee aparte stappen. Een pagina kan gecrawld worden zonder geïndexeerd te worden, bijvoorbeeld als de content te dun is, als er een noindex-tag aanwezig is, of als de pagina een duplicaat is van bestaande content.
Indexeringsproblemen oplossen
Veelvoorkomende indexeringsproblemen zijn: pagina's die geblokkeerd worden door robots.txt — bibliotheekterm, noindex-tags die per ongeluk zijn geplaatst, canonical tags die naar de verkeerde URL wijzen, en server-errors die crawlers blokkeren. Google Search Console is het belangrijkste hulpmiddel om indexeringsproblemen te diagnosticeren.
Top 10 indexeringsproblemen met oplossing
| # | Probleem | Symptoom | Oplossing |
|---|---|---|---|
| 1 | Noindex-tag per ongeluk geplaatst | Pagina verschijnt niet in zoekresultaten ondanks crawling | Controleer de HTML-head op <meta name="robots" content="noindex"> en de HTTP-header X-Robots-Tag. Verwijder de noindex-directieve en vraag herindexering aan. |
| 2 | Geblokkeerd door robots.txt | Google toont "Geblokkeerd door robots.txt" in Search Console | Controleer je robots.txt op Disallow-regels die de pagina blokkeren. Pas de regels aan zodat Googlebot de pagina kan bereiken. Let op: robots.txt blokkeert crawling, niet indexering. Een pagina die gelinkt wordt kan alsnog verschijnen, maar zonder content. |
| 3 | Verkeerde canonical tag — bibliotheekterm | De verkeerde versie van een pagina verschijnt in zoekresultaten | Controleer of de canonical tag naar de juiste URL wijst. Zorg dat de canonical-URL overeenkomt met de URL in je sitemap — bibliotheekterm en interne links — bibliotheekterm. Vermijd conflicterende canonicals tussen pagina's. |
| 4 | Duplicate content | Meerdere pagina's met (bijna) dezelfde content, slechts een verschijnt in de index | Gebruik canonical tags om de voorkeurs-URL aan te geven. Consolideer vergelijkbare pagina's of creeer unieke content per pagina. Vermijd URL-variaties (met/zonder trailing slash, met/zonder www). |
| 5 | Dunne content | "Gecrawld, momenteel niet geindexeerd" in Search Console | Voeg substantiele, unieke en waardevolle content toe aan de pagina. Google indexeert pagina's met te weinig of te generieke content soms bewust niet. |
| 6 | Server errors (5xx) | Crawl-fouten in Search Console, pagina's verdwijnen uit de index | Los server-problemen op (overbelasting, configuratiefouten, time-outs). Monitor server-uptime. Zorg dat pagina's consistent een 200-statuscode teruggeven. |
| 7 | Orphan pages | Pagina's worden niet gecrawld omdat er geen interne links naartoe wijzen | Voeg interne links toe vanaf relevante pagina's. Neem de URL op in je XML-sitemap. Zorg dat de pagina bereikbaar is vanuit je site-navigatie. |
| 8 | Redirect-loops | Pagina A verwijst naar B, B verwijst terug naar A | Controleer alle redirects op loops en ketens. Zorg dat elke redirect direct naar de definitieve URL wijst. Gebruik een tool als Screaming Frog om redirect-problemen in kaart te brengen. |
| 9 | JavaScript-rendering problemen | Content is zichtbaar in de browser maar niet in de door Google gecachte versie | Implementeer server-side rendering — bibliotheekterm (SSR) of pre-rendering voor belangrijke content. Test met Google's URL-inspectietool of de Rich Results — bibliotheekterm Test hoe Google je pagina ziet. |
| 10 | Hreflang — bibliotheekterm-fouten | Verkeerde taalversie verschijnt in zoekresultaten per land | Controleer of hreflang-tags correct zijn: bidirectionele verwijzingen, juiste taalcodes, self-referencing tag aanwezig. Gebruik een hreflang-validator om fouten op te sporen. |
Google Search Console URL-inspectietool
De URL-inspectietool in Google Search Console is het belangrijkste hulpmiddel voor het diagnosticeren van indexeringsproblemen. Zo gebruik je het effectief:
- URL invoeren: Plak de volledige URL van de pagina die je wilt controleren in de zoekbalk bovenaan Search Console. Je krijgt direct te zien of de URL geindexeerd is.
- Indexeringsstatus controleren: De tool toont of de pagina "Op Google staat", "Niet op Google staat" of "URL is niet geindexeerd". Bij niet-geindexeerde pagina's staat de reden vermeld (noindex, canoniek naar andere URL, gecrawld maar niet geindexeerd, etc.).
- Dekking-details bekijken: Klik op "Dekkingsgegevens" voor de details: welke canonical is geselecteerd, of de pagina is gecrawld, of er een sitemap naar verwijst, en de laatste crawl-datum.
- Live URL testen: Klik op "Live URL testen" om Google de pagina opnieuw te laten ophalen. Dit toont hoe Google de pagina op dit moment ziet, inclusief eventuele rendering-problemen met JavaScript.
- Herindexering aanvragen: Als je wijzigingen hebt aangebracht (noindex verwijderd, content toegevoegd), klik op "Indexering aanvragen". Google plant dan een herbezoek. Let op: dit is een verzoek, geen garantie. Gebruik het spaarzaam.
Veelgestelde vragen
Hoe lang duurt het voordat een nieuwe pagina geindexeerd wordt?
Dit varieert sterk. Nieuwe pagina's op gezaghebbende websites worden soms binnen uren geindexeerd. Op nieuwere of kleinere sites kan het dagen tot weken duren. Je kunt het proces versnellen door de URL in te dienen via de URL-inspectietool in Search Console, de pagina op te nemen in je XML-sitemap, en interne links ernaar te plaatsen.
Wat betekent "Gecrawld, momenteel niet geindexeerd"?
Dit betekent dat Google je pagina heeft gevonden en opgehaald, maar heeft besloten deze (voorlopig) niet in de index op te nemen. Mogelijke redenen: de content is te dun, te vergelijkbaar met bestaande pagina's, of Google acht de pagina niet waardevol genoeg. Verbeter de content, voeg unieke waarde toe en zorg voor sterke interne links naar de pagina.
Kan ik een pagina uit Google's index verwijderen?
Ja, op meerdere manieren. De snelste methode is het plaatsen van een noindex-tag en vervolgens een verwijderingsverzoek indienen via Search Console (URL-verwijderingstool). Je kunt ook een 404- of 410-statuscode retourneren, of de pagina blokkeren met robots.txt (hoewel dit niet altijd tot de-indexering leidt als er externe links naar de pagina wijzen).
Waarom worden sommige pagina's niet geindexeerd ondanks dat ze gecrawld worden?
Google indexeert niet alles wat het crawlt. De meest voorkomende redenen: de content biedt onvoldoende unieke waarde, de pagina is een (near-)duplicaat van een andere pagina, de kwaliteitssignalen zijn te zwak, of Google heeft een andere URL als canonical geselecteerd. Controleer de URL-inspectietool voor de specifieke reden.
Telt het aantal geindexeerde pagina's als SEO-factor?
Niet direct. Meer geindexeerde pagina's is niet automatisch beter. Het gaat om de kwaliteit van de geindexeerde pagina's. Een site met 100 kwalitatieve, relevante pagina's presteert beter dan een site met 10.000 dunne pagina's. Focus op het indexeren van je beste content en het uitsluiten van pagina's zonder waarde.