Case study: AEO-score verbeteren van 30 naar 85
De uitgangssituatie: een onzichtbare website
Toen dit B2B-softwarebedrijf uit Utrecht voor het eerst zijn website liet scannen op AI-gereedheid, was de score teleurstellend: 30 van de 100. De website had een modern design en trok redelijk organisch verkeer via Google, maar was nagenoeg onzichtbaar voor AI-modellen. ChatGPT noemde het bedrijf niet bij relevante vragen over hun niche. Perplexity verwees naar concurrenten. Google AI Overviews toonde content van andere bronnen.
De oorzaken waren veelzijdig maar niet ongebruikelijk. De website miste Schema.org markup volledig. Er was geen llms.txt bestand aanwezig. De robots.txt blokkeerde verschillende AI-crawlers. De content was primair geschreven voor menselijke bezoekers, zonder aandacht voor machine-leesbaarheid. De heading-hierarchie was inconsistent en FAQ-secties ontbraken.
Dit profiel komt overeen met wat we zien bij de meerderheid van Nederlandse zakelijke websites. Zoals we beschrijven in ons artikel over AEO en waarom het belangrijk is, is de kloof tussen SEO-gereedheid en AI-gereedheid bij de meeste organisaties nog groot. De goede nieuwsboodschap: die kloof is met een gestructureerde aanpak in relatief korte tijd te dichten.
Het bedrijf in deze case study is een SaaS-leverancier met circa 50 medewerkers, actief in de supply chain sector. Om vertrouwelijkheidsredenen gebruiken we niet hun echte naam. Alle cijfers en resultaten zijn authentiek.
Week 1 tot 3: de technische basis leggen
De eerste drie weken stonden volledig in het teken van technische optimalisatie. Het team begon met de laagdrempeligste verbeteringen die de grootste impact zouden hebben op de AI-leesbaarheid van de website.
Robots.txt openstellen voor AI-crawlers
De bestaande robots.txt blokkeerde GPTBot, ClaudeBot en PerplexityBot. Dit was waarschijnlijk een standaardinstelling van hun CMS-plugin voor bot-beveiliging. Het team verving de blokkeerregels door expliciete toestemming voor de belangrijkste AI-crawlers, met rate-limiting om overbelasting te voorkomen.
# Oude robots.txt (blokkeerde AI)
User-agent: GPTBot
Disallow: /
User-agent: ClaudeBot
Disallow: /
User-agent: PerplexityBot
Disallow: /
# Nieuwe robots.txt (verwelkomt AI)
User-agent: GPTBot
Allow: /
Crawl-delay: 2
User-agent: ClaudeBot
Allow: /
Crawl-delay: 2
User-agent: PerplexityBot
Allow: /
Crawl-delay: 2Voor een volledig overzicht van hoe je robots.txt configureert voor AI, verwijzen we naar ons artikel over robots.txt voor AI. Het correct instellen van dit bestand was de eerste en meest directe stap naar AI-zichtbaarheid.
Schema.org markup implementeren
Het team implementeerde Organization schema op de homepage, Article schema op alle blogposts en FAQPage schema op de vijf meest bezochte productpagina's. De markup werd gevalideerd met de Google Rich Results Test en de Schema Markup Validator.
De impact van structured data op AI-citaties wordt vaak onderschat. In ons artikel over Schema.org markup leggen we uit hoe deze gestructureerde data werkt als een universele taal tussen je website en AI-modellen.
Een llms.txt bestand aanmaken
Het team creeerde een llms.txt bestand in de root van de website met een beknopte beschrijving van het bedrijf, zijn kernexpertise en de belangrijkste pagina's. Dit bestand fungeert als een visitekaartje voor AI-modellen en helpt hen om snel te begrijpen waar de website over gaat.
Week 4 tot 6: contentstructuur verbeteren
Met de technische basis op orde verschoof de focus naar de content zelf. Het team identificeerde drie prioriteitsgebieden: heading-hierarchie, FAQ-secties en interne linkstructuur.
- Alle pagina's kregen een consistente heading-hierarchie met precies een H1, logische H2-secties en H3-subsecties waar nodig.
- De tien belangrijkste productpagina's en blogposts kregen elk een FAQ-sectie met vijf tot acht veelgestelde vragen, voorzien van FAQPage schema.
- De interne linkstructuur werd versterkt met contextrijke anchorteksten die AI-modellen helpen om de relaties tussen pagina's te begrijpen.
- Elke blogpost kreeg een gestructureerde samenvatting aan het einde met de vijf belangrijkste punten.
- De leesbaarheidsscore van alle kernpagina's werd verbeterd tot een Flesch-Douma score boven de 50.
Het verbeteren van de heading-hierarchie had een verrassend groot effect. Zoals we uitleggen in ons artikel over heading-hierarchie voor mens en machine, gebruiken AI-modellen headings als primaire navigatie door je content. Een inconsistente hierarchie kan ertoe leiden dat hele secties worden overgeslagen.
Begin met het verbeteren van je best presterende pagina's. Deze hebben al bewezen verkeer en relevantie. Door ze AI-gereed te maken, vergroot je de kans op snelle resultaten die het draagvlak voor verdere optimalisatie versterken.
Week 7 tot 9: E-E-A-T signalen versterken
De derde fase richtte zich op het versterken van de expertise- en autoriteitssignalen die AI-modellen gebruiken om bronnen te beoordelen.
- Elke blogpost kreeg een auteurspagina met bio, foto, LinkedIn-profiel en relevante certificeringen.
- Het bedrijf publiceerde drie diepgaande whitepapers over supply chain optimalisatie, elk voorzien van uitgebreide bronvermeldingen.
- Bestaande klantcases werden herschreven met concrete cijfers en meetbare resultaten in plaats van vage testimonials.
- De "Over ons" pagina werd uitgebreid met bedrijfsgeschiedenis, team-expertise en brancheverenigingen.
- Elke productpagina kreeg een sectie "Onderzoek en methodologie" die de wetenschappelijke basis van de software beschreef.
E-E-A-T optimalisatie is geen eenmalige actie maar een doorlopend proces. In ons artikel over E-E-A-T optimalisatie voor AI beschrijven we hoe je elk van de vier pijlers systematisch kunt versterken.
Week 10 tot 12: meten, bijsturen en resultaten
De laatste drie weken stonden in het teken van monitoring en fijnafstelling. Het team gebruikte wekelijkse AEO-scans om de voortgang te meten en prioriteiten bij te stellen.
De scoreontwikkeling
Week 0: AEO-score 30 | Agent-Readiness 22 | Totaal 27
Week 3: AEO-score 48 | Agent-Readiness 55 | Totaal 51
Week 6: AEO-score 62 | Agent-Readiness 68 | Totaal 64
Week 9: AEO-score 74 | Agent-Readiness 78 | Totaal 76
Week 12: AEO-score 85 | Agent-Readiness 82 | Totaal 84
Grootste sprongen:
Robots.txt + llms.txt (week 1-2): +18 punten Agent-Readiness
Schema.org markup (week 2-3): +12 punten AEO-score
FAQ-secties + heading fix (week 5): +10 punten AEO-score
E-E-A-T versterking (week 8-9): +8 punten AEO-scoreConcrete resultaten na twaalf weken
- ChatGPT citeerde het bedrijf bij 4 van de 10 geteste niche-vragen, tegenover 0 van de 10 voor de optimalisatie.
- Perplexity verwees naar de website bij 6 van de 15 relevante queries.
- Google AI Overviews toonde content van de website bij 3 supply chain gerelateerde zoekopdrachten.
- Het organische verkeer naar de blog steeg met 34% door de verbeterde contentstructuur.
- De gemiddelde tijd op de pagina nam toe met 28%, mede door de FAQ-secties en verbeterde leesbaarheid.
De fouten die ze maakten (en wat jij kunt vermijden)
Het traject verliep niet foutloos. Het team maakte enkele misstappen waarvan je kunt leren.
In de eerste week implementeerde het team Schema.org markup met een WordPress-plugin zonder de output te valideren. De plugin genereerde ongeldige JSON-LD met ontbrekende verplichte velden. Het duurde twee weken voordat iemand dit opmerkte via de Google Rich Results Test. Les: valideer markup altijd direct na implementatie.
Daarnaast focuste het team aanvankelijk op het toevoegen van FAQ-secties aan alle pagina's tegelijk. Dit leidde tot oppervlakkige vragen en antwoorden die weinig waarde toevoegden. Na bijsturing richtten ze zich op vijf kernpagina's met diepgaande, relevante FAQ's. Les: kwaliteit boven kwantiteit, vooral bij FAQ-content.
Ten slotte vergat het team om de interne links te updaten na het herschrijven van pagina's. Oude anchorteksten verwezen naar verouderde secties die niet meer bestonden. Les: behandel interne links als onderdeel van elke content-update.
De grootste winst zat niet in een enkele maatregel, maar in de combinatie van technische optimalisatie, contentverbetering en E-E-A-T versterking. Elk element versterkt de andere.
Verdiep je verder: Schema.org markup: de taal die AI begrijpt | E-E-A-T optimalisatie voor AI | Google AI Overviews en de zoekresultaten
Samenvatting
- Een AEO-score van 30 naar 85 is haalbaar in twaalf weken met een gestructureerde aanpak die techniek, content en autoriteit combineert.
- De snelste winst komt van technische verbeteringen: robots.txt openstellen, Schema.org implementeren en een llms.txt bestand aanmaken.
- Contentverbeteringen zoals heading-hierarchie, FAQ-secties en samenvattingen vormen de tweede golf van scoreverbetering.
- E-E-A-T signalen zoals auteurspagina's, bronvermeldingen en concrete cases versterken het vertrouwen dat AI-modellen in je website hebben.
- Valideer elke technische wijziging direct en focus op kwaliteit boven kwantiteit bij contentoptimalisatie.
Veelgestelde vragen
Hoe lang duurt het voordat AEO-verbeteringen effect hebben?
Technische verbeteringen zoals robots.txt en Schema.org markup hebben binnen dagen tot weken effect, omdat AI-crawlers je website regelmatig opnieuw bezoeken. Contentverbeteringen hebben een langere doorlooptijd van twee tot zes weken, afhankelijk van hoe snel AI-modellen je gewijzigde content opnieuw indexeren. E-E-A-T signalen bouwen geleidelijk op en tonen hun volle effect doorgaans na acht tot twaalf weken.
Is een score van 85 het maximum dat haalbaar is?
Nee, een score van 100 is theoretisch mogelijk maar in de praktijk uitzonderlijk. De meeste goed geoptimaliseerde websites scoren tussen de 75 en 90. Een score boven de 85 vereist vrijwel perfecte technische implementatie, uitstekende content en sterke E-E-A-T signalen. Het verschil tussen 85 en 95 vergt doorgaans disproportioneel meer inspanning dan het verschil tussen 30 en 85.
Kunnen we deze resultaten repliceren zonder technische kennis?
De meeste technische stappen zijn uitvoerbaar met basis CMS-kennis en de juiste plugins of tools. Schema.org markup kan via plugins worden toegevoegd. Het aanpassen van robots.txt is een eenvoudige bestandswijziging. De content-gerelateerde verbeteringen vereisen geen technische kennis maar wel redactionele discipline. Voor complexere implementaties zoals custom JSON-LD of geautomatiseerde validatie is technische ondersteuning aan te raden.
Wat als mijn website op een ander CMS draait dan WordPress?
De principes zijn CMS-onafhankelijk. Of je nu WordPress, Shopify, Drupal, een headless CMS of een custom oplossing gebruikt, de fundamentele stappen blijven hetzelfde: robots.txt configureren, Schema.org markup implementeren, content structureren en E-E-A-T signalen versterken. De specifieke implementatie verschilt per platform, maar de strategie is universeel toepasbaar.
Hoe meten we of AI-modellen onze website daadwerkelijk citeren?
Er zijn verschillende methoden om AI-citaties te monitoren. De eenvoudigste is om regelmatig relevante vragen te stellen aan ChatGPT, Perplexity en Gemini en te controleren of je website als bron wordt genoemd. Geavanceerdere monitoring is mogelijk via tools die AI-citaties automatisch tracken. Daarnaast kun je in je serverlogboeken zoeken naar bezoeken van GPTBot, ClaudeBot en PerplexityBot om te verifieren dat je website wordt gecrawld.
De reis van een AEO-score van 30 naar 85 is geen sprint maar een gestructureerde marsroute. Elke stap bouwt voort op de vorige en het cumulatieve effect overtreft de som der delen.
Hoe scoort jouw website op AI-gereedheid?
Krijg binnen 30 seconden je AEO-score en ontdek wat je kunt verbeteren.