AEO STRATEGIE TECHNISCHE SEO 06 apr. 2026 5 min leestijd

Webperformance als fundament voor AI-zichtbaarheid

Reinier Sierag
Reinier Sierag Oprichter Kobalt
Webperformance als fundament voor AI-zichtbaarheid — AEO Strategie

Waarom AI-crawlers afhaken bij trage sites

Ik ga even iets zeggen wat sommige mensen niet willen horen: als je website traag is, maakt de rest niet uit. Niet je content. Niet je schema.org. Niet je prachtige llms.txt. Niets.

Dat klinkt hard. Is het ook. Maar na twintig jaar websites bouwen en onderhouden weet ik dat technische kwaliteit het fundament is van alles wat daarboven komt. SEO, conversies, AI-zichtbaarheid. Het is altijd hetzelfde verhaal. En toch zie ik bij Kobalt nog regelmatig klanten die duizenden euro's investeren in contentoptimalisatie terwijl hun TTFB boven de 2 seconden zit.

Dat is alsof je een huis bouwt op drijfzand en je druk maakt over de kleur van de gordijnen.

AI-crawlers zoals GPTBot, ClaudeBot en PerplexityBot werken anders dan jij en ik. Ze crawlen duizenden pagina's per dag en hebben een intern budget per domein. Traag? Dan worden er minder pagina's gecrawld. Minder pagina's gecrawld? Minder content geïndexeerd. Minder kans op citaties. Klaar.

FEIT

Uit analyse van onze Kobalt-klanten blijkt dat sites met een TTFB boven 1,5 seconde gemiddeld 40% minder diep worden gecrawld door AI-bots dan sites met een TTFB onder 400 milliseconden. Dat verschil vertaalt zich direct in minder AI-citaties.

Core Web Vitals: ook voor AI relevant

Google bedacht Core Web Vitals als kwaliteitssignalen voor de menselijke ervaring. Maar wacht. Is dat eigenlijk wel het hele verhaal? Nee. De onderliggende metrieken meten fundamentele eigenschappen van je pagina die voor machines net zo relevant zijn.

LCP: hoe snel is je hoofdcontent er?

Largest Contentful Paint meet hoe snel je hoofdcontent zichtbaar is. Een AI-crawler die server-side rendering gebruikt, interpreteert een trage LCP als: deze server heeft het zwaar. Of erger: de HTML komt te laat. Een LCP boven de 4 seconden? In mijn ervaring gaat dat vrijwel altijd samen met andere technische problemen die je AI-leesbaarheid ondermijnen.

CLS: het verborgen JavaScript-probleem

Cumulative Layout Shift klinkt als een puur visueel ding. Maar een hoge CLS wijst vaak op JavaScript dat content inlaadt na de initiële HTML-render. En dat is wél een probleem. Want als je kritieke content pas beschikbaar is na JS-executie, is die content onzichtbaar voor crawlers die geen JavaScript uitvoeren. En veel AI-crawlers doen dat niet.

  • Zorg dat je kerninhoud in de server-side gerenderde HTML zit, niet alleen na JavaScript-executie.
  • Test je pagina's met curl of wget. Wat je daar ziet, is wat een crawler zonder JS ontvangt.
  • Vermijd lazy-loading voor content boven de fold of content die essentieel is voor je boodschap.
  • Controleer regelmatig je server-logs op bezoeken van AI-crawlers. Kijk wat ze doen en hoe lang ze blijven.

Wat ik bij Kobalt-klanten tegenkom

Laat ik eerlijk zijn. De meeste prestatieproblemen zijn geen mysteries. Ze zijn het gevolg van jarenlange verwaarlozing. Plugins die niemand meer gebruikt. Afbeeldingen van 4 MB die nooit zijn geoptimaliseerd. Een hostingpakket uit 2018 dat niemand ooit heeft upgraded.

Geen rocket science. Wel structureel werk.

Bij een middelgrote retailer die vorig jaar bij ons aanklopte was de homepage-laadtijd 8,4 seconden. Acht komma vier. Ik heb ooit een hele avond besteed aan het shaven van 12 milliseconden van een TTFB. Mijn vrouw vond het minder indrukwekkend dan ik. Maar 8,4 seconden? Dat is geen optimalisatievraagstuk, dat is een noodgeval.

Na een performance-audit en drie weken werk: 1,2 seconden. De AEO-score steeg in dezelfde periode van 34 naar 61. Niet omdat we iets magisch deden, maar omdat AI-crawlers nu meer pagina's per sessie konden bereiken.

  1. Meet eerst. Lighthouse, WebPageTest of GTmetrix. Je hebt een baseline nodig voordat je kunt verbeteren.
  2. Pak de laaghangende vruchten: afbeeldingen comprimeren, browser caching instellen, onnodige plugins eruit.
  3. Evalueer je hosting. Shared hosting met honderden andere sites is zelden voldoende voor serieuze AI-zichtbaarheid.
  4. Implementeer een CDN. Geografische nabijheid tot de crawler vermindert latency aanzienlijk.
  5. Monitor continu. Performance degradeert zonder aandacht, net als een tuin die je niet bijhoudt.

Performance als AEO-investering

De businesscase voor webperformance was al sterk vanwege conversies en Google-ranking. AI-zichtbaarheid voegt een nieuwe dimensie toe. Een snelle site is niet alleen prettiger voor bezoekers. Het is ook een betere burger in het ecosysteem van AI-indexering. Een goed gebouwde website is als een ecosysteem: alles hangt samen.

Bij Kobalt behandelen we performance niet als een apart project maar als onderdeel van de AEO-baseline. Je kunt nog zo goed schrijven over je expertise. Als een AI-crawler je site na drie pagina's verlaat omdat de server te traag is, kom je nooit in aanmerking voor citaties op de onderwerpen waar je verderop over schrijft.

Soms moet je gewoon de basis op orde hebben voordat je aan de fancy dingen begint.

TIP

Voer maandelijks een Lighthouse-audit uit op je homepage en je vijf belangrijkste landingspagina's. Stel harde drempels in: LCP onder 2,5 seconden, TTFB onder 600 milliseconden, geen render-blocking resources. Behandel overschrijdingen als bugs, niet als wensen.

Veelgestelde vragen

Welke laadtijd is acceptabel voor AI-crawlers?

Streef naar een TTFB onder 400 milliseconden en een volledige paginalaadtijd onder 2 seconden. Dat zijn geen willekeurige getallen. Ze komen overeen met wat zowel Google als onafhankelijk onderzoek aanwijst als de grens waaronder crawlers efficiënt werken. Boven de 2 seconden neemt de crawl-diepte aantoonbaar af.

Heeft JavaScript-rendering invloed op AI-indexering?

Ja, en flink ook. De meeste AI-crawlers voeren geen JavaScript uit, of doen dat maar beperkt. Content die alleen beschikbaar is na JS-executie? Voor die crawlers onzichtbaar. Gebruik server-side rendering of statische HTML voor alles wat je wilt laten indexeren. Test dit door je pagina te bekijken met uitgeschakeld JavaScript.

Is Core Web Vitals verbeteren voldoende voor betere AI-zichtbaarheid?

Performance is noodzakelijk maar niet voldoende. Een snelle site zonder goede contentstructuur, schema.org en E-E-A-T scoort alsnog laag. Zie performance als de drempel die je eerst moet halen. Het is de basis, niet de volledige oplossing. Maar zonder die basis heeft de rest geen zin.

Een AI-crawler heeft geen geduld. Die wacht niet tot je server wakker wordt. Als jij niet snel genoeg bent, crawlt hij door naar je concurrent. Zo simpel is het.

Hoe scoort jouw website op AI-gereedheid?

Krijg binnen 30 seconden je AEO-score en ontdek wat je kunt verbeteren.

Gratis scan

DEEL DIT ARTIKEL

LINKEDIN X

GERELATEERDE ARTIKELEN