AEO STRATEGIE TECHNISCHE SEO 14 apr. 2026 5 min leestijd

Downtime kost je AI-citaties: waarom monitoring essentieel is

Reinier Sierag
Reinier Sierag Oprichter Kobalt
Downtime kost je AI-citaties: waarom monitoring essentieel is — AEO Strategie

AI-crawlers zijn geen geduldige bezoekers

Ik ga het even ongemakkelijk maken. Want ik weet dat de meeste ondernemers monitoring zien als iets voor de IT-afdeling. Iets technisch. Iets saais. Iets dat "de hostingpartij toch regelt."

Nou, laat me je vertellen over die keer dat een klant van ons vier uur downtime had door een servermigratie. Gepland, keurig aangekondigd, alles volgens protocol. Alleen hadden we niet bedacht dat GPTBot precies in dat tijdvenster langskwam.

Het duurde drie weken voordat het citatie-niveau zich had hersteld. Drie weken. Voor vier uur downtime.

Dat is alsof je de voordeur dichtgooit op het moment dat er een scout in het publiek zit. Misschien komt hij terug. Maar waarschijnlijk niet snel.

PRAKTIJK

Bij een Kobalt-klant in de zakelijke dienstverlening zagen we een directe correlatie tussen die geplande migratie-downtime van vier uur en een dip in AI-citaties. Het citatie-niveau herstelde zich pas na drie weken. Vier uur downtime, drie weken herstel. Dat is de rekening.

Hoe AI-crawlers werken (en waarom ze niet wachten)

Een menselijke bezoeker die een foutpagina ziet, komt misschien morgen terug. Een AI-crawler? Vergeet het. GPTBot, ClaudeBot en PerplexityBot werken op schedules. Ze bezoeken je site op vaste intervallen, afhankelijk van hoe vaak je content verandert en hoe populair je domein is.

Als je server op dat moment een 503 teruggeeft, noteert de crawler een mislukking en slaat je pagina over.

Hoe lang het duurt voordat die crawler terugkomt? Voor populaire domeinen: dagen. Voor kleinere sites: weken. Soms een maand.

Elke downtime-episode is een venster dat dichtgaat. En je weet niet eens wanneer het openstond.

Wat goede monitoring er echt uitziet

Ik beheer nu al meer dan twintig jaar hosting-infrastructuur. En ik merk dat ik hier twee dingen door elkaar moet halen: monitoring als technisch iets, en monitoring als business-bescherming. Het is allebei.

Dit is wat ik als minimum beschouw:

  • Check-interval van maximaal 1 minuut voor je homepage en kritieke pagina's. Niet 5 minuten. Niet 15 minuten. Eén minuut.
  • Alerting via meerdere kanalen: SMS of WhatsApp voor kritieke alerts, e-mail voor waarschuwingen. Want als je alleen e-mail gebruikt, lees je het drie uur later.
  • Monitoring vanuit meerdere locaties: een probleem in Amsterdam is niet hetzelfde als een wereldwijd probleem.
  • HTTP-statuscode monitoring: niet alleen ping, maar ook controle op 200 OK versus redirect-ketens die te lang worden.
  • Response time monitoring: een pagina die 8 seconden laadt is voor een crawler functioneel hetzelfde als offline.
  • SSL-certificaat monitoring: een verlopen certificaat gooit AI-crawlers eruit net zo hard als een 503. En ja, ik heb dit meegemaakt. Meer dan eens.

Tools die ik gebruik (en waarom)

De markt is groot, maar dit zijn de tools die ik daadwerkelijk gebruik. Niet omdat iemand me betaalt om ze te noemen, maar omdat ze werken:

  1. UptimeRobot (gratis tier): check-interval 5 minuten, voldoende voor kleine sites. Makkelijk in te stellen, betrouwbaar genoeg om mee te beginnen.
  2. Better Stack: check-interval 30 seconden, meerdere locaties, Slack- en PagerDuty-integratie. Dit is mijn persoonlijke favoriet voor professionele omgevingen.
  3. Grafana Cloud met Synthetic Monitoring: voor teams die al in de Grafana-stack zitten. Krachtig, maar vraagt technische setup.
  4. Cloudflare Health Checks: als je Cloudflare al gebruikt, zijn de ingebouwde checks een logische eerste stap zonder extra kosten.
TIP

Stel ook een monitor in op je robots.txt en llms.txt bestanden. Als die door een server-update verdwijnen of een 404 teruggeven, heeft dat directe impact op hoe AI-crawlers je site benaderen. En het vervelende is: je merkt het niet in je normale analytics. Pas weken later, als je citaties opdrogen.

Wat je hosting-contract moet zeggen

Veel bedrijven kiezen hosting op prijs. Begrijpelijk. Maar bij AEO-optimalisatie wordt uptime een competitief voordeel. Kijk in je contract naar deze punten:

  • 99,9% uptime SLA is het absolute minimum. Dat staat gelijk aan circa 8,7 uur downtime per jaar.
  • 99,95% of hoger is beter. Het verschil klinkt klein, maar bij intensief AI-crawling telt elke episode.
  • Geplande onderhoudsmomenten: zorg dat je provider je tijdig informeert. Dan kun je tenminste monitoren of de downtime binnen het venster valt.
  • Compensatie bij SLA-schending: een provider die betaalt bij te veel downtime heeft een prikkel om het serieus te nemen.

Goedkope shared hosting met een vage "uptime-garantie" zonder SLA is niet geschikt voor een site die serieus aan AI-zichtbaarheid werkt. Dat is geen verkoopverhaal. Dat is wiskunde.

Bij Kobalt helpen we klanten bij het kiezen van hosting die past bij hun ambities. Niet altijd de duurste, maar altijd de juiste.

Vier uur downtime op het verkeerde moment kost je meer dan vier weken AEO-optimalisatie oplevert. Monitoring is geen overhead. Het is bescherming van je investering. En als je daar anders over denkt, bel me nadat je eerste AI-citatie-dip.

Veelgestelde vragen

Hoe vaak crawlen AI-modellen mijn website?

Dat is niet publiek gedocumenteerd en verschilt per crawler en per site. Op basis van server-log analyse bij Kobalt-klanten zien we dat populaire domeinen meerdere keren per week worden gecrawld door GPTBot of ClaudeBot. Kleinere sites? Soms maar eens per twee tot vier weken. Je kunt de frequentie checken via je server-access-logs door te filteren op AI user-agents. En geloof me: het is een eye-opener als je dat voor het eerst doet.

Helpt een CDN bij het vermijden van downtime voor AI-crawlers?

Ja, absoluut. Een CDN zoals Cloudflare of Fastly fungeert als buffer. Als je origin-server even niet bereikbaar is, kan een CDN gecachede responses blijven serveren. Stel je CDN zo in dat het gecachede pagina's serveert bij een 503 van de origin. Dit heet "stale-while-revalidate" of "serve stale on error." Het is niet waterdicht (een DDoS kan ook het CDN raken), maar het verlaagt het risico enorm.

Wat doe ik als ik een gepland onderhoud heb?

Plan het in de daluren van je doelgroep én buiten de periodes van intensief AI-crawling. Op basis van log-analyse zien we bij de meeste sites een piek in bot-verkeer in de vroege ochtenduren (2:00-6:00 CET). Weekend is vaak het veiligst, en beperk de duur tot het absolute minimum. Soms moet je gewoon een bunt leggen in plaats van een homerun slaan: kort, gecontroleerd, minimale schade.

Hoe scoort jouw website op AI-gereedheid?

Krijg binnen 30 seconden je AEO-score en ontdek wat je kunt verbeteren.

Gratis scan

DEEL DIT ARTIKEL

LINKEDIN X

GERELATEERDE ARTIKELEN