ANSWER ENGINE OPTIMIZATION

Wordt je site geciteerd door AI?

AEO Expert stuurt een agent door je site die 147 checks uitvoert op ontdekbaarheid door ChatGPT, Claude, Perplexity, Gemini en Google AI Overviews. Geen theorie — echte prompts, echte citaties.

URL
┌─ Gemiddelde scan: 47 seconden · Geen account nodig
01 — WAT IS AEO?

SEO is voor zoekresultaten. AEO is voor antwoorden.

Meer dan 1 op 4 zoekopdrachten eindigt nu in een AI-antwoord in plaats van een lijst met blauwe links. Answer Engine Optimization is de discipline die bepaalt of jouw content wordt geciteerd, genegeerd, of verkeerd geparafraseerd door LLM's.

01
Ontdekbaarheid
Kan een agent je site überhaupt crawlen, begrijpen en structureren?
02
Citeerbaarheid
Heb je chunks die op zichzelf staan, gezaghebbend zijn, en aanhaalbaar?
03
Vertrouwen
Voldoet je site aan E-E-A-T-signalen die LLM's gebruiken om bronnen te rangschikken?
02 — 147 CHECKS

Wat de agent precies inspecteert

01 Infrastructuur
48 CHECKS
robots.txt voor AI-crawlers
llms.txt aanwezig + geldig
sitemap.xml structuur
User-agent handling (GPTBot, ClaudeBot, PerplexityBot)
Server render vs client render
Core Web Vitals
02 Semantiek
48 CHECKS
Schema.org dekking
JSON-LD validatie
FAQ/HowTo/Article markup
OpenGraph + Twitter cards
Canonical tags
Heading hiërarchie
03 Content
48 CHECKS
Chunk coherentie
Antwoord-per-alinea score
Entity density
Feitelijke claims + bronnen
Datums + updates
Auteur + auteursbio
04 Autoriteit
48 CHECKS
Backlink kwaliteit
Wikipedia citaties
Cross-site vermeldingen
Merkherkenning
Review/rating schema
Author.org profielen
03 — LIVE RAPPORT

Geen PDF van 40 pagina's. Een werklijst.

REPORT · AEO-2026-04-24
nos.nl
72 /100 OVERALL
88 /100 TECHNICAL
61 /100 CONTENT
45 /100 AUTHORITY
CRIT
Geen llms.txt gevonden
Voeg /llms.txt toe zodat Claude en ChatGPT expliciet weten wat ze mogen citeren.
HIGH
FAQ markup ontbreekt op 12 pagina's
Je FAQ-content wordt nu niet uitgeserveerd als Featured Snippet of AI-citatie.
MED
GPTBot geblokkeerd in robots.txt
Regel 4: `Disallow: /` voor User-agent GPTBot. Opzettelijk?
MED
Chunks zijn gemiddeld 847 tokens
LLM's citeren beter bij 200-400 token chunks met duidelijke kopjes.
LOW
Geen author.org schema
Toevoegen verhoogt de E-E-A-T score bij Google AI Overviews.
04 — ENGINES

Getest tegen 5 live engines

Elke scan draait echte prompts tegen echte modellen. Geen scraped screenshots.

ChatGPT
MODEL
GPT-5, GPT-4.1
INDEX
OpenAI SearchGPT index
CRAWLER
GPTBot, OAI-SearchBot
Claude
MODEL
Claude Opus 4.5, Sonnet 4.5
INDEX
Claude Web Search
CRAWLER
ClaudeBot, Claude-SearchBot
Perplexity
MODEL
Sonar, Sonar Pro
INDEX
Perplexity Index
CRAWLER
PerplexityBot
Gemini
MODEL
Gemini 2.5 Pro
INDEX
Google Index + Vertex
CRAWLER
Google-Extended
AI Overviews
MODEL
Google SGE
INDEX
Google Search Index
CRAWLER
Googlebot
05 — TEAMS DIE SCANNEN

Binnen een week na de eerste scan zagen we onze merknaam verschijnen in Perplexity-antwoorden waar we eerst niet eens werden genoemd.

Sd
Sanne de Vries
Head of Growth, Kobalt

Ik heb 20 jaar SEO gedaan. Dit is de eerste tool die me echt iets nieuws vertelt.

MJ
Marcus Jansen
SEO Lead, Basecamp NL

De agent vond dat onze pricing-pagina blockt werd door GPTBot. We hadden geen idee.

LC
Lisa Chen
CTO, Northwind
06 — VEELGESTELD
Q.01 Is AEO niet gewoon SEO met een nieuw jasje?
Nee. SEO optimaliseert voor 10 blauwe links; AEO optimaliseert voor 1 gegenereerd antwoord. Ranking factors, content-structuur en technische signalen verschillen wezenlijk.
Q.02 Hoe vaak moet ik scannen?
Maandelijks is een goede baseline. Bij grote content-updates of model-releases (GPT-5, nieuwe Claude) draaien we automatisch een delta-scan.
Q.03 Wat is llms.txt precies?
Een conventie — vergelijkbaar met robots.txt — die LLM-crawlers expliciet vertelt welke content gebruikt mag worden, welke licentie geldt, en waar de canonical bronnen staan.
Q.04 Krijgen jullie echt live antwoorden van Claude en GPT?
Ja, we gebruiken de officiële API's van elk model met specifieke prompts die jouw domein targeten. De resultaten zie je letterlijk in het rapport.