Hoe zichtbaar ben jij in AI? De opkomst van LLM Visibility als nieuwe marketingmetric

8 minuten leestijd
llm-visibility-nieuwe-marketingmetric

I. De vraag die niemand stelde maar iedereen had moeten stellen

Ergens in 2023 begon er iets te verschuiven dat de meeste marketeers niet meteen opmerkten.

Niet in hun analytics. Niet in hun campagneresultaten. Maar in het gedrag van mensen vóór ze ook maar één zoekopdracht intypten.

Mensen begonnen vragen te stellen aan AI. Niet “beste bank België” in Google. Maar “welke bank raad je mij aan voor een woonkrediet?” aan ChatGPT. Niet “goedkoopste brandverzekering” in een zoekvak. Maar “vergelijk de brandpolissen van KBC, Belfius en BNP Paribas Fortis” aan een taalmodel dat gewoon antwoord gaf. Zonder ze door te sturen naar tien websites. Zonder sponsored links. Zonder dat jij als merk ook maar de kans had gehad om je te tonen.

En dat antwoord, dat de AI formuleerde, zonder jouw input, op basis van wat er over jou geschreven staat, begon de oriëntatiefase van koopbeslissingen over te nemen.

Ik merkte dit niet als consument. Ik merkte het als iemand die verantwoordelijk is voor digitale zichtbaarheid van een groot merk. Op een dag testte ik ChatGPT voor onze sector. Ons merk stond erin, maar de vraag die me niet losliet was: waarom? En wat gebeurt er als dat morgen verandert zonder dat we het zien?

Dat was het moment waarop ik besefte: er is een nieuwe metric die de meeste dashboards nog niet meten. En als je hem niet meet, verlies je onzichtbaar terrein, zonder het te weten.

Die metric heet LLM Visibility.

II. Wat LLM Visibility precies is en wat het niet is

LLM Visibility is de mate waarin een merk, product of dienst voorkomt in de antwoorden die AI-taalmodellen genereren op relevante vragen.

Eenvoudiger gezegd: als iemand een AI-model vraagt over jouw product of sector, word jij dan vermeld?

Het is geen ranking. Er is geen positie 1 tot 10. Het is een percentage: van alle relevante vragen die je kan stellen over jouw domein, in hoeveel procent van de antwoorden verschijn jij?

Het is ook geen SEO-metric. Het is geen sociale media-metric. Het is een aparte dimensie, en het verschil met wat je vandaag al meet is fundamenteler dan het lijkt:

Je kan perfect op positie 1 staan in Google voor een zoekterm en minder sterk aanwezig zijn in AI-antwoorden over datzelfde onderwerp. SEO-rankings en LLM Visibility worden door andere mechanismes bepaald, en dat onderscheid wordt groter naarmate AI een grotere rol speelt in de oriëntatiefase.

SEO LLM Visibility
Rankings in zoekresultaten Vermeldingen in antwoorden
Clicks naar je website Aanwezigheid in het antwoord zelf
Tien blauwe links Één gegenereerd antwoord
Paginaoptimalisatie Entiteitsbeheer

Drie dingen die je wél meet met LLM Visibility:

  1. Vermeldingsfrequentie — Hoe vaak verschijn je in antwoorden op relevante vragen?
  2. Positie in het antwoord — Word je als eerste vermeld of als vijfde? Word je aanbevolen of slechts zijdelings genoemd?
  3. Toon van de vermelding — Als je vermeld wordt, is dat positief, neutraal of kritisch geframed?

III. Waarom dit nu belangrijk wordt

AI-taalmodellen bestaan al langer dan 2022. Maar de doorbraak van ChatGPT veranderde fundamenteel hoe mensen met AI omgaan. Plots gebruikten gewone mensen, geen technici of onderzoekers, taalmodellen als dagelijks informatiekanaal.

De groei sindsdien is duizelingwekkend. ChatGPT had begin 2025 meer dan 400 miljoen wekelijkse gebruikers. Google’s AI Overviews verschijnen in bijna de helft van alle zoekopdrachten. Perplexity positioneert zich expliciet als zoekmotor-vervanger. Copilot zit ingebakken in de Microsoft-tools die miljoenen mensen dagelijks gebruiken.

Maar het gaat niet alleen om aantallen. Het gaat om gedragsverandering.

Er is een specifiek type zoekopdracht dat structureel verschuift van Google naar AI: de oriënterende, vergelijkende vraag. “Welke bank is het best voor een jonge starter?” “Wat zijn de voor- en nadelen van een tak21-verzekering?” Vroeger opende je daarvoor tien tabs. Vandaag stel je de vraag aan een AI-model en krijg je één antwoord.

Dat antwoord bepaalt welke merken je vervolgens overweegt, en welke niet.

En anders dan bij Google, waar je op zijn minst zichtbaar bent als resultaat dat iemand kan overslaan, ben je bij AI volledig afwezig als je er niet in staat. Er is geen pagina twee. Er is geen betaalde positie die je kan kopen om er toch bij te staan.

IV. Hoe AI-modellen bepalen wat ze zeggen

Hier is een onderscheid dat cruciaal is maar zelden helder uitgelegd wordt. Er zijn twee fundamenteel verschillende mechanismes, en de strategie verschilt per mechanisme.

Parametrische kennis is wat het model heeft geleerd tijdens de training. Maanden of jaren geleden heeft het model enorme hoeveelheden tekst verwerkt en daarin patronen en feiten opgeslagen. Deze kennis zit ingebakken. Als jij al jaren prominent aanwezig bent in kwalitatieve content online, is de kans groter dat het model jou kent en je vermeldt.

Het nadeel: je kan dit niet snel veranderen. Totdat een model opnieuw getraind wordt, wat maanden tot jaren kan duren, zit jouw huidige aanwezigheid bevroren in wat het model weet. Dit is een lange-termijnspel.

Retrieval-Augmented Generation (RAG) is fundamenteel anders. Modellen zoals Perplexity, maar ook ChatGPT met zoekfunctie en Gemini, raadplegen bij bepaalde vragen actief externe bronnen in real time. Ze halen actuele webpagina’s op en verwerken die in hun antwoord.

Dit is het mechanisme waar je nu actie op kan ondernemen. Goede structuur, snelle laadtijden, duidelijke antwoorden op specifieke vragen, de juiste structured data: dat verhoogt direct je kans om opgepikt te worden.

Een factor die veel marketeers onderschatten: Reddit, forums en gebruikersdiscussies. Meerdere grote AI-bedrijven hebben overeenkomsten gesloten met contentplatformen om toegang te krijgen tot gebruikersgegenereerde content voor training en retrieval. Wat gebruikers over jou schrijven, niet wat jij communiceert, weegt zwaar mee in wat AI over jou zegt. Community management is daardoor geen nice-to-have meer. Het is een component van je AI visibility-strategie.

V. Visibility, Citation en Sentiment — drie signalen, één verhaal

Als je LLM Visibility begint te meten, kom je drie signalen tegen die elk iets anders vertellen. Visibility — hoe vaak word je vermeld? Citation rate — hoe vaak verwijst het model actief naar jouw domein als bron? Sentiment — als je vermeld wordt, is de toon positief, neutraal of negatief? De cruciale nuance zit in de combinatie:
Hoge Visibility Lage Visibility
Hoog Sentiment ✅ Ideaal: aanwezig én positief 💎 Hidden Gem: kwaliteit is er, bereik ontbreekt
Laag Sentiment ⚠️ The Notorious Brand: bekend maar niet gunstig 🚨 Dubbel probleem

Een merk in de “Hidden Gem”-positie wordt zelden vermeld maar altijd positief. Dat klinkt goed maar is een strategische zwakte: je kan niet op positief sentiment rekenen als je er nauwelijks instaat.

Een merk met hoge visibility en gemiddeld sentiment heeft het risico van aanwezigheid: hoe vaker je vermeld wordt, hoe meer variatie in toon. Dat is geen reden om aanwezigheid te vermijden. Het is een reden om actief aan sentiment te werken.

VI. Waarom je dit vandaag niet ziet in je dashboard

Google Search Console toont je impressies, clicks en posities. Google Analytics toont je verkeer en conversies. Semrush en Ahrefs tonen je rankings en backlinks. Geen van deze tools vertelt je wat een AI-model over jou zegt als iemand een vraag stelt.

Dat is geen klein hiaat. Het is een fundamentele meting die ontbreekt.

Stel dat je visibility in AI met 20% daalt over zes maanden. Je Google-rankings staan stabiel. Je verkeer is stabiel. Je ziet dit in geen enkel bestaand dashboard. Maar ondertussen verlies je de oriëntatiefase aan concurrenten die beter scoren in AI-antwoorden. Maanden later merk je een daling in conversies of marktaandeel en je begrijpt niet waar die vandaan komt.

Dit is geen hypothetisch scenario.

VII. Waarom jij ontbreekt in AI-antwoorden

Als merken voor het eerst hun LLM Visibility meten, zijn er vier redenen die keer op keer opduiken:

1. Geen duidelijke entiteit

Als jouw merk niet helder gedefinieerd is in externe kennisbronnen, Wikipedia, de Knowledge Graph, structured data op je eigen site, dan “weet” het model niet goed wie je bent. Je bestaat als naam, maar niet als entiteit met context, producten en expertise.

2. Te productgericht, te weinig uitlegcontent

AI-modellen citeren bronnen die vragen beantwoorden. Een productpagina die zegt “Ontdek onze voordelige spaarrekening” beantwoordt geen vraag. Een pagina die uitlegt “Hoe werkt de vrijstelling op roerende voorheffing voor Belgische spaarrekeningen?” doet dat wel. Het onderscheid klinkt klein maar heeft een groot effect.

3. Weinig externe citaties

Wat anderen over jou schrijven telt zwaarder dan wat jij over jezelf zegt. Persartikels, vergelijkingssites, vakblogs, forums: ze bouwen samen de reputatie die AI-modellen als bron gebruiken. Als die externe aanwezigheid dun is, is je AI-zichtbaarheid dat ook.

4. Fragmentatie van content

Een merk dat over tien domeinen een beetje schrijft over alles, scoort slechter dan een merk dat over vijf domeinen diepgaande expertise toont. AI-modellen herkennen en belonen topical authority: de perceptie dat jij dé bron bent voor een specifiek onderwerp.

VIII. Hoe je begint te meten

Begin klein: focus op je vijf meest strategische producten of diensten. Formuleer per product drie soorten vragen:

Non-branded — geen merknaam vereist, jij bent gewoon relevant. “Wat is een goede spaarrekening voor een student in België?”

Branded vergelijking — meerdere spelers worden gevraagd. “Vergelijk de autoverzekering van KBC en Belfius.”

Situationeel — vanuit een specifieke gebruikssituatie. “Ik koop mijn eerste woning, hoe kies ik de juiste bank?”

Run de prompts in ChatGPT, Gemini, Claude en Perplexity. Manueel testen is een goed startpunt voor een nulmeting. Voor wekelijkse opvolging heb je tooling nodig: Rankshift, Peec AI, Profound of Semrush AI Visibility Toolkit zijn de voornaamste opties vandaag.

Quick win: begin met niche-specifieke content. AI-modellen citeren bronnen die één specifiek onderwerp heel diepgaand behandelen. Een blogpost “Hoe bereken ik de restwaarde van een hybride wagen bij afkoop van een leasing?” scoort in AI-antwoorden vaak beter dan een algemene pagina over autoleningen. Niet omdat ze populairder is, maar omdat ze een specifieke vraag beter beantwoordt dan welke andere bron ook.

IX. Eerlijk zijn over de beperkingen

LLM Visibility meten is geen exacte wetenschap, en dat moet je weten voor je er op stuurt.

AI-antwoorden zijn niet stabiel. Dezelfde vraag aan hetzelfde model op twee verschillende momenten kan twee verschillende antwoorden geven. Goede monitoringtools compenseren dit door prompts meerdere keren te draaien en te middelen, maar variabiliteit blijft inherent aan hoe taalmodellen werken.

Modellen verschillen sterk. Wat ChatGPT over jou zegt, is niet wat Gemini zegt. Perplexity haalt live bronnen op en reageert sneller op recente content. Claude heeft andere trainingsdata. Je visibility in één model zegt weinig over je visibility in de andere.

Trainingsdata bevat bias. Als jouw sector historisch oververtegenwoordigd is in Engelstalige content, kan een Nederlandstalig merk structureel benadeeld zijn, zelfs bij Nederlandstalige vragen. Dat is geen reden om niet te meten. Het is een reden om de data met context te lezen.

X. Een eerlijke conclusie

LLM Visibility is geen hype. Het is ook geen silver bullet.

Het is een nieuwe meetdimensie die een blinde vlek dicht in hoe we naar digitale aanwezigheid kijken. En die blinde vlek wordt groter naarmate AI een grotere rol speelt in hoe mensen informatie zoeken en beslissingen nemen.

De merken die dit nu serieus nemen, die meten, analyseren en bijsturen, bouwen een voorsprong op die over twee jaar moeilijk in te halen is.

De vraag is niet óf LLM Visibility belangrijk is.

De vraag is wanneer jij begint te meten.

jan-van-hove-square

Schrijft over digitale strategie, SEO, AI search en hoe organisaties zichtbaar blijven in een snel veranderend digitaal landschap. Met meer dan 20 jaar hands-on ervaring in digitale marketing — en vandaag actief als senior digital strategist bij een grote Belgische bank — publiceert hij zijn eigen analyses op Groundbase.be.

Artikel eenvoudig delen? Dat kan:

Ook interessant:

ai-visibility-ander-spel-financiële-merken AI & Zoekmachines
Waarom AI visibility een ander spel is voor financiële merken
Financiële merken denken dat ze een visibility-probleem hebben in AI. Ze hebben een attributieprobleem. Hun content wordt wel verwerkt door taalmodellen — maar de merknaam ...
beste-advertentie-geen-advertentie-maar-ai-antwoord Digitale Strategie
Waarom de beste advertentie vandaag geen advertentie is — maar een AI-antwoord
Er is een moment in het koopproces dat marketeers decennialang niet konden bereiken. AI-modellen hebben het overgenomen. In dit stuk leg ik uit waarom AI-antwoorden ...
je-ai-reputatie-bestaat-ken-je-ze Online Reputatie
Je AI-reputatie bestaat al. De vraag is of je hem kent.
Wanneer heb jij voor het laatst gecontroleerd wat ChatGPT of Gemini over jouw merk zegt? AI-modellen bouwen een reputatiebeeld op dat jij niet volledig controleert. ...
van-zoekwoord-naar-entiteit-aeo-herschrijft-spelregels-seo AI & Zoekmachines
Van zoekwoord naar entiteit: hoe AEO de spelregels van SEO herschrijft
Zoekmachines worden steeds beter in begrijpen wat mensen bedoelen — niet alleen wat ze typen. De volgende stap heet AEO: Answer Engine Optimization. In dit ...
seo-is-niet-dood SEO & Vindbaarheid
De complete evolutie van SEO: van meta keywords tot AI-zoekmachines (P.S. SEO is NIET dood)
Van mijn eerste website in 1995 tot de opkomst van generatieve AI: dit stuk toont hoe SEO volwassen werd. Een nuchtere, ruisvrije blik op wat ...