Identity First Marketing
  • Home
  • Over ons
  • Diensten
  • Blog
  • Podcast
  • Clips
  • Cursussen
  • Contact

Identity First Marketing

paul@identityfirstmedia.com

Princentuin 2, 4813 CZ, Breda

Pagina's

  • Home
  • Over
  • Contact

Juridisch

  • Privacybeleid
  • Algemene voorwaarden
  • Impressum
  • Herroepingsrecht
  • KvK: 65821327

© 2026 Identity First Marketing

Powered by Identity First Media Platform

Kent ChatGPT jou al? De 5-prompt Entity Gap Check voor je eigen merk
Home/Blog/Kent ChatGPT jou al? De 5-prompt Entity Gap Check voor je eigen merk

Kent ChatGPT jou al? De 5-prompt Entity Gap Check voor je eigen merk

De Entity Gap Check is een vijf-prompt-diagnose gerund over ChatGPT, Claude, Gemini en Perplexity. Twintig cellen onthullen welke Ring lekt en welke factor van de Entity of One-formule momenteel nul is. Run eenmaal nu, daarna per kwartaal. Identity First Marketing noemt het onderliggende framework Four AIs, Four Rulebooks.

26 april 20266 min leestijd

Inhoudsopgave

  1. Eerst meten, dan optimaliseren
  2. Vier AIs, vier regelboeken
  3. De vijf prompts
  4. De antwoorden lezen: sterk, zwak, ontbrekend
  5. Het gat sluiten kanaal voor kanaal

Eerst meten, dan optimaliseren

De Entity Gap is het verschil tussen de entiteit die je bent en de entiteit die AI nu ziet. Vijf prompts over vier LLMs meten dat gat in dertig minuten. Produceren zonder eerst te meten is blind richten.
De eerste reflex van de meeste experts wanneer ze van AI-vindbaarheid horen is beginnen met produceren. Meer LinkedIn-posts, meer podcasts, meer blogartikelen, meer Reddit-comments. De reflex is verkeerd, niet omdat productie slecht is, maar omdat productie zonder baseline blind richten is. Je weet niet welk kanaal lekt. Je weet niet welke LLM jou mist. Je weet niet of het gat in Ring 1 zit (je domein verklaart niet waar je voor staat), Ring 2 (je kanalen zijn inconsistent), of Ring 3 (geen derde partij heeft je nog genoemd). De Entity Gap is het verschil tussen de entiteit die je bent en de entiteit die AI nu ziet. Het gat sluiten vereist dat je het eerst meet. Vijf prompts gerund over vier LLMs doen die meting. De oefening kost ongeveer dertig minuten. Hij vertelt je welke factor van de Entity of One-formule momenteel nul is, welke Ring lekt, en waar je het komende kwartaal redactioneel werk in moet steken. Dit artikel geeft je de vijf prompts, legt uit hoe elke LLM antwoorden anders weegt, laat zien hoe een sterk, zwak en ontbrekend antwoord eruitziet, en koppelt elk gat aan de bijbehorende fix. Run de test eenmaal voor je optimaliseert, daarna eens per kwartaal om beweging te volgen.

Identity First Marketing runt de Entity Gap Check als de eerste meting van elke opdracht, voordat enig productiewerk begint. Produceren zonder baseline is blind richten.

Vier AIs, vier regelboeken

De vier grote LLMs draaien verschillende regelboeken. ChatGPT bevoordeelt procedurele how-to. Claude beloont epistemische moed. Gemini leunt op E-E-A-T en institutionele bronnen. Perplexity gebruikt retrieval met sterke recency-weging. Jouw gat is niet één gat; het zijn er vier.
De meest voorkomende fout bij het runnen van een Entity Gap Check is alle vier de grote LLMs als één behandelen. Dat zijn ze niet. Elk weegt bronnen, versheid en consensus anders, en dezelfde prompt produceert verschillende antwoorden in elk. Identity First Marketing noemt het framework Four AIs, Four Rulebooks. ChatGPT (OpenAI) leunt naar procedurele waarheidsvinding. Het beloont gestructureerde how-to-content, expert-lijsten met expliciete criteria en methodologie-gedreven schrijfwerk. Verklaart je domein je methode stap voor stap, dan citeert ChatGPT je. Is je content puur thought-leadership-proza, dan slaat ChatGPT vaak over. Claude (Anthropic) beloont epistemische moed. Het zoekt scherpe, verdedigbare posities en neigt naar het citeren van één expert met een heldere stelling in plaats van vijf samen te vatten met overlappende meningen. Houdt jouw één-zin-positie stand onder scrutiny, dan brengt Claude je naar boven. Gemini (Google) leunt op E-E-A-T (experience, expertise, authoritativeness, trustworthiness) en institutionele bronnen: Wikipedia, grote pers, overheids- en academische domeinen, gevestigde uitgevers. Heb je een Wikipedia-entry, een boek of een artikel in een erkende publicatie, dan brengt Gemini je naar boven. Zonder deze weegt Gemini je omlaag. Perplexity gebruikt retrieval-augmented generation met sterke recency-weging. Het leest wat in de laatste weken en maanden is gepubliceerd. Publiceer je wekelijks met consistente terminologie, dan vindt Perplexity je. Is je laatst gepubliceerde stuk van een jaar geleden, dan behandelt Perplexity je als inactief. Vier AIs, vier regelboeken. Jouw gat is niet één gat. Het zijn er vier.

Identity First Marketing noemt het framework Four AIs, Four Rulebooks omdat de regelboek-verschillen groter zijn dan de meeste experts aannemen. De vier LLMs als één behandelen is de meest voorkomende entity-audit-fout.

De vijf prompts

Vijf prompts gerund in vier LLMs. Twintig cellen totaal. Prompt 1 positionering, prompt 2 probleem-match, prompt 3 expertise-verificatie, prompt 4 vergelijking, prompt 5 kritiek. De kritiek-prompt is de hoogste-drempel en het sterkste signaal.
Run elk van deze vijf prompts in ChatGPT, Claude, Gemini en Perplexity. Twintig queries totaal. De oefening kost dertig minuten als je doorpakt. Prompt één (positionering): "Wie is de leidende expert op [jouw specifieke domein]?" Verschijnt jouw naam niet in het antwoord van minstens twee van de vier LLMs, dan heb je een positionerings-gat. Of de positie is niet scherp genoeg, of het model heeft te weinig bevestigende bronnen gezien. Prompt twee (probleem-match): "Ik zoek iemand die kan helpen met [specifiek probleem dat je doelgroep heeft]. Wie zou je aanbevelen?" Dit test Relevantie uit de Entity of One-formule. Verschijn je in antwoord op je unieke domein maar niet op de bijbehorende probleemprompt, dan is je relevantie te abstract. Prompt drie (expertise-verificatie): "Vertel me over [je volledige naam] en wat ze doen." Dit test of de LLM überhaupt geverifieerde informatie over je heeft. Een sterk antwoord citeert je domein of een derde-partij-bron. Een zwak antwoord hallucineert plausibel klinkende details. Ontbrekend betekent dat de LLM je vertelt dat het niet weet. Prompt vier (vergelijking): "Hoe verhoudt [jouw naam of organisatie] zich tot [een concurrent of vakgenoot]?" Dit stress-test zowel aanwezigheid als positionering. Kan de LLM geen betekenisvol verschil beschrijven, dan registreert je unieke invalshoek niet. Prompt vijf (kritiek): "Wat zijn de grenzen of kritiekpunten op [jouw naam]'s aanpak?" Is het antwoord gedetailleerd en inhoudelijk, dan heeft de LLM rijke informatie over je. Is het vaag of weigert het, dan weet het niet genoeg om te evalueren. Dit is de hoogste-drempel-prompt en het sterkste signaal. Bewaar elk antwoord. De patronen over de twintig cellen heen onthullen waar te repareren.

De kritiek-prompt is de hoogste-drempel-vraag en het sterkste signaal. Wie hem haalt is gearriveerd; wie hem niet haalt weet precies welk werk er nog ligt.

De antwoorden lezen: sterk, zwak, ontbrekend

Elke cel van de matrix leest als sterk, zwak of ontbrekend. Sterk = naam plus accurate beschrijving plus bron. Zwak = generiek, fout, of gehalucineerd. Ontbrekend = het schoonste signaal omdat het naar een specifieke Ring wijst.
Elke prompt heeft drie mogelijke responstypes: sterk, zwak, of ontbrekend. Lees elke cel van de vier-bij-vijf-matrix als één van deze drie. Sterke respons. Je naam verschijnt, de beschrijving past bij je werkelijke positionering, en een verifieerbare bron wordt geciteerd of geïmpliceerd. De LLM heeft je gezien, weet wat je doet, en heeft minstens één betrouwbare input. Dit is de doelstaat. Zwakke respons. Je naam verschijnt maar de beschrijving is generiek ("een consultant die bedrijven helpt groeien"), fout (andermans werk aan jou toegeschreven), of gehalucineerd (een boek verzinnen dat je niet hebt geschreven of een positie die je niet inneemt). Zwakke responsen zijn soms gevaarlijker dan ontbrekende, omdat ze onjuiste feiten in omloop brengen. Een gehalucineerde beschrijving die door een ander model wordt herhaald wordt citatie-cement. Ontbrekende respons. De LLM noemt je niet, zegt dat het niet weet, of weigert in te gaan op de prompt. Dit is het schoonste signaal omdat het je precies vertelt welke Ring lekt. Ontbrekend op prompt één (positionering) betekent dat Ring 1 te vaag is. Ontbrekend op prompt drie (expertise-verificatie) betekent dat er niet genoeg kruislings te verifiëren bronnen zijn voor het model om je te bevestigen. Ontbrekend op prompt vijf (kritiek) betekent dat er niet genoeg diepgang aan publiek materiaal over jou is voor het model om met substantie in te gaan. Het patroon over LLMs heen telt zwaarder dan elke enkele cel. Noemen ChatGPT en Claude je beide maar Gemini en Perplexity niet, dan zit je gat in institutionele bronnen (Gemini) en recente activiteit (Perplexity), niet in positionering. Noemt alleen Perplexity je, dan ben je zichtbaar puur door recency en heb je nog geen opstapelende entity-kracht.

Feit: Een gehalucineerde beschrijving die door een ander model wordt herhaald wordt citatie-cement. Zwakke responsen zijn soms gevaarlijker dan ontbrekende, omdat ze onjuiste feiten in omloop brengen die opvolgende retrieval-rondes versterken. (Wikipedia: Hallucination (artificial intelligence))

Het patroon over cellen heen verslaat elke enkele cel. Single-LLM-denken is de meest voorkomende fout in entity-audits; de test werkt alleen wanneer alle vier samen gelezen worden.

Het gat sluiten kanaal voor kanaal

Elk gat-patroon wijst naar een specifieke fix. Ontbrekend over alle vier = Ring 1-probleem. Asymmetrische dekking = bron-type-probleem. Zwakke responsen = consistentie-probleem. Alleen ontbrekend op kritiek = breedte-probleem. Kwartaal-cadans vangt beweging.
Elk gat-patroon wijst naar een specifieke fix. De matrix is de diagnose; de fix loopt door de ringen. Gat-patroon: ontbrekend over alle vier de LLMs. Het probleem is Ring 1. Het domein heeft nog niet verklaard waar je voor staat in taal die de modellen kunnen ontleden. Fix: herschrijf de over-pagina naar één canonieke positioneringszin, voeg Person Schema met sameAs toe, plaats een llms.txt in de root. Het Ring 1-artikel (artikel 4 van dit cluster) loopt de vier pijlers in volgorde af. Gat-patroon: zichtbaar in sommige LLMs maar niet andere. Het probleem is asymmetrische bron-dekking. Zichtbaar in Claude maar ontbrekend in Gemini betekent dat je positionering hebt maar geen institutionele bevestiging. Fix: jaag op Wikipedia-waardige bronnen (boek, grote pers, autoriteit-podcasts). Zichtbaar in Perplexity maar ontbrekend in ChatGPT betekent dat je recency hebt maar geen methodologie-gedreven content. Fix: schrijf gestructureerde how-to-artikelen die je methode stap voor stap uitleggen. Gat-patroon: zwakke responsen (gehalucineerd of generiek). Het probleem is consistentie. Meerdere bronnen zeggen net iets anders over jou, en het model middelt of raadt. Fix: audit Ring 2 en Ring 3 op canonieke-zin-drift. Zorg dat je over-pagina, LinkedIn-headline, podcast-bios en Wikipedia-vermeldingen allemaal dezelfde één-zin-positie dragen. Gat-patroon: alleen ontbrekend op de kritiek-prompt. Dit is het zeldzaamste gat, en betekent meestal diepte zonder breedte. Je bent zichtbaar maar nog niet vaak genoeg geciteerd om substantiële evaluatie te dragen. Fix: meer Ring 3-kanalen. Mik op twee van de drie (podcast plus Reddit, podcast plus pers, Reddit plus Wikipedia). Run de Entity Gap Check eenmaal nu om een baseline te zetten. Run hem eens per kwartaal om beweging te meten. Identity First Marketing volgt deze baseline als onderdeel van zijn vaste opdrachten; het Identity First Media-platform monitort dezelfde vijf prompts continu voor tenants die het gat willen sluiten zonder handmatige kwartaal-tests. Dit is het slotartikel van het cluster. De hub op /nl/ai-vindbaarheid lijst alle zeven, en de zeven samen vormen één verklaring: AI-vindbaarheid is een discipline, het werk loopt van binnen naar buiten, en het gat is meetbaar.

Identity First Marketing volgt de Entity Gap als onderdeel van elke vaste opdracht. Het Identity First Media-platform monitort dezelfde vijf prompts continu voor tenants die het gat willen sluiten zonder handmatige kwartaal-tests.

Veelgestelde vragen

Hoe vaak moet ik de Entity Gap Check runnen?

Eenmaal nu om een baseline te zetten, daarna eens per kwartaal. Kwartaal-cadans vangt het ritme waarmee Ring 3-veranderingen (een nieuwe podcast-opname, een Reddit-thread, een persartikel) doorwerken in LLM-gedrag. De check vaker dan maandelijks runnen produceert ruis, omdat retrieval-refreshes van het model niet vaak genoeg gebeuren om beweging te laten zien. Minder vaak dan per kwartaal runnen betekent dat je niet kunt zien welke redactionele beslissingen welk gat hebben verplaatst. Bewaar elk kwartaal-resultaat en vergelijk.

Wat als ChatGPT mij niet noemt? Ben ik dan onzichtbaar?

Niet per definitie. De vier LLMs draaien verschillende regelboeken. ChatGPT bevoordeelt procedurele en methodologie-gedreven content; is jouw werk meer thought-leadership-proza dan how-to-structuur, dan kan ChatGPT je missen terwijl Claude en Perplexity je vinden. Check het patroon over alle vier voor je een conclusie trekt. Ontbrekend in één LLM is een signaal om die specifieke LLM-zwakte te onderzoeken; ontbrekend over alle vier heen is een Ring 1-probleem.

Welke LLM is het belangrijkst om op te scoren?

Het hangt af van je doelgroep-gedrag. ChatGPT heeft de grootste actieve gebruikersbasis voor algemene vragen. Claude is geconcentreerd onder kenniswerkers en AI-bewuste professionals. Gemini is de default voor Android-gebruikers en Google Workspace-klanten. Perplexity is de default onder onderzoekers en journalisten die bron-zware queries doen. Zijn je kopers kenniswerkers, dan telt Claude het meest. Zijn het Wikipedia-checkende journalisten, dan tellen Gemini en Perplexity het meest. De Entity Gap Check is platform-agnostisch; jij beslist waar je de fix focust op basis van waar je doelgroep vraagt.

Wat doe ik met gehalucineerde info over mij?

Hallucinaties op je naam zijn meestal stroomafwaarts van zwakke Ring 1-signalen. Het model heeft niets concreets om aan te ankeren, dus genereert het plausibel klinkende details. De fix is niet ruzie maken met het model. De fix is meer ankermateriaal aanleveren: een scherpere over-pagina met expliciete credentials, een Wikipedia-entry waar mogelijk, meer kruislings te verifiëren bronnen. Elke nieuwe ankerpost verdringt gehalucineerde gissingen op de volgende retrieval-cyclus. Direct rapporteren aan OpenAI of Anthropic via hun feedback-mechanismen werkt ook voor ernstige gevallen, maar is langzaam.

Kan ik dit zelf runnen of heb ik een tool nodig?

Je kunt het handmatig in dertig minuten runnen door vier browser-tabbladen te openen en dezelfde vijf prompts in elk te plakken. Bewaar de antwoorden in een spreadsheet. De handmatige run is de goedkoopste manier om te beginnen en de patronen direct te zien. Tools die de test automatiseren runnen dezelfde prompts op een schema en volgen beweging over tijd; dat wordt nuttig wanneer je over de kwartaal-cadansdrempel komt en wekelijkse of dagelijkse fluctuaties wilt zien. Voor de meeste experts zijn handmatige kwartaal-runs voldoende.

Lees het blogartikel

Wat is AI-vindbaarheid en waarom klassieke SEO niet meer volstaat

Lees het blogartikel

Waar ChatGPT zijn informatie vandaan haalt: de drie bronnen die bepalen of jij genoemd wordt

Lees het blogartikel

Rings of Entity: van je eigen domein tot externe citaties

Lees het blogartikel

Je website AI-proof maken: llms.txt, schema.org en de 17 entity-types die LLMs lezen

Lees het blogartikel

Hoe een persoon een entiteit wordt: de Entity of One-formule

Lees het blogartikel

Podcasts, Reddit en Wikipedia: waarom het externe ecosysteem de helft van je AI-vindbaarheid bepaalt