Identity First Marketing
  • Home
  • Over ons
  • Diensten
  • Blog
  • Podcast
  • Cursussen
  • Contact

Identity First Marketing

paul@identityfirstmedia.com

Princentuin 2, 4813 CZ, Breda

Pagina's

  • Home
  • Over
  • Contact

Juridisch

  • Privacybeleid
  • Algemene voorwaarden
  • Impressum
  • Herroepingsrecht
  • KvK: 65821327

© 2026 Identity First Marketing

Powered by Identity First Media Platform

Van PageRank naar EntityRank: hoe machines 25 jaar lang bepaalden wie ertoe doet
Home/Blog/Van PageRank naar EntityRank: hoe machines 25 jaar lang bepaalden wie ertoe doet

Van PageRank naar EntityRank: hoe machines 25 jaar lang bepaalden wie ertoe doet

Vijfentwintig jaar lang schoven zoekmachines weg van woorden matchen richting entities herkennen. Wie die beweging begrijpt, staat in de AI-antwoorden van 2026.

14 april 20266 min leestijd

Inhoudsopgave

  1. Hoe begon Google de spelregels van zichtbaarheid te herschrijven?
  2. Wat veranderde er toen Google 'things, not strings' aankondigde?
  3. Hoe maakten semantische modellen zoekopdrachten begrijpelijker dan woorden?
  4. Wat maakt AI-zoeken fundamenteel anders dan klassiek zoeken?
  5. Wat is EntityRank en waarom is het geen officiële term?
  6. Wat moeten experts en ondernemers nu anders doen?

Hoe begon Google de spelregels van zichtbaarheid te herschrijven?

In 1998 schreven twee Stanford-promovendi een ranking-algoritme dat verwijzingen telde zoals de wetenschap citaties telt. Dat herdrukte het hele internet.
Voor Google waren zoekmachines woordmachines. AltaVista, Lycos, Excite, Yahoo — ze indexeerden welke woorden op welke pagina stonden en probeerden daar iets slims mee te doen. Kwaliteit was niet het signaal. Aanwezigheid wel. PageRank zette dat op zijn kop. Het idee was scherp en eenvoudig: een pagina waar veel andere pagina's naar linken, is waarschijnlijk belangrijker dan een pagina waar niemaal naar linkt. Net zoals een wetenschappelijk artikel dat vaak geciteerd wordt, meer gewicht heeft dan een artikel dat in een la blijft liggen. Elke link werd een stem. En een stem van een autoriteit telde zwaarder dan een stem van een willekeurige pagina. Bijna tien jaar lang werkte dit mooi. Tot het niet meer werkte. Het web draaide niet op academische eerlijkheid. Het draaide op belangen. Toen marketeers doorhadden dat links de munt waren, begonnen ze die munt te fabriceren. Link farms. Privé-blognetwerken. Betaalde links in editoriaal jasje. Gastenboekspam. Het signaal verloor zijn waarde. Google vocht terug met updates: Panda in 2011, Penguin in 2012. Maar het echte probleem was duidelijk. Het tijdperk van linkjes tellen liep op zijn einde. Er moest iets anders komen.

Feit: 1998 (Brin & Page, 'The Anatomy of a Large-Scale Hypertextual Web Search Engine', Stanford University, 1998)

Twee decennia SEO-industrie bouwden op één aanname: meer links is meer autoriteit. Die aanname werkte totdat iedereen haar kende.

Wat veranderde er toen Google 'things, not strings' aankondigde?

In mei 2012 lanceerde Google de Knowledge Graph: een kaart van entities, niet van documenten. Personen, organisaties, boeken en concepten kregen een eigen bestaan in het systeem.
De slogan was helder: 'things, not strings', dingen, geen tekstjes. Wie in 2011 op 'Leonardo da Vinci' zocht, kreeg pagina's terug. Wie in 2013 zocht, kreeg een persoon terug: geboortedatum, schilderijen, tijdgenoten, het informatiekader rechts met biografie en al. Het documentgerichte web was, in Google's hoofd in elk geval, een entity-gericht web geworden. Voor marketeers was dit de eerste serieuze schok. Schema.org, het gezamenlijke gestructureerde data-initiatief dat Google, Bing, Yahoo en Yandex in 2011 hadden opgericht, werd dé manier om machines expliciet te vertellen wat voor soort ding een pagina beschreef. Organisaties verschenen als Knowledge Panels. Lokale bedrijven die eerder onzichtbaar waren, kregen ineens een kaartje met openingstijden, beoordelingen en foto's. De meeste SEO-bureaus bleven intussen keyword-optimaliseren. De wereld schoof onder hun voeten weg, en de verdienmodellen van de industrie, maandelijkse retainers en rapportages met tactische lijstjes, hielden de focus jaren langer op het oude spel dan verstandig was.

Feit: 2012 (Google Blog, 'Introducing the Knowledge Graph: things, not strings', mei 2012)

De Knowledge Graph markeerde het moment waarop Google zoekers niet meer alleen informatie wilde geven, maar antwoorden. Dat onderscheid lijkt klein. Het gevolg was enorm.

Hoe maakten semantische modellen zoekopdrachten begrijpelijker dan woorden?

BERT, uitgerold in oktober 2019, herkende intentie achter vragen. Exact matching werd minder belangrijk. Betekenis en context werden doorslaggevend.
In oktober 2019 rolde Google een model uit dat BERT heette, een systeem dat natuurlijke taal beter kon begrijpen. Het doel was niet langer woorden matchen, maar intentie herkennen. 'Kan iemand anders in plaats van mij mijn medicijnen afhalen bij de apotheek' werd een vraag die Google opeens kon lezen zoals een mens dat leest, niet als een zak met woorden, maar als een vraag met context. In de vier jaar daarna werd die semantische laag dieper. MUM, het Multitask Unified Model, verscheen in 2021 en breidde het begrip uit naar talen en media. Begin 2023 was Google's zoekkwaliteit fundamenteel verschoven. Een pagina kon hoog eindigen op een zoekopdracht zonder dat de exacte woorden erop stonden, omdat de betekenis aansloot bij de intentie. Dat had een stil effect. Keyword-optimalisatie, de ruggengraat van SEO voor twee decennia, werd ineens veel minder belangrijk. Een goed geschreven pagina over het juiste onderwerp versloeg een volgestouwde pagina over één zoekwoord. Diepte over een thema telde zwaarder dan oppervlakkig matchen. De echte kanteling was echter nog niet gekomen.

Feit: Oktober 2019 (Google AI Blog, 'Understanding searches better than ever before', oktober 2019)

Wat maakt AI-zoeken fundamenteel anders dan klassiek zoeken?

AI-systemen bouwen geen lijst met links. Ze componeren een antwoord op basis van hun interne beeld van wie en wat in de wereld bestaat. Wie als entity bestaat, komt erin. Wie dat niet doet, niet.
Eind 2022 lanceerde OpenAI ChatGPT. Begin 2023 integreerde Bing GPT-4 in zijn zoekervaring. Perplexity volgde, Google's Bard volgde, en in 2024 verschenen AI Overviews bovenaan Google's zoekresultaten. De compositie van een zoekpagina veranderde fundamenteel. Gebruikers scrolden niet langer een lijst met links. Ze lazen een antwoord. Dat antwoord werd opgebouwd uit bronnen. Sommige werden bij naam genoemd. De meeste niet. Hier komt de kwart-eeuwse boog aan de grond. Uit onderzoek naar AI-citaties bleek dat 80% van de bronnen die AI-systemen aanhalen, niet in de top 100 van Google staan. AI put uit een andere vijver. Bovendien gaat 86% van de AI-citaties naar sites die kennisclusters bouwen rond één onderwerp, niet naar verspreide contentarchieven. Wie breed publiceert over vijf thema's, bouwt niets. Wie vijftien samenhangende stukken over één thema publiceert, bouwt een cluster dat AI-systemen herkennen en aanhalen. Een AI-antwoord is geen opsomming van pagina's. Het is een compositie opgebouwd uit het interne beeld dat het model heeft van wie en wat er in de wereld bestaat. Ben jij een entity die het model kent, met verbanden die het model vertrouwt, dan kom je in het antwoord. Ben je dat niet, dan kom je er niet in.

Feit: 80% van AI-aangehaalde bronnen staat niet in de top 100 van Google (LLM-citatieonderzoek, Strategic Marketing Intelligence, 2025)

Volgersaantallen voeden dit systeem niet. Keyword density voedt dit niet. Wat wel werkt: consistente naamgeving over sites en media heen, externe vermeldingen met autoriteit, en een smal thematisch territorium dat duidelijk van jou is.

Wat is EntityRank en waarom is het geen officiële term?

EntityRank is geen naam van Google of OpenAI, maar beschrijft nauwkeurig wat moderne zoeksystemen doen: entities rangschikken naar geloofwaardigheid op basis van verbanden, consistentie en externe bevestiging.
Geen ingenieur bij Google of OpenAI gebruikt de term. Maar hij vangt wat al deze systemen onder de motorkap delen: een rangschikking, expliciet of impliciet, van entities naar autoriteit. Personen. Organisaties. Onderwerpen. Diensten. Waar PageRank vroeg 'hoeveel pagina's linken naar deze pagina?', stelt het moderne systeem een gelaagdere vraag: hoeveel geloofwaardige bronnen noemen deze entity op een consistente manier, over verschillende media heen, en hoe goed is deze entity verbonden met andere entities die zelf geloofwaardig zijn? Dit is een trager spel. Het is ook een eerlijker spel, omdat het lastiger is om te vervalsen. Link farms konden PageRank bedriegen. Een netwerk van gefabriceerde vermeldingen in podcasts, interviews, gastartikelen en persberichten bouwen, consequent over jaren, met een samenhangend thematisch territorium, dat is structureel niet te simuleren. Wat dat systeem voedt: - Consistente naamgeving over sites, platformen, podcasts en artikelen - Externe vermeldingen met autoriteit: podcasts, interviews, gastartikelen, pers - Een samenhangend thematisch territorium dat de expert bezet - Gestructureerde data die bevestigt wie de entity is en wat ze doet - Langlopende, stabiele identificeerders: een domein, een LinkedIn-profiel, eventueel een Wikipedia-pagina als de schaal het toelaat

Feit: 86% van AI-citaties gaat naar sites met kennisclusters rond één onderwerp (AI-citatieanalyse over 253.800 zoekresultaten, topical authority research, 2025)

De verschuiving van PageRank naar EntityRank is geen technische update. Het is een verschuiving van 'hoe goed heb je dit document geoptimaliseerd' naar 'hoe goed kennen de systemen jou'. Dat zijn twee volledig andere vragen.

Wat moeten experts en ondernemers nu anders doen?

Drie verschuivingen zijn nodig: van paginaoptimalisatie naar entityopbouw, van eigen kanaal naar externe bevestiging, en van breedte naar een smal gekozen thematisch territorium.
De praktische lessen zijn minder gecompliceerd dan de technische geschiedenis. Ten eerste: stop met het optimaliseren van pagina's. Begin met het bouwen van een entity. Elk stuk content is geen losstaand ding. Het is een stem voor de entity die jouw naam draagt. Behandel het zo. Eén gastoptreden in een serieuze podcast doet meer voor je AI-zichtbaarheid dan vijftig posts op je eigen kanaal, omdat externe bevestiging het signaal is dat AI-systemen vertrouwen. Ten tweede: investeer in externe bevestiging. AI-systemen wegen externe vermeldingen zwaar mee, en ze wegen ze zwaarder naarmate de bron zelf meer autoriteit heeft. Een interview in een vakblad, een citaat in een sectorrapport, een gastoptreden bij een gevestigde podcast: dit zijn de bouwstenen van EntityRank. Ten derde: kies een smal onderwerp en vestig je daar. Breedte was vergeeflijk in het keyword-tijdperk. In het entity-tijdperk is het een nadeel. Vijftien samenhangende stukken over één thema bouwen een cluster dat AI-systemen herkennen. Vijftig stukken over vijf thema's bouwen niets dat een machine als autoriteit registreert. Het verhaal van 1998 tot 2026 is geen verhaal van nieuwe gereedschappen. Het is een verhaal van zoekmachines die langzaam, maar consequent, hebben geleerd het web te behandelen zoals mensen dat altijd al deden: als een wereld van mensen, dingen en ideeën, met verbanden ertussen, niet als een database van tekstjes. In het oude spel was zichtbaarheid een kwestie van optimaliseren. In het nieuwe spel is zichtbaarheid een kwestie van zijn. Dat vraagt een andere aanpak. Begin morgen met je entity, niet met je volgende blog.

Feit: 14,2% conversie op AI-verwezen bezoek versus 2,8% op organisch zoekverkeer (Conversie-benchmark over meerdere sectoren, 2025)

Identity First Marketing is gebouwd op precies dit principe. De content engine bouwt entities, geen pagina's. Elke publicatie is een stem die het systeem helpt te begrijpen wie de ondernemer is en waar zijn autoriteit ligt.

Veelgestelde vragen

Wat was PageRank en werkt het nog steeds?

PageRank was het rankingalgoritme waarmee Google in 1998 startte. Het telde inkomende links als stemmen voor een pagina. Het werkt nog steeds mee als signaal, maar is door Google aangevuld met tientallen andere signalen, waaronder entity-herkenning, semantische relevantie en gebruikerssignalen. Als enige strategie is het al jaren onvoldoende.

Wat is de Knowledge Graph van Google?

De Knowledge Graph is Google's database van entities: personen, organisaties, plaatsen, boeken en concepten, met de verbanden daartussen. Gelanceerd in 2012 onder het motto 'things, not strings', vormt hij de basis voor Knowledge Panels, featured snippets en het vermogen van Google om vragen te beantwoorden in plaats van links te tonen.

Wat betekent 'entity' in de context van zoeken?

Een entity is een ondubbelzinnig herkenbaar ding in de wereld: een persoon, een organisatie, een product, een begrip. Zoekmachines en AI-systemen kennen entities een identiteit toe op basis van consistente vermeldingen, gestructureerde data en externe bevestigingen. Een entity heeft een eigen bestaan in het systeem, los van individuele pagina's.

Hoe verschilt AI-zoeken van klassiek zoeken?

Klassiek zoeken levert een lijst met links die de gebruiker zelf interpreteert. AI-zoeken componeert een antwoord, opgebouwd uit bronnen die het systeem intern heeft leren vertrouwen. De vraag is niet meer welke pagina het best matcht met een zoekopdracht, maar welke entity de meest geloofwaardige stem heeft op een onderwerp.

Is SEO dood in 2026?

Klassieke keyword-SEO is sterk uitgehold. Entity-SEO, het systematisch opbouwen van een herkenbare, geloofwaardige entity in zoekmachines en AI-systemen, is relevanter dan ooit. Het verschil zit in de aanpak: pagina's optimaliseren heeft minder effect. Een duidelijke, consistente aanwezigheid opbouwen als erkende autoriteit op een smal thema heeft meer effect dan tien jaar geleden.