
Van PageRank naar EntityRank: hoe machines 25 jaar lang bepaalden wie ertoe doet
Vijfentwintig jaar lang schoven zoekmachines weg van woorden matchen richting entities herkennen. Wie die beweging begrijpt, staat in de AI-antwoorden van 2026.
6 min leestijd
Hoe begon Google de spelregels van zichtbaarheid te herschrijven?
In 1998 schreven twee Stanford-promovendi een ranking-algoritme dat verwijzingen telde zoals de wetenschap citaties telt. Dat herdrukte het hele internet.
Voor Google waren zoekmachines woordmachines. AltaVista, Lycos, Excite, Yahoo — ze indexeerden welke woorden op welke pagina stonden en probeerden daar iets slims mee te doen. Kwaliteit was niet het signaal. Aanwezigheid wel.
PageRank zette dat op zijn kop. Het idee was scherp en eenvoudig: een pagina waar veel andere pagina's naar linken, is waarschijnlijk belangrijker dan een pagina waar niemaal naar linkt. Net zoals een wetenschappelijk artikel dat vaak geciteerd wordt, meer gewicht heeft dan een artikel dat in een la blijft liggen. Elke link werd een stem. En een stem van een autoriteit telde zwaarder dan een stem van een willekeurige pagina.
Bijna tien jaar lang werkte dit mooi. Tot het niet meer werkte. Het web draaide niet op academische eerlijkheid. Het draaide op belangen. Toen marketeers doorhadden dat links de munt waren, begonnen ze die munt te fabriceren. Link farms. Privé-blognetwerken. Betaalde links in editoriaal jasje. Gastenboekspam. Het signaal verloor zijn waarde.
Google vocht terug met updates: Panda in 2011, Penguin in 2012. Maar het echte probleem was duidelijk. Het tijdperk van linkjes tellen liep op zijn einde. Er moest iets anders komen.
Wat veranderde er toen Google 'things, not strings' aankondigde?
In mei 2012 lanceerde Google de Knowledge Graph: een kaart van entities, niet van documenten. Personen, organisaties, boeken en concepten kregen een eigen bestaan in het systeem.
De slogan was helder: 'things, not strings', dingen, geen tekstjes. Wie in 2011 op 'Leonardo da Vinci' zocht, kreeg pagina's terug. Wie in 2013 zocht, kreeg een persoon terug: geboortedatum, schilderijen, tijdgenoten, het informatiekader rechts met biografie en al. Het documentgerichte web was, in Google's hoofd in elk geval, een entity-gericht web geworden.
Voor marketeers was dit de eerste serieuze schok. Schema.org, het gezamenlijke gestructureerde data-initiatief dat Google, Bing, Yahoo en Yandex in 2011 hadden opgericht, werd dé manier om machines expliciet te vertellen wat voor soort ding een pagina beschreef. Organisaties verschenen als Knowledge Panels. Lokale bedrijven die eerder onzichtbaar waren, kregen ineens een kaartje met openingstijden, beoordelingen en foto's.
De meeste SEO-bureaus bleven intussen keyword-optimaliseren. De wereld schoof onder hun voeten weg, en de verdienmodellen van de industrie, maandelijkse retainers en rapportages met tactische lijstjes, hielden de focus jaren langer op het oude spel dan verstandig was.
Hoe maakten semantische modellen zoekopdrachten begrijpelijker dan woorden?
BERT, uitgerold in oktober 2019, herkende intentie achter vragen. Exact matching werd minder belangrijk. Betekenis en context werden doorslaggevend.
In oktober 2019 rolde Google een model uit dat BERT heette, een systeem dat natuurlijke taal beter kon begrijpen. Het doel was niet langer woorden matchen, maar intentie herkennen. 'Kan iemand anders in plaats van mij mijn medicijnen afhalen bij de apotheek' werd een vraag die Google opeens kon lezen zoals een mens dat leest, niet als een zak met woorden, maar als een vraag met context.
In de vier jaar daarna werd die semantische laag dieper. MUM, het Multitask Unified Model, verscheen in 2021 en breidde het begrip uit naar talen en media. Begin 2023 was Google's zoekkwaliteit fundamenteel verschoven. Een pagina kon hoog eindigen op een zoekopdracht zonder dat de exacte woorden erop stonden, omdat de betekenis aansloot bij de intentie.
Dat had een stil effect. Keyword-optimalisatie, de ruggengraat van SEO voor twee decennia, werd ineens veel minder belangrijk. Een goed geschreven pagina over het juiste onderwerp versloeg een volgestouwde pagina over één zoekwoord. Diepte over een thema telde zwaarder dan oppervlakkig matchen. De echte kanteling was echter nog niet gekomen.
Wat maakt AI-zoeken fundamenteel anders dan klassiek zoeken?
AI-systemen bouwen geen lijst met links. Ze componeren een antwoord op basis van hun interne beeld van wie en wat in de wereld bestaat. Wie als entity bestaat, komt erin. Wie dat niet doet, niet.
Eind 2022 lanceerde OpenAI ChatGPT. Begin 2023 integreerde Bing GPT-4 in zijn zoekervaring. Perplexity volgde, Google's Bard volgde, en in 2024 verschenen AI Overviews bovenaan Google's zoekresultaten. De compositie van een zoekpagina veranderde fundamenteel. Gebruikers scrolden niet langer een lijst met links. Ze lazen een antwoord.
Dat antwoord werd opgebouwd uit bronnen. Sommige werden bij naam genoemd. De meeste niet.
Hier komt de kwart-eeuwse boog aan de grond. Uit onderzoek naar AI-citaties bleek dat 80% van de bronnen die AI-systemen aanhalen, niet in de top 100 van Google staan. AI put uit een andere vijver. Bovendien gaat 86% van de AI-citaties naar sites die kennisclusters bouwen rond één onderwerp, niet naar verspreide contentarchieven. Wie breed publiceert over vijf thema's, bouwt niets. Wie vijftien samenhangende stukken over één thema publiceert, bouwt een cluster dat AI-systemen herkennen en aanhalen.
Een AI-antwoord is geen opsomming van pagina's. Het is een compositie opgebouwd uit het interne beeld dat het model heeft van wie en wat er in de wereld bestaat. Ben jij een entity die het model kent, met verbanden die het model vertrouwt, dan kom je in het antwoord. Ben je dat niet, dan kom je er niet in.
Wat is EntityRank en waarom is het geen officiële term?
EntityRank is geen naam van Google of OpenAI, maar beschrijft nauwkeurig wat moderne zoeksystemen doen: entities rangschikken naar geloofwaardigheid op basis van verbanden, consistentie en externe bevestiging.
Geen ingenieur bij Google of OpenAI gebruikt de term. Maar hij vangt wat al deze systemen onder de motorkap delen: een rangschikking, expliciet of impliciet, van entities naar autoriteit. Personen. Organisaties. Onderwerpen. Diensten.
Waar PageRank vroeg 'hoeveel pagina's linken naar deze pagina?', stelt het moderne systeem een gelaagdere vraag: hoeveel geloofwaardige bronnen noemen deze entity op een consistente manier, over verschillende media heen, en hoe goed is deze entity verbonden met andere entities die zelf geloofwaardig zijn?
Dit is een trager spel. Het is ook een eerlijker spel, omdat het lastiger is om te vervalsen. Link farms konden PageRank bedriegen. Een netwerk van gefabriceerde vermeldingen in podcasts, interviews, gastartikelen en persberichten bouwen, consequent over jaren, met een samenhangend thematisch territorium, dat is structureel niet te simuleren.
Wat dat systeem voedt:
- Consistente naamgeving over sites, platformen, podcasts en artikelen
- Externe vermeldingen met autoriteit: podcasts, interviews, gastartikelen, pers
- Een samenhangend thematisch territorium dat de expert bezet
- Gestructureerde data die bevestigt wie de entity is en wat ze doet
- Langlopende, stabiele identificeerders: een domein, een LinkedIn-profiel, eventueel een Wikipedia-pagina als de schaal het toelaat
Wat moeten experts en ondernemers nu anders doen?
Drie verschuivingen zijn nodig: van paginaoptimalisatie naar entityopbouw, van eigen kanaal naar externe bevestiging, en van breedte naar een smal gekozen thematisch territorium.
De praktische lessen zijn minder gecompliceerd dan de technische geschiedenis.
Ten eerste: stop met het optimaliseren van pagina's. Begin met het bouwen van een entity. Elk stuk content is geen losstaand ding. Het is een stem voor de entity die jouw naam draagt. Behandel het zo. Eén gastoptreden in een serieuze podcast doet meer voor je AI-zichtbaarheid dan vijftig posts op je eigen kanaal, omdat externe bevestiging het signaal is dat AI-systemen vertrouwen.
Ten tweede: investeer in externe bevestiging. AI-systemen wegen externe vermeldingen zwaar mee, en ze wegen ze zwaarder naarmate de bron zelf meer autoriteit heeft. Een interview in een vakblad, een citaat in een sectorrapport, een gastoptreden bij een gevestigde podcast: dit zijn de bouwstenen van EntityRank.
Ten derde: kies een smal onderwerp en vestig je daar. Breedte was vergeeflijk in het keyword-tijdperk. In het entity-tijdperk is het een nadeel. Vijftien samenhangende stukken over één thema bouwen een cluster dat AI-systemen herkennen. Vijftig stukken over vijf thema's bouwen niets dat een machine als autoriteit registreert.
Het verhaal van 1998 tot 2026 is geen verhaal van nieuwe gereedschappen. Het is een verhaal van zoekmachines die langzaam, maar consequent, hebben geleerd het web te behandelen zoals mensen dat altijd al deden: als een wereld van mensen, dingen en ideeën, met verbanden ertussen, niet als een database van tekstjes.
In het oude spel was zichtbaarheid een kwestie van optimaliseren. In het nieuwe spel is zichtbaarheid een kwestie van zijn. Dat vraagt een andere aanpak. Begin morgen met je entity, niet met je volgende blog.
Veelgestelde vragen
Wat was PageRank en werkt het nog steeds?
PageRank was het rankingalgoritme waarmee Google in 1998 startte. Het telde inkomende links als stemmen voor een pagina. Het werkt nog steeds mee als signaal, maar is door Google aangevuld met tientallen andere signalen, waaronder entity-herkenning, semantische relevantie en gebruikerssignalen. Als enige strategie is het al jaren onvoldoende.
Wat is de Knowledge Graph van Google?
De Knowledge Graph is Google's database van entities: personen, organisaties, plaatsen, boeken en concepten, met de verbanden daartussen. Gelanceerd in 2012 onder het motto 'things, not strings', vormt hij de basis voor Knowledge Panels, featured snippets en het vermogen van Google om vragen te beantwoorden in plaats van links te tonen.
Wat betekent 'entity' in de context van zoeken?
Een entity is een ondubbelzinnig herkenbaar ding in de wereld: een persoon, een organisatie, een product, een begrip. Zoekmachines en AI-systemen kennen entities een identiteit toe op basis van consistente vermeldingen, gestructureerde data en externe bevestigingen. Een entity heeft een eigen bestaan in het systeem, los van individuele pagina's.
Hoe verschilt AI-zoeken van klassiek zoeken?
Klassiek zoeken levert een lijst met links die de gebruiker zelf interpreteert. AI-zoeken componeert een antwoord, opgebouwd uit bronnen die het systeem intern heeft leren vertrouwen. De vraag is niet meer welke pagina het best matcht met een zoekopdracht, maar welke entity de meest geloofwaardige stem heeft op een onderwerp.
Is SEO dood in 2026?
Klassieke keyword-SEO is sterk uitgehold. Entity-SEO, het systematisch opbouwen van een herkenbare, geloofwaardige entity in zoekmachines en AI-systemen, is relevanter dan ooit. Het verschil zit in de aanpak: pagina's optimaliseren heeft minder effect. Een duidelijke, consistente aanwezigheid opbouwen als erkende autoriteit op een smal thema heeft meer effect dan tien jaar geleden.