
Vier AI's, vier regelboeken: hoe ze expertise anders zien
OpenAI, Anthropic, Google en Perplexity hebben elk eigen regels voor wie een expert is. Begrijp die verschillen en word in alle vier geciteerd.
4 min leestijd
Waarom is AI-zoeken geen enkelvoud?
AI-zoeken is geen één ding, maar vier systemen met eigen regels over vertrouwen en bronnen. OpenAI, Anthropic, Google en Perplexity kiezen experts verschillend.
Marketeers praten over AI-zoeken alsof het één ding is. Dat klopt niet. Minimaal vier heel verschillende systemen bestaan ernaast, elk met eigen regels over wie ze vertrouwen. Welke bronnen wegen mee, en of ze consensus pakken of afwijkende meningen. OpenAI publiceert een regelboek. Anthropic een moreel handvest. Google een marketingbeleid, met het echte werk in een 170-pagina document voor beoordelaars. Perplexity publiceert niets en laat zijn werking spreken.
Die verschillen raken experts direct. Jouw LinkedIn-essay kan geciteerd worden in ChatGPT, maar niet in Gemini. Een afwijkende mening verdwijnt in Google, maar leeft in Claude. Wil je in 2026 vindbaar zijn als expert, dan snap je hoe elk systeem denkt.
Wat zegt OpenAI's Model Spec over experts?
OpenAI's Model Spec legt een procedure vast voor waarheidsvinden, met focus op bewijs uit betrouwbare bronnen en onzekerheid tonen. Geen domein-voorkeuren of bronhiërarchie.
OpenAI's Model Spec is het meest openbare document hierover. Het bouwt op als een commandoketen: Platform, Developer, User, Guideline. Hoofdstuk 'Seek the truth together' somt stappen op: geen agenda, objectief standpunt, volle opinie-bandbreedte, onzekerheid uitdrukken.
Voor feiten is het kort: "For factual questions (e.g., 'Is the Earth flat?'), the assistant should focus on evidence-based information from reliable sources, emphasizing positions with the strongest scientific support." Bij ethiek of politiek: context geven zonder standpunt. Waarheid is een procedure. Weeg bronnen, geef voorrang aan wetenschappelijk gewicht, toon onzekerheid. De Spec herzien ze vaak, zoals versies april en december 2025. Het leeft.
Wat maakt Anthropic's Claude anders?
Anthropic's Claude Constitution eist moedige eerlijkheid en afwijken van consensus als de redenering klopt. Geen vage antwoorden om ruzie te vermijden.
Anthropic legt geen methode vast, maar een karakter. De Claude Constitution uit januari 2026 bevat scherpe epistemische regels. Vier springen eruit: "Claude tries to have calibrated uncertainty in claims based on evidence and sound reasoning, even if this is in tension with the positions of official scientific or government bodies."
"Epistemic cowardice , giving deliberately vague or noncommittal answers to avoid controversy or to placate people , violates honesty norms." "Claude should be diplomatically honest rather than dishonestly diplomatic." En: "Sometimes being honest requires courage. Claude should share its genuine assessments of hard moral dilemmas, disagree with experts when it has good reason to."
Claude mag expliciet afwijken van experts bij goede argumenten. Dat verschilt van OpenAI's wetenschappelijke voorkeur en Google's conservatisme. Voor experts: goed onderbouwde afwijkingen scoren asymmetrisch hoog bij Claude.
Hoe werkt Google's E-E-A-T voor AI?
Google's echte regels zitten in 170 pagina's Search Quality Evaluator Guidelines met E-E-A-T: Experience, Expertise, Authoritativeness, Trustworthiness. Voorkeur voor institutionele bronnen.
Google's openbare AI-beleid zegt weinig over bronvoorkeur. Het echte regelboek is de Search Quality Evaluator Guidelines, 170 pagina's voor duizenden menselijke beoordelaars. Alles draait om E-E-A-T. Experience: heeft de auteur het zelf gedaan? Expertise en Authoritativeness per onderwerp. Trustworthiness doorslaggevend: About-pagina, schema.org, backlinks van vertrouwde domeinen, vermeldingen in onafhankelijke bronnen.
Gevolg: Google bevoordeelt geen afwijkingen. De ranker kiest institutionele literatuur. Dat maakt Gemini conservatief. Bouw documentatie op in vakpers, universiteiten, Wikipedia of Wikidata voor hogere kans.
Wat drijft Perplexity's keuzes?
Perplexity heeft geen spec, maar een traceerbare retrieval-pijplijn: query-herformulering, gecureerde index, drie rerankers. Vers primair materiaal weegt zwaar.
Perplexity publiceert geen model spec. Wel een open retrieval-pijplijn. Een vraag gaat door query-herformulering, vergelijking met gecureerde index, drie rerankers, dan samengesteld met citaties. Elke stap traceerbaar.
Voor experts: Perplexity geeft vers materiaal voorrang. Een recent blogartikel met bescheiden autoriteit duikt op, terwijl het in Gemini verdwijnt. Je wacht niet op institutionele validatie. Goed onderbouwd en snel na een gebeurtenis: de pijplijn pakt het.
Waar lopen de vier systemen uit elkaar?
Gemini citeert eigen sites vaak (52%), ChatGPT 48%, Claude en Perplexity minder. Claude waardeert afwijkingen, Google consensus via Reddit (40% Perplexity-citaties).
Citatiestudies tonen divergenties. Eigen merk-sites: Gemini 52 procent, ChatGPT 48 procent volgens Yext. Reddit: Google sinds 2024-deal, 40 procent Perplexity-citaties eruit. Primair-experimenteel: Claude weegt hoog bij goede argumenten. Institutioneel (Wikipedia, HBR): Google voorop, Claude als basis maar durft af te wijken. Afwijkingen: alleen Claude beloont expliciet.
Zelfde stuk krijgt andere behandeling. Scherpe afwijking op eigen blog: hoog bij Claude, matig Perplexity, laag Gemini, wisselend ChatGPT. Consensus-samenvatting: goed voor Gemini en ChatGPT, zwak bij Claude.
Hoe word je expert in alle vier AI's?
Combineer consensus met eigen positie, bouw vermeldingen op, publiceer snel en geef ideeën namen. Vier zetten werken op alle systemen tegelijk.
Geen enkel stuk werkt overal. Wel vier zetten die samenvallen.
Eén: Combineer bronrijke consensus met één scherpe eigen positie. Consensus voor Google en ChatGPT, afwijking voor Claude, details voor Perplexity.
Twee: Vermeldingen in vertrouwde kanalen. Schema.org en About voor Google, podcasts voor Claude en Perplexity, Reddit voor Perplexity en Google.
Drie: Publiceer snel en primair. Eigen observatie binnen een week: Perplexity pakt het, anderen volgen.
Vier: Geef ideeën namen. Een benoemd framework clustert als entiteit in elke ranker.
Doe dit consequent, dan duik je op in samenvattingen over jouw vak.
Veelgestelde vragen
Verschilt OpenAI van Claude in expertkeuze?
Ja, OpenAI volgt wetenschappelijke consensus via procedure, Claude wijkt moedig af bij goede redenering. OpenAI: 'strongest scientific support'. Claude: 'disagree with experts when it has good reason to'. Resultaat: afwijkende posities scoren bij Claude beter.
Waarom is Google's E-E-A-T cruciaal?
Google's 170-pagina Guidelines baseren op E-E-A-T voor beoordelaars. Experience, Expertise, Authoritativeness, Trustworthiness via About-pagina's, schema en backlinks. Bouw institutionele vermeldingen op voor hogere citatiekans in Gemini.
Hoe scoort Perplexity vers materiaal?
Perplexity's pijplijn herformuleert queries, gebruikt gecureerde index en drie rerankers. Vers, goed onderbouwd materiaal met citaties krijgt voorrang, zonder wachttijd op autoriteit.
Welke stap eerst voor AI-vindbaarheid?
Begin met bronrijke consensus plus één eigen positie per stuk. Dat dekt Google/ChatGPT en Claude tegelijk. Voeg snelheid en namen toe voor Perplexity en clustering.
Wordt één artikel overal geciteerd?
Nee, pas aan per systeem. Maar vier zetten zorgen voor gelaagde content die op alle rankers scoort: consensuslaag, afwijking, versheid en entiteitsnamen.