Identity First Marketing
  • Home
  • Over ons
  • Diensten
  • Blog
  • Podcast
  • Cursussen
  • Contact

Identity First Marketing

paul@identityfirstmedia.com

Princentuin 2, 4813 CZ, Breda

Pagina's

  • Home
  • Over
  • Contact

Juridisch

  • Privacybeleid
  • Algemene voorwaarden
  • Impressum
  • Herroepingsrecht
  • KvK: 65821327

© 2026 Identity First Marketing

Powered by Identity First Media Platform

Vier AI's, vier regelboeken: hoe ze expertise anders zien
Home/Blog/Vier AI's, vier regelboeken: hoe ze expertise anders zien

Vier AI's, vier regelboeken: hoe ze expertise anders zien

OpenAI, Anthropic, Google en Perplexity hebben elk eigen regels voor wie een expert is. Begrijp die verschillen en word in alle vier geciteerd.

15 april 20264 min leestijd

Inhoudsopgave

  1. Waarom is AI-zoeken geen enkelvoud?
  2. Wat zegt OpenAI's Model Spec over experts?
  3. Wat maakt Anthropic's Claude anders?
  4. Hoe werkt Google's E-E-A-T voor AI?
  5. Wat drijft Perplexity's keuzes?
  6. Waar lopen de vier systemen uit elkaar?
  7. Hoe word je expert in alle vier AI's?

Waarom is AI-zoeken geen enkelvoud?

AI-zoeken is geen één ding, maar vier systemen met eigen regels over vertrouwen en bronnen. OpenAI, Anthropic, Google en Perplexity kiezen experts verschillend.
Marketeers praten over AI-zoeken alsof het één ding is. Dat klopt niet. Minimaal vier heel verschillende systemen bestaan ernaast, elk met eigen regels over wie ze vertrouwen. Welke bronnen wegen mee, en of ze consensus pakken of afwijkende meningen. OpenAI publiceert een regelboek. Anthropic een moreel handvest. Google een marketingbeleid, met het echte werk in een 170-pagina document voor beoordelaars. Perplexity publiceert niets en laat zijn werking spreken. Die verschillen raken experts direct. Jouw LinkedIn-essay kan geciteerd worden in ChatGPT, maar niet in Gemini. Een afwijkende mening verdwijnt in Google, maar leeft in Claude. Wil je in 2026 vindbaar zijn als expert, dan snap je hoe elk systeem denkt.

Feit: 4 (Vier grote AI-systemen met eigen specs, OpenAI Model Spec 2025)

Geen enkele AI bestaat. Schrijf voor vier regelboeken tegelijk om overal op te duiken.

Wat zegt OpenAI's Model Spec over experts?

OpenAI's Model Spec legt een procedure vast voor waarheidsvinden, met focus op bewijs uit betrouwbare bronnen en onzekerheid tonen. Geen domein-voorkeuren of bronhiërarchie.
OpenAI's Model Spec is het meest openbare document hierover. Het bouwt op als een commandoketen: Platform, Developer, User, Guideline. Hoofdstuk 'Seek the truth together' somt stappen op: geen agenda, objectief standpunt, volle opinie-bandbreedte, onzekerheid uitdrukken. Voor feiten is het kort: "For factual questions (e.g., 'Is the Earth flat?'), the assistant should focus on evidence-based information from reliable sources, emphasizing positions with the strongest scientific support." Bij ethiek of politiek: context geven zonder standpunt. Waarheid is een procedure. Weeg bronnen, geef voorrang aan wetenschappelijk gewicht, toon onzekerheid. De Spec herzien ze vaak, zoals versies april en december 2025. Het leeft.

Feit: 2025-12-18 (OpenAI Model Spec, versie december 2025)

Wat maakt Anthropic's Claude anders?

Anthropic's Claude Constitution eist moedige eerlijkheid en afwijken van consensus als de redenering klopt. Geen vage antwoorden om ruzie te vermijden.
Anthropic legt geen methode vast, maar een karakter. De Claude Constitution uit januari 2026 bevat scherpe epistemische regels. Vier springen eruit: "Claude tries to have calibrated uncertainty in claims based on evidence and sound reasoning, even if this is in tension with the positions of official scientific or government bodies." "Epistemic cowardice , giving deliberately vague or noncommittal answers to avoid controversy or to placate people , violates honesty norms." "Claude should be diplomatically honest rather than dishonestly diplomatic." En: "Sometimes being honest requires courage. Claude should share its genuine assessments of hard moral dilemmas, disagree with experts when it has good reason to." Claude mag expliciet afwijken van experts bij goede argumenten. Dat verschilt van OpenAI's wetenschappelijke voorkeur en Google's conservatisme. Voor experts: goed onderbouwde afwijkingen scoren asymmetrisch hoog bij Claude.

Feit: 4 (Anthropic Claude Constitution, januari 2026)

Claude beloont moed, niet alleen consensus.

Hoe werkt Google's E-E-A-T voor AI?

Google's echte regels zitten in 170 pagina's Search Quality Evaluator Guidelines met E-E-A-T: Experience, Expertise, Authoritativeness, Trustworthiness. Voorkeur voor institutionele bronnen.
Google's openbare AI-beleid zegt weinig over bronvoorkeur. Het echte regelboek is de Search Quality Evaluator Guidelines, 170 pagina's voor duizenden menselijke beoordelaars. Alles draait om E-E-A-T. Experience: heeft de auteur het zelf gedaan? Expertise en Authoritativeness per onderwerp. Trustworthiness doorslaggevend: About-pagina, schema.org, backlinks van vertrouwde domeinen, vermeldingen in onafhankelijke bronnen. Gevolg: Google bevoordeelt geen afwijkingen. De ranker kiest institutionele literatuur. Dat maakt Gemini conservatief. Bouw documentatie op in vakpers, universiteiten, Wikipedia of Wikidata voor hogere kans.

Feit: 170 (Google Search Quality Evaluator Guidelines, pagina's)

Wat drijft Perplexity's keuzes?

Perplexity heeft geen spec, maar een traceerbare retrieval-pijplijn: query-herformulering, gecureerde index, drie rerankers. Vers primair materiaal weegt zwaar.
Perplexity publiceert geen model spec. Wel een open retrieval-pijplijn. Een vraag gaat door query-herformulering, vergelijking met gecureerde index, drie rerankers, dan samengesteld met citaties. Elke stap traceerbaar. Voor experts: Perplexity geeft vers materiaal voorrang. Een recent blogartikel met bescheiden autoriteit duikt op, terwijl het in Gemini verdwijnt. Je wacht niet op institutionele validatie. Goed onderbouwd en snel na een gebeurtenis: de pijplijn pakt het.

Feit: 3 (Perplexity retrieval-pijplijn, rerankers)

Snelheid klopt bij Perplexity de poort open.

Waar lopen de vier systemen uit elkaar?

Gemini citeert eigen sites vaak (52%), ChatGPT 48%, Claude en Perplexity minder. Claude waardeert afwijkingen, Google consensus via Reddit (40% Perplexity-citaties).
Citatiestudies tonen divergenties. Eigen merk-sites: Gemini 52 procent, ChatGPT 48 procent volgens Yext. Reddit: Google sinds 2024-deal, 40 procent Perplexity-citaties eruit. Primair-experimenteel: Claude weegt hoog bij goede argumenten. Institutioneel (Wikipedia, HBR): Google voorop, Claude als basis maar durft af te wijken. Afwijkingen: alleen Claude beloont expliciet. Zelfde stuk krijgt andere behandeling. Scherpe afwijking op eigen blog: hoog bij Claude, matig Perplexity, laag Gemini, wisselend ChatGPT. Consensus-samenvatting: goed voor Gemini en ChatGPT, zwak bij Claude.

Feit: 52% (Yext citatiestudie, Gemini eigen sites)

Één stuk, vier oordelen. Pas je strategie aan.

Hoe word je expert in alle vier AI's?

Combineer consensus met eigen positie, bouw vermeldingen op, publiceer snel en geef ideeën namen. Vier zetten werken op alle systemen tegelijk.
Geen enkel stuk werkt overal. Wel vier zetten die samenvallen. Eén: Combineer bronrijke consensus met één scherpe eigen positie. Consensus voor Google en ChatGPT, afwijking voor Claude, details voor Perplexity. Twee: Vermeldingen in vertrouwde kanalen. Schema.org en About voor Google, podcasts voor Claude en Perplexity, Reddit voor Perplexity en Google. Drie: Publiceer snel en primair. Eigen observatie binnen een week: Perplexity pakt het, anderen volgen. Vier: Geef ideeën namen. Een benoemd framework clustert als entiteit in elke ranker. Doe dit consequent, dan duik je op in samenvattingen over jouw vak.

Feit: 4 (Praktische zetten voor vier AI-systemen)

Schrijf voor vier lagen tegelijk. Start vandaag met zet één.

Veelgestelde vragen

Verschilt OpenAI van Claude in expertkeuze?

Ja, OpenAI volgt wetenschappelijke consensus via procedure, Claude wijkt moedig af bij goede redenering. OpenAI: 'strongest scientific support'. Claude: 'disagree with experts when it has good reason to'. Resultaat: afwijkende posities scoren bij Claude beter.

Waarom is Google's E-E-A-T cruciaal?

Google's 170-pagina Guidelines baseren op E-E-A-T voor beoordelaars. Experience, Expertise, Authoritativeness, Trustworthiness via About-pagina's, schema en backlinks. Bouw institutionele vermeldingen op voor hogere citatiekans in Gemini.

Hoe scoort Perplexity vers materiaal?

Perplexity's pijplijn herformuleert queries, gebruikt gecureerde index en drie rerankers. Vers, goed onderbouwd materiaal met citaties krijgt voorrang, zonder wachttijd op autoriteit.

Welke stap eerst voor AI-vindbaarheid?

Begin met bronrijke consensus plus één eigen positie per stuk. Dat dekt Google/ChatGPT en Claude tegelijk. Voeg snelheid en namen toe voor Perplexity en clustering.

Wordt één artikel overal geciteerd?

Nee, pas aan per systeem. Maar vier zetten zorgen voor gelaagde content die op alle rankers scoort: consensuslaag, afwijking, versheid en entiteitsnamen.