Wat doe je als LLM’s onjuiste informatie over je werkgeversmerk verspreiden?

Het nieuwe reputatierisico

Stel je voor: een kandidaat vraagt aan ChatGPT “Hoe is de werksfeer bij [jouw bedrijf]?” Het antwoord bevat een verouderde Glassdoor-review uit 2019, een uit context gehaald nieuwsbericht, en een feitelijke onjuistheid over je ontslagronde die nooit heeft plaatsgevonden.

De kandidaat leest het, trekt conclusies, en solliciteert ergens anders. Jij weet niet eens dat dit gebeurt.

Welkom in het tijdperk van AI-reputatierisico.  Waar misinformatie niet alleen verspreid wordt door mensen, maar ook door algoritmes.

Waarom dit probleem groeit

Onderzoek gepubliceerd in Nature Communications (2024) onthult een verontrustend patroon: 50-90% van LLM-gegenereerde citaties ondersteunt de claims waaraan ze gekoppeld zijn niet volledig. AI-systemen “hallucineren”, ze genereren plausibel klinkende maar feitelijk onjuiste informatie.

Voor employer branding betekent dit:

  • Verouderde informatie blijft circuleren (reorganisaties van jaren geleden)
  • Negatieve reviews worden disproportioneel gewogen
  • Feitelijke onjuistheden worden gepresenteerd als feiten
  • Context gaat verloren (een kritisch artikel wordt een definitief oordeel)

De beperkingen van correctie

Hier komt de frustrerende realiteit: je kunt een LLM niet bellen om een correctie aan te vragen. Er is geen “recht op rectificatie” zoals bij traditionele media.

Onderzoek toont bovendien dat menselijke fact-checks significant effectiever zijn dan AI-gegenereerde fact-checks. Erger nog: wanneer AI zelf probeert te fact-checken, kan dit averechts werken. Het kan geloof in accurate informatie verminderen wanneer de AI het onterecht als vals bestempelt.

Strategieën die wél werken

1. Preventie door content-dominantie

De beste verdediging is een goede aanval. Creëer zoveel accurate, recente, gestructureerde content dat deze de verouderde of onjuiste informatie overstemt.

  • Publiceer regelmatig updates over je cultuur en werkgeversmerk
  • Zorg dat recente, positieve content makkelijk vindbaar en citeerbaar is
  • Update bestaande pagina’s minimaal elk half jaar

2. Retrieval-Augmented Generation (RAG) begrijpen

Moderne AI-systemen gebruiken RAG, ze halen actuele informatie op van het web voordat ze antwoorden genereren. Dit betekent dat verse, goed gestructureerde content op je eigen domein direct invloed heeft op AI-antwoorden.

3. Multi-platform consistentie

AI-systemen trianguleren informatie uit meerdere bronnen. Inconsistenties tussen je website, LinkedIn, Glassdoor en persberichten creëren verwarring en verwarring leidt tot onnauwkeurige syntheses.

4. Proactieve monitoring

Wat je niet meet, kun je niet managen. Stel een maandelijkse audit in:

  • Test dezelfde 10 vragen in ChatGPT, Claude, en Perplexity
  • Documenteer onjuistheden en hun waarschijnlijke bron
  • Prioriteer correctie op basis van impact

De escalatieladder

Ernst Voorbeeld Actie
Laag Verouderde maar niet schadelijke info Content-update op eigen kanalen
Medium Negatieve framing zonder context Tegengewicht creëren met positieve content
Hoog Feitelijke onjuistheden Directe correctie op bronpagina’s + nieuwe content
Kritiek Juridisch relevante misinformatie Juridische escalatie + PR-respons

Praktische stappen

Deze week:

  • Voer een “misinformatie-audit” uit: stel 10 kritische vragen over je werkgeversmerk in 3 LLM’s
  • Documenteer elke onjuistheid of verouderde informatie

Deze maand:

  • Identificeer de bronnen van problematische informatie
  • Creëer een content-plan om deze te counteren

Dit kwartaal:

  • Implementeer een structurele monitoring-cadans
  • Bouw een “rapid response” protocol voor ernstige gevallen

De bottomline

In het AI-tijdperk is reputatiemanagement niet langer reactief. Je kunt niet wachten tot een crisis escaleert, want de crisis speelt zich af in miljoenen individuele AI-gesprekken die je nooit ziet.

De werkgevers die winnen zijn degenen die proactief hun narratief voeden met accurate, recente, gestructureerde content zodat AI-systemen geen ruimte hebben om te hallucineren.

Volgende artikel

In het volgende artikel zoomen we in op nichemarkten: hoe word je zichtbaar in AI voor specifieke doelgroepen zoals developers, finance professionals of zorgmedewerkers en waarom specificiteit je grootste bondgenoot is.


Dit artikel is onderdeel van een serie over GEO en employer branding.

Bronnen:

  • Liu, N. et al., “Citation accuracy in large language models,” Nature Communications (2024)
  • MIT Media Lab, “Human vs. AI Fact-Checking Effectiveness Study” (2024)
  • Gartner, “Managing AI-Generated Misinformation in Enterprise Communications” (2025)