Wat doe je als LLM’s onjuiste informatie over je werkgeversmerk verspreiden?
Het nieuwe reputatierisico
Stel je voor: een kandidaat vraagt aan ChatGPT “Hoe is de werksfeer bij [jouw bedrijf]?” Het antwoord bevat een verouderde Glassdoor-review uit 2019, een uit context gehaald nieuwsbericht, en een feitelijke onjuistheid over je ontslagronde die nooit heeft plaatsgevonden.
De kandidaat leest het, trekt conclusies, en solliciteert ergens anders. Jij weet niet eens dat dit gebeurt.
Welkom in het tijdperk van AI-reputatierisico. Waar misinformatie niet alleen verspreid wordt door mensen, maar ook door algoritmes.
Waarom dit probleem groeit
Onderzoek gepubliceerd in Nature Communications (2024) onthult een verontrustend patroon: 50-90% van LLM-gegenereerde citaties ondersteunt de claims waaraan ze gekoppeld zijn niet volledig. AI-systemen “hallucineren”, ze genereren plausibel klinkende maar feitelijk onjuiste informatie.
Voor employer branding betekent dit:
- Verouderde informatie blijft circuleren (reorganisaties van jaren geleden)
- Negatieve reviews worden disproportioneel gewogen
- Feitelijke onjuistheden worden gepresenteerd als feiten
- Context gaat verloren (een kritisch artikel wordt een definitief oordeel)
De beperkingen van correctie
Hier komt de frustrerende realiteit: je kunt een LLM niet bellen om een correctie aan te vragen. Er is geen “recht op rectificatie” zoals bij traditionele media.
Onderzoek toont bovendien dat menselijke fact-checks significant effectiever zijn dan AI-gegenereerde fact-checks. Erger nog: wanneer AI zelf probeert te fact-checken, kan dit averechts werken. Het kan geloof in accurate informatie verminderen wanneer de AI het onterecht als vals bestempelt.
Strategieën die wél werken
1. Preventie door content-dominantie
De beste verdediging is een goede aanval. Creëer zoveel accurate, recente, gestructureerde content dat deze de verouderde of onjuiste informatie overstemt.
- Publiceer regelmatig updates over je cultuur en werkgeversmerk
- Zorg dat recente, positieve content makkelijk vindbaar en citeerbaar is
- Update bestaande pagina’s minimaal elk half jaar
2. Retrieval-Augmented Generation (RAG) begrijpen
Moderne AI-systemen gebruiken RAG, ze halen actuele informatie op van het web voordat ze antwoorden genereren. Dit betekent dat verse, goed gestructureerde content op je eigen domein direct invloed heeft op AI-antwoorden.
3. Multi-platform consistentie
AI-systemen trianguleren informatie uit meerdere bronnen. Inconsistenties tussen je website, LinkedIn, Glassdoor en persberichten creëren verwarring en verwarring leidt tot onnauwkeurige syntheses.
4. Proactieve monitoring
Wat je niet meet, kun je niet managen. Stel een maandelijkse audit in:
- Test dezelfde 10 vragen in ChatGPT, Claude, en Perplexity
- Documenteer onjuistheden en hun waarschijnlijke bron
- Prioriteer correctie op basis van impact
De escalatieladder
| Ernst | Voorbeeld | Actie |
|---|---|---|
| Laag | Verouderde maar niet schadelijke info | Content-update op eigen kanalen |
| Medium | Negatieve framing zonder context | Tegengewicht creëren met positieve content |
| Hoog | Feitelijke onjuistheden | Directe correctie op bronpagina’s + nieuwe content |
| Kritiek | Juridisch relevante misinformatie | Juridische escalatie + PR-respons |
Praktische stappen
Deze week:
- Voer een “misinformatie-audit” uit: stel 10 kritische vragen over je werkgeversmerk in 3 LLM’s
- Documenteer elke onjuistheid of verouderde informatie
Deze maand:
- Identificeer de bronnen van problematische informatie
- Creëer een content-plan om deze te counteren
Dit kwartaal:
- Implementeer een structurele monitoring-cadans
- Bouw een “rapid response” protocol voor ernstige gevallen
De bottomline
In het AI-tijdperk is reputatiemanagement niet langer reactief. Je kunt niet wachten tot een crisis escaleert, want de crisis speelt zich af in miljoenen individuele AI-gesprekken die je nooit ziet.
De werkgevers die winnen zijn degenen die proactief hun narratief voeden met accurate, recente, gestructureerde content zodat AI-systemen geen ruimte hebben om te hallucineren.
Volgende artikel
In het volgende artikel zoomen we in op nichemarkten: hoe word je zichtbaar in AI voor specifieke doelgroepen zoals developers, finance professionals of zorgmedewerkers en waarom specificiteit je grootste bondgenoot is.
Dit artikel is onderdeel van een serie over GEO en employer branding.
Bronnen:
- Liu, N. et al., “Citation accuracy in large language models,” Nature Communications (2024)
- MIT Media Lab, “Human vs. AI Fact-Checking Effectiveness Study” (2024)
- Gartner, “Managing AI-Generated Misinformation in Enterprise Communications” (2025)