Stel je voor: een slimme AI-tool die exact weet wanneer een klant klaar is om te kopen, welke boodschap daarbij het beste aanslaat en hoe de follow-upmail moet worden geformuleerd om tot een aankoop te verleiden. Klinkt verleidelijk, maar er kleeft ook een keerzijde aan. Want wat als consumenten door zo’n toepassing in een eindeloze cyclus van kopen belanden, gediscrimineerd worden of geen inzicht hebben in hoe de technologie hun persoonlijke gegevens verwerkt? In mijn blog voor Frankwatching benadrukte ik al het belang van ethisch bewustzijn bij AI. In deze blog borduur ik daarop voort en zoom ik in op hoe bedrijven AI op een verantwoorde en ethische manier kunnen inzetten voor hunmarketing(communicatie).
AI biedt geweldige kansen voor merken om de effectiviteit van marketing(communicatie) te vergroten. Tegelijkertijd brengt de inzet van AI ook verantwoordelijkheid met zich mee. AI heeft geen eigen geweten en de toepassing richting potentiële klanten kan (onbedoeld) leiden tot manipulatie, discriminatie, opdringerigheid en gebrek aan transparantie.
In mijn eerdere blog beschreef ik hoe je met behulp van AI hyper gepersonaliseerde content en relevante klantervaringen kunt realiseren. Maar als een AI-toepassing verkeerde of ongepaste resultaten geeft, kan dit je merkimago schaden. Klanten delen negatieve ervaringen razendsnel via social media. Bovendien laten onderzoeksresultaten zien dat consumenten minder geneigd zijn een product te kopen als de AI-functionaliteiten hen niet volledig duidelijk of vertrouwd overkomen (nederlanddigitaal.nl).
Klanten moeten erop kunnen vertrouwen dat jij hun gegevens en belangen beschermt. Zodra klanten het gevoel hebben dat een algoritme belangrijker wordt gevonden dan hun privacy of welzijn, haken ze af. Met het verlies van vertrouwen daalt ook de klantloyaliteit. Een zorgvuldige en eerlijke inzet van AI richting je klanten is daarom belangrijker dan ooit.
Vanaf 2 februari 2025 verbiedt de EU AI Act bepaalde AI-toepassingen (frankwatching.com). Dit betekent dat je goed moet nagaan of jouw AI-inzet voor marketing(communicatie) is toegestaan en voldoet aan de regels. Naast de AI Act blijft natuurlijk de AVG (GDPR) gelden voor persoonsgegevens. Houd je dus aan privacyregels bij het gebruik van klantdata in AI, zoals: toestemming vragen en duidelijk uitleggen wat je met de gegevens doet. Niet voldoen aan deze regels kan leiden tot zware boetes en negatieve publiciteit. We hebben dit al gezien in Nederland: zo kreeg Uber een boete van 10 miljoen euro omdat het niet duidelijk was over hoe het de data van zijn chauffeurs verzamelde en gebruikte (frankwatching.com). Ook werd in 2024 het Amerikaanse Clearview beboet met ruim 30 miljoen euro voor het ongeoorloofd verzamelen van gezichtsgegevens (reuters.com).
Zorg er dus voor dat jouw AI-toepassingen “compliant” zijn: voldoe aan de AI Act, de AVG en andere relevante wetten. Dit is niet alleen een juridisch vinkje, maar ook een voorwaarde om het vertrouwen van je klanten te behouden.
Aan de andere kant biedt verantwoord AI-gebruik juist kansen. Je kunt je positief onderscheiden van concurrenten door transparant en eerlijk te zijn over AI. Klanten waarderen het als je duidelijk communiceert dat bijvoorbeeld een chatbot door AI wordt aangestuurd, of als je AI inzet om hén beter van dienst te zijn in plaats van puur voor eigen gewin. Bedrijven die open zijn over hun AI-gebruik en aantoonbaar de klantbelangen vooropstellen, winnen op de lange termijn vertrouwen, loyaliteit van klanten en positieve mond-tot-mondreclame. Ethisch gebruik van AI kan zo een uniek verkooppunt worden: je laat zien dat jouw organisatie innovatief is én een sterk moreel kompas heeft. Maar hoe doe je dat? Hieronder volgen 5 concrete tips.
Verzamel en gebruik klantdata met beleid. Vraag jezelf af: hebben we deze persoonsgegevens écht nodig voor deze AI-toepassing? Zo ja, zorg dan voor heldere toestemming en veilige opslag. Anonimiseer waar mogelijk. Wees transparant naar je klanten over welke data je gebruikt en waarom. Geef ook inzicht in de wijze waarop je AI besluitvorming ondersteunt: hoe werkt die ‘slimme’ aanbeveling eigenlijk? Dit voorkomt wantrouwen.
Een voorbeeld van wat er mis kan gaan, zagen we bij Uber: het bedrijf kreeg een miljoenenboete omdat het onduidelijk was over het verzamelen en gebruik van data (frankwatching.com). Een voorbeeld van een merk dat effort steekt in transparant gebruik van persoonsgegevens en algoritmes is Bol.com. Klanten kunnen zien welke data het merk deelt en hoe persoonlijke aanbevelingen worden gegenereerd. Zo noemt Bol.com bijvoorbeeld dat eerdere zoek- en koopgeschiedenis wordt gebruikt, maar dat de klant bepaalde data kan uitschakelen. Door duidelijk te maken hoe het algoritme werkt, vergroot Bol.com het vertrouwen en verkleint het de kans op vervreemding of achterdocht.
AI neemt beslissingen op basis van data die wij hem geven. Als die data eenzijdig of bevooroordeeld is, neemt de AI die bias klakkeloos over. Dat kan leiden tot oneerlijke uitkomsten, zoals bepaalde groepen klanten die steevast een slechtere aanbieding krijgen of zelfs genegeerd worden. Dit kan onbedoeld gebeuren, maar het effect is wel discriminerend. Daarom moet je bij het trainen van AI kritisch kijken naar de data: is deze representatief voor al je klanten?
Een veelbesproken voorbeeld van hoe vooringenomen data kan leiden tot oneerlijke AI-beslissingen, is de Apple Card van Apple en de bank Goldman Sachs. Bij de lancering in 2019 gebruikte deze creditcard een AI-algoritme om te bepalen hoeveel kredietlimiet iemand kreeg. Al snel bleek dat vrouwen stelselmatig een lager limiet kregen dan mannen met vergelijkbare of zelfs lagere inkomens. Enkele echtparen ontdekten bijvoorbeeld dat de man een veel hogere limiet kreeg dan de vrouw, terwijl de vrouw meer verdiende en een betere kredietgeschiedenis had. Er ontstond grote ophef in de media en de toezichthouder in de staat New York startte een onderzoek naar mogelijke discriminatie. De oorzaak bleek bias in de data te zijn: het onderliggende AI-model was getraind op historische kredietgegevens waarin vrouwen structureel anders werden behandeld dan mannen. Bovendien hadden zowel Apple als Goldman Sachs niet of nauwelijks handmatig gecontroleerd of het algoritme bepaalde groepen benadeelde.
Randstad is een voorbeeld van een bedrijf dat op een positieve manier experimenteert met AI-toepassingen voor vacature-aanbevelingen. Het uitzendbureau controleert actief of de algoritmes geen onbewuste voorkeuren laten zien (bijvoorbeeld voor mannen of jongere kandidaten). Door periodieke audits op de trainingsdata – zoals CV’s van alle leeftijden, opleidingsniveaus en culturele achtergronden – tracht Randstad biases te minimaliseren.
Genereer niet klakkeloos teksten of beelden met AI, maar bedenk vooraf of dit ethisch gepast is en wees er open over richting je publiek. Een voorbeeld waarbij dit fot ging is Levi’s. Dit kledingmerk kondigde in 2023 aan AI-gegenereerde modellen in te zetten op zijn webshop. Met hulp van een AI-studio wilde Levi’s digitale fotomodellen creëren met diverse huidskleuren, leeftijden en maten, om zo “meer diversiteit” te tonen in hun reclame-uitingen. Het idee was dat klanten kleding konden zien op uiteenlopende virtuele modellen.
Hoewel het streven naar diversiteit positief lijkt, vonden velen dit misleidend en ongepast. In plaats van echte mensen uit diverse groepen in te huren, maakte Levi’s nep-modellen met de computer. Dit werd gezien als “kunstmatige diversiteit” – de schijn van inclusie wekken zonder écht kansen te bieden aan ondergerepresenteerde modellen. Diverse modellen en klanten spraken zich uit dat dit een stap terug is en dat het bedrijf beter echte mensen kan boeken. Bovendien vermoedde men dat kostenbesparing (minder fotoshoots en modellenhonoraria) de echte drijfveer was, verpakt als diversiteitsinitiatief.
De backlash was aanzienlijk. Na de aankondiging ontstond op social media en in de pers veel kritiek. Levi’s zag zich gedwongen het plan toe te lichten en te benadrukken dat AI-modellen bedoeld waren als aanvulling, niet vervanging van echte modellen. Toch heeft de reputatie een knauw gekregen: het merk kwam over als niet-authentiek en ongevoelig voor de uitdagingen van echte diversiteit. Juridische straffen waren hier niet aan de orde, maar de publieke opinie was een duidelijk signaal.
Er is een dunne grens tussen inspireren tot aankoop en mensen manipuleren in een eindeloze consumptiestroom. AI kan ontzettend goed patronen herkennen en inzetten om meer verkoop te genereren. Denk aan aanbevelingssystemen (“anderen kochten ook…”) of notificaties die klanten aansporen opnieuw iets te kopen. Daar is op zich niets mis mee – het kan de klant juist helpen iets relevants te vinden. Maar pas op dat je de grens tussen helpen en manipuleren niet overschrijdt. Het eindeloos proberen te houden van klanten in een koopcyclus – continu prikkels geven om maar te blijven kopen – is ethisch dubieus. Bepaal vooraf de ethische kaders: tot hoever wil je gaan met het triggeren van klanten om te blijven kopen? Durf die vraag te stellen. Een AI-systeem dat gebruikers manipuleert tot eindeloos consumeren (denk aan de Netflix-documentaire “The Shopping Conspiracy: Buy Now”) werkt vaak averechts: mensen haken af en je reputatie komt op het spel te staan.
Een sprekend voorbeeld van AI-gestuurde manipulatie is Booking.com. De boekingssite is door de Consumentenbond op de vingers is getikt voor trucjes om consumenten sneller te laten boeken. Zo toonde Booking bij elke zoekopdracht meldingen als “89% van de kamers al vol” om je het gevoel van schaarste te geven – zelfs als dat percentage niet klopte (radar.avrotros.nl).
Het alternatief is AI inzetten op een manier die de klant echt helpt én je merk positief neerzet. Bijvoorbeeld: supermarktketen Albert Heijn lanceerde een AI-assistent in de app die klanten inspireert met recepten en kooktips (retaildetail.eu).
Natuurlijk hoopt Albert Heijn zo ook meer producten te verkopen, maar de insteek is behulpzaam en transparant – de klant krijgt waarde (handige recepten) en merkt duidelijk dat het een AI-assistent is die vragen beantwoordt. Dit voelt heel anders dan een verborgen koopdruk. Zo’n eerlijk gebruik van AI versterkt juist de band met de klant. Kortom, gebruik AI om klanten te ondersteunen in plaats van ze uit te buiten. Dan profiteer je uiteindelijk van zowel tevreden klanten als gezonde verkoopcijfers.
Of je AI op een verantwoorde manier inzet, is niet alleen afhankelijk van je intenties, maar ook van je kennis en vaardigheden op het gebied van AI. Stel jezelf niet alleen technische, maar ook ethische vragen: “Beïnvloeden we hier niet onbedoeld een kwetsbare doelgroep?” of “Is het transparant hoe we deze aanbeveling doen?” Vergroot daarnaast je AI-geletterdheid, zodat je genoeg kennis, vaardigheden en begrip hebt om:
Als marketingcommunicatieprofessional wil je AI op zo’n manier inzetten dat het de normen en waarden van je bedrijf respecteert en (potentiële) klanten zich gewaardeerd voelen. Verantwoorde AI is daarom niet alleen een kwestie van technologische vooruitgang om meer omzet te genereren, maar ook van diepgaand ethisch denken over wat voor soort bedrijf je wilt zijn en wat daarvoor nodig is.
Een Nederlandse telecomprovider heeft bijvoorbeeld een ‘AI-ethiekteam’ dat kritisch kijkt naar alle nieuwe AI-projecten. Dit team checkt of algoritmes geen vooroordelen bevatten, of klanten eerlijk worden behandeld en of aan de wet wordt voldaan. Ook krijgen nieuwe medewerkers standaard een korte training over het ethisch gebruik van data. Daardoor is de kans op een misser – zoals onbedoeld discrimineren of schenden van privacy – veel kleiner, en blijft het vertrouwen van klanten hoog.
Met interne richtlijnen (ook wel governance genoemd) leg je vast hoe je AI in jouw organisatie om wilt gaan met AI. Je beschrijft bijvoorbeeld:
Daarnaast vraagt ethisch verantwoorde AI om doorlopend toezicht. Modellen en databronnen veranderen in de loop der tijd. Het is dus niet genoeg om aan het begin een ethische afweging te maken en vervolgens achterover te leunen. Bouw evaluatiemomenten in om te checken:
AI kan de marketing(communicatie) van je merk of bedrijf enorm verrijken, maar alleen als we de juiste balans weten te vinden tussen resultaat en ethiek. Je reputatie kan in korte tijd een flinke deuk oplopen als klanten zich in een oneerlijke of manipulatieve ‘AI-wereld’ begeven. Tegelijk kan een transparante en klantgerichte AI-strategie juist vertrouwen en loyaliteit creëren.
Vanuit een groeiend juridisch kader (zoals de AI Act) en een toegenomen publiek bewustzijn is het niet langer een optie om ondoordacht AI los te laten. Een stevig governanceproces, duidelijke interne ethische richtlijnen, training van medewerkers en continue evaluatie van je AI-toepassingen vormen de kern van verantwoord marketingcommunicatiebeleid.
Kortom: Met een ethisch kompas, een dosis transparantie én aandacht voor juridische kaders houd je het krachtenspel in balans. Zo wordt AI niet alleen een krachtig hulpmiddel om je merk te versterken, maar ook een kans om je juist positief te onderscheiden in een concurrerend werkveld. Bovendien werk je zo mee aan een markt waar AI innovaties hand in hand gaan met respect voor de mens. En dát is uiteindelijk goed voor zowel de klant als jouw bedrijf. Wil jij bouwen aan technologisch leiderschap en meer leren over AI, merkstrategie en governance? Bekijk onze trainingen voor marketingteams. You lead, tech follows.
AI-Disclaimer: Deze blog is mede tot stand gekomen met behulp van het boek ‘AI voor iedereen’ (Erdinc Sacan) en AI (zowel de tekst als afbeeldingen). Bij AI Brainlab geloven we dat technologie je denken niet moet overnemen, maar verdiepen. Daarom gebruiken we AI-tools bewust: als bron van inspiratie, verheldering en reflectie. De eindredactie, visie en inhoudelijke keuzes zijn volledig menselijk, net als onze verantwoordelijkheid. Gebruikte tools zijn: ChatGPT, Perplexity en Midjourney.