Waarom ai-projecten falen

Waarom ai-projecten falen
Organisaties steken heel veel geld, tijd en inspanning in de ontwikkeling van ai, met vaak torenhoge verwachtingen. In de praktijk behalen Nederlandse bedrijven nog maar weinig echt voordeel uit hun investeringen, constateren Lotte Hart en Nena Roes van organisatieadviesbureau SeederDeBoer. Oorzaak is niet de technologie zelf, maar een optelsom van organisatorische en menselijke factoren. 

De grootse beloftes van generatieve ai-projecten worden vooralsnog niet waargemaakt, blijkt keer op keer uit onderzoek. Cijfers en succescriteria verschillen per studie – zo maakt het nogal uit of je kijkt naar return on investment, adoptie door medewerkers, budgetoverschrijdingen of efficiëntievoordelen – maar het algemene beeld dat opdoemt, is teleurstelling over de discrepantie tussen wat we verwachten van GenAI en wat het daadwerkelijk oplevert. Oorzaak van dit falen is volgens al die onderzoeken niet de technologie zelf, maar een optelsom van organisatorische en menselijke factoren.

Wat is eigenlijk je probleem?
De belangrijkste faalfactor, zien wij bij de bedrijven waar wij actief zijn, is miscommunicatie over welk probleem er eigenlijk met behulp van ai moet worden opgelost. Wanneer een organisatie roept ‘iets met ai’ te willen, is dat zelden een door de bedrijfsstrategie gestuurde keuze, maar vaker een reactie op de angst om achter te blijven. Zo hopen veel bedrijven met een ai-traject efficiëntievoordelen te behalen, want dat imago heeft ai in brede kringen gekregen. Dat triggert een gevoel van ‘we moeten hier iets mee’, zonder eerst na te denken over belangrijke achterliggende vragen: sluit die focus op efficiency aan bij onze bedrijfscultuur? Kunnen we winst niet beter vergroten door de beste service te bieden? Wat is financieel of organisatorisch haalbaar? Waarmee maken we nu al echt impact en kan ai helpen om die impact te versterken?
Organisaties doen er goed aan eerst scherp te formuleren welke concrete problemen ze willen oplossen – zogenaamde use cases – voordat ze nadenken over ai als mogelijke oplossing. Om tot de kern te komen, helpt het om ‘W-vragen’ te stellen. Waarom wil je efficiënter werken? Waarom wil je kosten besparen? Waarom is ai hiervoor de beste oplossing? Wat gaat er mis als je niets doet? Wie heeft daar last van? Et cetera. Door op die manier in de opstartfase van een ai-project op zoek te gaan naar het onderliggende probleem, verklein je het risico op teleurstelling achteraf.

Bundeling van faalfactoren
Wanneer het eenmaal scherp is welk probleem ai moet oplossen, kan het nog om allerlei andere redenen falen. Zo gaan organisaties soms enthousiast met de technologie aan de slag zonder zich af te vragen of de potentiële gebruikers (werknemers, klanten) er wel op zitten te wachten. In 2024 kondigde de Zweedse fintech Klarna aan dat ai een groot deel van hun klantenservice kon overnemen. Later nuanceerde het bedrijf dat klanten nog steeds behoefte hebben aan contact met echte mensen. En terwijl Salesforce-topman Marc Benioff riep dat zijn ai-agents de ‘grootste doorbraak in tech’ waren, hadden de potentiële afnemers nog geen idee waar zulke agents concreet waarde toevoegen. Technologie kan enorm veel, maar het inzetten ervan is alleen behulpzaam als het aansluit bij een behoefte en je werk of bedrijf echt vooruit helpt.
Een andere valkuil is het toepassen van ai op grote en complexe problemen waarvoor onvoldoende data beschikbaar zijn. Wanneer een situatie volledig nieuw is en er weinig informatie bestaat, kan ai slechts beperkt ondersteuning bieden, omdat de modellen voornamelijk leren van historische data. Zo heeft cybersecurity veel aan ai voor het herkennen van patronen, maar kan het er niet blind op varen: het dreigingslandschap verandert immers voortdurend. Historische informatie kan waardevol zijn, maar veroudert ook snel. Als ai voornamelijk op oude data is gebaseerd, biedt dat daarom geen garantie dat beslissingen of toekomstscenario’s ook bij nieuwe aanvalstechnieken effectief zullen zijn.
Data en datakwaliteit zijn een volgende reden dat nogal wat ai-projecten stranden. Soms zijn er simpelweg onvoldoende (goede) data om een ai-model effectief te kunnen trainen. Je zult dan eerst een project moeten opstarten om die data gedurende een hele periode te verzamelen, wat natuurlijk veel minder sexy is dan ‘iets leuks’ doen met ai. Zijn die data wel beschikbaar en is de datakwaliteit goed genoeg?
Organisaties blijven altijd zelf verantwoordelijk voor beslissingen die met behulp van ai worden genomen. Je hebt dus ervaren mensen nodig om de ai-output te controleren, om zeker te zijn dat de antwoorden echt in lijn zijn met de feiten en met het probleem dat je wilt oplossen. Die interne expertise is niet altijd voorhanden. Organisaties moeten hoe dan ook investeren in ai-geletterdheid op verschillende niveaus, van basis- tot systeemspecifieke kennis. Dit is niet een eenmalige training, maar een continu proces. Het is raadzaam het tot bestuursagendapunt te maken en er structureel in te investeren. Verantwoord omgaan met data en ai is een kernvaardigheid in een wereld waarin het steeds lastiger wordt om betrouwbare informatie van ruis te onderscheiden.

Van experimenteren naar beheren
Nu bij vrijwel alle bedrijven ai-projecten lopen, zien we een nieuw probleem opdoemen. Na een periode van enthousiaste pilots en decentrale experimenten is er een wildgroei ontstaan aan kleinschalige oplossingen. Die kunnen lokaal nuttig zijn, maar op organisatieniveau leidt het ertoe dat je door al die individuele agents het bos niet meer ziet. Dat brengt nieuwe vragen met zich mee die raken aan governance: hoe navigeren medewerkers door de overvloed aan tools zonder de grip te verliezen? Zijn de data en ai toegankelijk en bruikbaar, en dus niet verstopt in systemen die maar één persoon begrijpt? Is er iemand verantwoordelijk voor data en voor de ai-systemen die erop draaien? Worden gevoelige data goed beschermd, gezien de potentie voor onjuist gebruik of misbruik? Neemt het systeem beslissingen op een manier die we correct of ethisch verantwoord vinden? Klopt de balans tussen compliance en resultaat? Om ai-projecten ook op de lange termijn succesvol te laten zijn, zullen organisaties vanaf het begin moeten bouwen aan een robuust governance-model.

De GenAI-paradox
Het realistische verhaal is dat de businesscase voor veel GenAI-toepassingen moeilijk rond te krijgen is. Voor repetitieve taken kan het lonen om erover na te denken en er geld in te stoppen, maar in veel situaties kost het bouwen en onderhouden van een betrouwbaar model zo veel geld, tijd en inspanning dat het nooit winstgevend zal worden. Dit wordt ook wel de ‘GenAI-paradox’ genoemd: we investeren massaal en verwachten wonderen, maar de tastbare netto-opbrengst blijft vooralsnog uit. Wil dit zeggen dat je er niets mee moet doen? Zeker niet. Maar het betekent wel dat organisaties niet blind achter elke nieuwe ai-hype aan hoeven te lopen. Beter is het om de ontwikkelingen goed te volgen en gericht te kiezen voor toepassingen die echt waarde toevoegen voor de eigen organisatie. Dat betekent echter niet dat je je niet moet voorbereiden op de toekomst. We weten niet welke kant het zal opgaan, maar succesvolle ai-ontwikkelingen staan hoe dan ook op een fundament van goede datakwaliteit, ai-geletterde medewerkers, heldere ethische kaders en goede cybersecurity. Organisaties die de ai-hype gebruiken als stimulans om eindelijk werk te maken van datakwaliteit, governance en ai-geletterdheid, staan straks sterker. Ongeacht hoe de technologie zich verder ontwikkelt.

Voorbij de hype
Net als elke nieuwe (technologische) ontwikkeling doorloopt generatieve ai een hype cycle: van de eerste doorbraak via een piek van overspannen verwachtingen naar een dal omdat het een beetje tegenvalt, om uiteindelijk te stabiliseren op een plateau waar duidelijk wordt wat het echt aan positiefs én negatiefs oplevert. Het kan nog decennia duren voordat we dat plateau bereiken, maar we zouden collectief sneller kunnen leren door transparanter en eerlijker te zijn over wat werkt en wat tegenvalt. Nu wordt elke besparing al snel aan ai toegeschreven, ook als dat nauwelijks is onderbouwd. Eigenlijk zouden we het omgekeerde moeten doen en met elkaar moeten delen wat we hebben geprobeerd, wat niet is gelukt of tegenviel en hoeveel van onze tijd, energie en budgetten het heeft opgeslokt. Voor een ceo kan het oncomfortabel zijn om toe te geven dat een kostbare pilot weinig of niets heeft opgeleverd. Toch is het juist in deze fase essentieel om te erkennen dat zelfs een goed opgezet project kan falen, en dat het delen van kennis over dergelijke mislukkingen cruciaal is voor de verdere ontwikkeling van de technologie.

Reageren? Mail ons op redactie@scopebusinessmedia.nl

Essay door Lotte Hart, partner bij SeederDeBoer (verantwoordelijk voor data en ai) en Nena Roes, senior consultant bij SeederDeBoer. Gepubliceerd in Management Scope 04 2026.

facebook

ManagementScope.nl gebruikt cookies

Voorkeuren

Basis

Basis cookies:
Scope Business Media anonimiseert de data van personen die op de site terechtkomen. Hierdoor heeft managementscope.nl nauwelijks persoonlijke data van onze websitebezoekers in beheer en mogen wij selecte datapunten verzamelen die geenszins aan u als persoon te koppelen vallen. Onder noodzakelijke cookies vallen alle datapunten die Scope Business Media gerechtigd is om te plaatsen zonder expliciete toestemming van de bezoeker. Dit betreft enkel volledig geanonimiseerde data die noodzakelijk is voor het functioneren van de site.

Compleet (aanbevolen)

Overige cookies, bij het kiezen voor ‘compleet’:
Onder de noemer ‘Overige cookies’ vallen cookies waarvoor wij expliciet toestemming van u nodig hebben. Hieronder vallen bijvoorbeeld onze marketing cookies die wij tevens volledig anonimiseren. Deze cookies zijn echter wel essentieel voor Scope Business Media, om ervoor te zorgen dat managementscope.nl kan blijven voortbestaan als site.

Cookie- en privacyverklaring