Masterclass kunstmatige intelligentie: ‘ChatGPT is superdom’

Masterclass kunstmatige intelligentie: ‘ChatGPT is superdom’
Kunstmatige intelligentie biedt enorme kansen, maar kent ook risico’s en ethische dilemma’s. Tijdens een masterclass AI voor company secretaries over de zoektocht naar een veilige toepassing van deze technologie wordt één ding duidelijk: zorg dat de kennis in de boardroom op orde is.

De kennishonger naar het nog magische thema kunstmatige intelligentie is groot, zo blijkt op een vroege dinsdagmorgen tijdens een ontbijtsessie in Van der Valk Hotel Amsterdam Zuidas. Een tiental company secretaries hangt aan de lippen van Jan Veldsink, docent artificial intelligence and digital security bij Nyenrode Business Universiteit en strategisch adviseur AI bij Rabobank. Al sinds de jaren negentig houdt Veldsink zich bezig met AI en hij kan daar aanstekelijk over vertellen. Ook Victor Prozesky, managing partner van The Board Practice, ziet voordelen. Het internationale adviesbureau beschikt over waardevolle best practices op het gebied van board effectiveness en evaluatie, ceo-opvolging en vernieuwing van topgremia. ‘Als we die data – uiteraard geanonimiseerd – kunnen omzetten naar een AI-tool waar we nieuwe kennis mee kunnen genereren, zou dat superkrachtig zijn.’ 

Recente ontwikkelingen
Anders dan vaak gedacht, is AI niet nieuw. In 1950 deed kunstmatige intelligentie zijn intrede, maar toen was de technologie alleen voorbehouden aan de academische wereld. ‘Bijzonder aan de recente ontwikkelingen is dat AI nu voor iedereen toegankelijk is. Er zijn geen drempels meer’, vertelt Veldsink. ‘Met goed geformuleerde opdrachten – of in AI-taal: prompts – kan een programma als ChatGPT samenvattingen maken, brieven schrijven, lappen tekst scannen of een goed leesbare tekst over een bepaald thema produceren.’ Dankzij AI wordt ook softwareontwikkeling efficiënter. Met programma’s als GitHub hoef je niet meer te kunnen coderen om software te schrijven. Bovendien is de computer vele malen sneller. Veldsink nam zelf de proef op de som. Hij was ooit twee jaar bezig geweest met de ontwikkeling van een handige functionaliteit voor de Rabobank-app. Toen hij zijn idee en het gebruikte model onlangs aan GitHub voorlegde, rolde er binnen een half uur bruikbare softwaretaal uit. Zijn conclusie: ‘De computer kan uitstekend coderen en maakt programmeurs grotendeels overbodig. Toch zal de mens als software-engineer nodig blijven om een goed idee en de architectuur aan te leveren.’

Data-jongleur ChatGPT
De AI-toepassingen bieden oneindig veel kansen voor diverse sectoren en beroepsgroepen. In de bancaire wereld wordt AI al enige tijd ingezet voor de bestrijding van fraude en witwaspraktijken. De technologie herkent afwijkende patronen in betaalverkeer. Maar AI kan ook worden gebruikt om risico’s in de supply chain te detecteren of commerciële teksten te schrijven voor marketingdoeleinden.
Tegelijkertijd moet de mens bedacht zijn op de tekortkomingen van AI. Zo is ChatGPT volgens Veldsink ‘superdom’. ‘De chatbot is een taalprogramma dat met kunstmatige intelligentie op basis van taal modellen maakt en verbanden legt. Hij “jongleert” dus met statistische verbanden in taal en maakt daar iets van. Maar het resultaat hoeft niet waar te zijn’, waarschuwt Veldsink. ‘Er zal daarom altijd een mens nodig zijn om de uitkomst te valideren. Daarbij is het goed te weten dat ChatGPT de gebruiker altijd zal willen pleasen. Vraag aan hem wat 3 plus 7 is en hij zal de eerste keer 10 zeggen. De tweede en derde keer ook. Maar als je blijft beweren dat 3 plus 7 toch echt 14 is, gaat hij op zeker moment overstag en zal hij je gelijk geven. Achterliggende reden is dat ChatGPT gemaakt is door een commerciële partij. En dat het product het meest in de smaak zal vallen als zijn antwoorden passen bij het profiel van de gebruiker.’ Dat kan gevaarlijk zijn. Zo kan ChatGPT wijsgemaakt worden dat bijvoorbeeld de Holocaust nooit heeft bestaan.
Nog een aandachtspunt: de informatie die ChatGPT reproduceert, is gekleurd. De computer put uit data die overwegend zijn geproduceerd in de westerse wereld en dus vooroordelen bevatten. ‘Dat hoeft niet erg te zijn, maar we moeten ons er wel van bewust zijn. In de komende periode zal de ontwikkeling van modellen en toepassingen heel hard gaan en de kwaliteit van wat geleverd wordt zal met grote sprongen vooruitgaan.’

Eigen AI-instrument
Gebruikers moeten volgens Veldsink bovendien begrijpen hoe ChatGPT in elkaar steekt. De taalrobot haalt zijn data uit een groot aantal ‘emmers’ die gevuld zijn met informatie over een bepaald thema, input die in Afrika door duizenden slecht betaalde arbeidskrachten wordt verzameld. De computer snapt de context van een opdracht zolang het informatie betreft uit één bucket. ‘Als je ChatGPT vraagt een tv-script over de Watersnoodramp van 1953 te schrijven volgens het format van De Wereld Draait Door, komt hij daar niet uit. Het zijn twee aparte emmers, waardoor hij op dit moment niet zomaar de link kan leggen. Je kunt hem wel op weg helpen door eerst informatie op te vragen over de Watersnoodramp van 1953 en vervolgens over De Wereld Draait Door. Zo train je de chatbot en legt hij de link alsnog.’
AI-kenner Veldsink verwacht dat veel organisaties in de toekomst hun eigen ChatGPT zullen bouwen. Denk aan de kennis waarover persbureaus, advocatenkantoren, consultancybureaus of universiteiten beschikken. Er zijn spelers die hier al serieus over nadenken.’

Chatbot-mogelijkheden
Nog geen van de aanwezige company secretaries gebruikt ChatGPT bij de dagelijkse werkzaamheden. Victor Prozesky had ter voorbereiding op deze ontbijtsessie aan ChatGPT voorgelegd welke taken de chatbot kan overnemen en hij kreeg daarop een hele rits antwoorden. Zo kan ChatGPT de belangrijkste inzichten destilleren uit een rapportage, trends op een rijtje zetten of afwijkende patronen opmerken in documenten. Het kan ook een contract van 1.000 pagina’s samenvatten in 30 pagina’s. ‘Maar hoe weet je dat de belangrijkste dingen eruit worden gehaald?’, merkt een deelnemer op. Volgens Veldsink heb je die zekerheid niet. ‘Als mens zul je er altijd zelf naar moeten blijven kijken. Maar met een goede samenvatting kun je makkelijker aanvullingen maken. Dat is een andere taak dan alles eerst lezen en zelf samenvatten.’

Cybercriminelen
Maar het is tegelijkertijd oppassen geblazen, waarschuwt Veldsink. Cybercriminelen profiteren ook van de Chat- GPT-technologie en zullen creatiever worden in het binnenglippen op bedrijfsnetwerken. Het wordt nog moeilijker voor medewerkers om phishing-mails van echte mails te onderscheiden. Zeker omdat hackers dankzij AI zelfs stemmen en video’s kunnen manipuleren. Ook moeten medewerkers nooit bedrijfsgevoelige informatie delen met de AI-programma’s van grote techbedrijven, omdat het simpelweg niet veilig is. Dat lijkt logisch, maar toch schuilen er addertjes onder het gras als het gaat om het veilig delen van data. Veldsink constateert bijvoorbeeld dat AI steeds vaker voorkomt in applicaties van Microsoft Office. Zo is het binnen de vergadertool Teams sinds kort mogelijk om – vrijwel live – een transcriptie te maken van een gesprek. Daarmee wordt een notulist overbodig. Ook kan Teams met de input van een vergadering een actielijst maken. ‘Dat is griezelig’, vindt Veldsink. ‘Want hoe veilig is de informatie als die wordt getranscribeerd of online wordt omgezet in een actielijst? Bedrijven waren er tot dusver wellicht van overtuigd dat de inhoud van een gesprek via Teams altijd op het lokale bedrijfsnetwerk bleef, of in de “eigen” cloud. Maar stel de vraag aan de leveranciers, de ontwikkelaars van de software, en wat blijkt? Ergens in de kleine lettertjes van het contract staan uitzonderingen, ook leveranciers lijken overvallen door de plotselinge mogelijkheden. En waar vindt de processing van de data plaats? Doorgestuurd naar Amerika om het daar te verwerken? Dat geeft te denken.’
De snelle opmars van deze vormen van AI leidt kortom tot talrijke onzekerheden en risico’s. In veel organisaties wordt momenteel geëxperimenteerd met deze nieuwe beschikbaarheid van AI, maar bij sommige ondernemingen worden al tijdelijke AI-stops afgekondigd en mogen experimenten alleen plaatsvinden in een veilige omgeving.

Dringend boardroom-advies
De grote vraag is wat AI ons in de toekomst zal brengen. De toepassingen zijn ongekend en AI kan tot oplossingen van grote maatschappelijke vraagstukken leiden. Tegelijkertijd leidt AI tot evenzovele dilemma’s. ‘We staan aan het begin van een grote zoektocht naar verantwoorde omgang met AI’, zegt Veldsink. Zijn dringende advies aan company secretaries, dat ook wordt gedeeld door Prozesky: ‘Zorg dat de kennis over AI op orde is in de boardroom. Het onderwerp is weliswaar IT-gerelateerd, maar is breder. Bestuurders en commissarissen moeten zich bewust zijn van de kansen en de risico’s van AI voor hun organisatie en de samenleving.’

Dit verslag is gepubliceerd in Management Scope 07 2023.

facebook