Menu Sluiten

Gaat de opkomst van AI voor meer schandalen zorgen?

Toeslagenschandaal error

Vibe Coding

Er waait een nieuwe wind door de wereld van softwareontwikkeling: vibe coding. De term, gepopulariseerd door AI-onderzoeker Andrej Karpathy, beschrijft een verleidelijk eenvoudig proces. Je hebt een idee, een “vibe”, je beschrijft het in gewone taal aan een krachtig AI-model zoals ChatGPT of GitHub Copilot, en poef – de AI genereert de code voor je. Het belooft een enorme versnelling, maakt coderen toegankelijker dan ooit (zelfs voor niet-programmeurs) en voelt bijna als magie. Snel prototypes bouwen, kleine tools maken, het lijkt binnen ieders handbereik.

Maar voordat we ons massaal overgeven aan deze intuïtieve manier van software bouwen, is het cruciaal om even stil te staan. Wat gebeurt er als we steeds meer vertrouwen op systemen – in dit geval AI-modellen – waarvan we de innerlijke werking niet volledig doorgronden en de output niet altijd kritisch toetsen? De recente geschiedenis biedt enkele huiveringwekkende voorbeelden van waar een dergelijk blind vertrouwen in technologie en processen toe kan leiden.

Schandalen

Denk aan The Post Office scandal  in het Verenigd Koninkrijk. Honderden subpostmasters – de zelfstandige beheerders die de lokale postkantoren runden – werden tussen 1999 en 2015 onterecht beschuldigd van diefstal en fraude. De enige basis voor deze beschuldigingen? Data uit het nieuwe, maar diep gebrekkige, Horizon IT-systeem van Fujitsu. De Post Office-leiding weigerde te geloven dat het peperdure systeem kon falen en zette de achtervolging in op haar eigen mensen. De gevolgen waren desastreus: financiële ruïnes, vernietigde reputaties, gezinnen die uit elkaar vielen. Mensen verloren alles, sommigen belandden onterecht in de gevangenis, en de immense stress en schande dreven anderen zelfs tot zelfdoding. Een tragedie, veroorzaakt door blind vertrouwen in een falend systeem en het negeren van menselijke signalen.

Dichter bij huis kennen we de Toeslagenaffaire. Hier waren het geen softwarebugs, maar rigide, bevooroordeelde algoritmes en een onmenselijk bureaucratisch systeem die duizenden ouders onterecht als fraudeur bestempelden. Dit in combinatie met slecht beleid had verwoestende gevolgen voor talloze gezinnen.

En deze problemen beperken zich niet tot data-interpretatie of algoritmes. Kijk naar de splinternieuwe gevangenis in Dendermonde, België. Een complex van miljoenen euro’s, nog maar net in gebruik, kampt met een bizar en potentieel gevaarlijk probleem: celdeuren springen ‘s nachts willekeurig en ongecontroleerd open. De vermoedelijke oorzaak? Een fout in de software die de sloten aanstuurt. Het personeel moet ‘s nachts op zoek naar de geopende deur en deze tijdelijk beveiligen met… een houten paal onder de klink. Een bijna absurd voorbeeld van hoe zelfs basale controlemechanismen in een gloednieuw, kritiek systeem kunnen falen door softwareproblemen, met alle veiligheidsrisico’s van dien.

Risico’s

Wat hebben The Post Office scandal, de Toeslagenaffaire, en zelfs de falende celdeuren in Dendermonde gemeen, en wat zegt dit over de opkomende trend van vibe coding? Ze illustreren allemaal, op verschillende manieren, de potentieel desastreuze gevolgen wanneer we vertrouwen op complexe systemen – of het nu gaat om data-interpretatie, algoritmes, of basale controlemechanismen – zonder volledig begrip, rigoureuze controle en duidelijke verantwoordelijkheid. En juist hier liggen de potentiële gevaren van een ondoordachte toepassing van vibe coding:

  1. Het Risico van de ‘Black Box’: Zowel Horizon, de toeslagen-algoritmes als de deurensoftware functioneerden (of functioneren) deels als een ‘black box’. De output of het gedrag wordt geaccepteerd (of ondergaan) zonder volledig begrip van hoe het tot stand kwam of waarom het faalt. Vibe coding creëert een vergelijkbare situatie: de AI genereert code, maar begrijpt de gebruiker écht wat er onder de motorkap gebeurt? Zitten er subtiele fouten, beveiligingslekken of onbedoelde consequenties in?
  2. Onzichtbare Fouten en Onbetrouwbaarheid: Horizon had bugs die spooktekorten veroorzaakten. De Dendermonde-software geeft op willekeurige momenten verkeerde signalen. AI-modellen, getraind op enorme datasets, zijn óók niet feilloos. Ze kunnen code produceren die logisch incorrect is, onveilig is, of gewoonweg onbetrouwbaar onder bepaalde (misschien onvoorziene) omstandigheden.
  3. Vervagende Verantwoordelijkheid: Wie is verantwoordelijk als AI-gegenereerde code problemen veroorzaakt? De gebruiker die de prompt gaf? De makers van de AI? De onduidelijkheid rondom de Dendermonde-bug illustreert hoe lastig het kan zijn de vinger op de zere plek te leggen. Deze diffusie van verantwoordelijkheid zagen we ook bij de grote schandalen.
  4. De Verlokking van Snelheid/Nieuwigheid vs. Zorgvuldigheid: De drang naar efficiëntie (Post Office, Toeslagen) of het vertrouwen in een ‘nieuw’ systeem (Dendermonde) kan leiden tot het onderschatten van risico’s. Vibe coding belooft ongekende snelheid. Maar zoals deze voorbeelden pijnlijk aantonen, mag snelheid of nieuwheid nooit ten koste gaan van grondigheid, testen, begrip en ethische overwegingen.

AI in Codering: Een Krachtig Hulpmiddel, Geen Toverstaf

Dit betekent niet dat AI-assistentie bij coderen per definitie slecht is. Integendeel. Tools als Copilot kunnen enorm waardevol zijn voor:

  • Productiviteit: Automatiseren van routineklussen, sneller vinden van oplossingen.
  • Leren: Ontdekken van nieuwe technieken, begrijpen van complexe code.
  • Prototyping: Snel ideeën omzetten in werkende concepten.

De sleutel ligt echter in de benadering. AI moet gezien worden als een geavanceerde assistent, een copiloot, niet als een onfeilbare orakel dat de menselijke ontwikkelaar vervangt. Kritisch denken, diepgaand begrip en rigoureuze verificatie blijven essentieel.

Conclusie: Innoveren met Wijsheid

Vibe coding is een fascinerende ontwikkeling met potentieel. Maar de schaduwen van The Post Office schandaal, de Toeslagenaffaire en de problemen in Dendermonde manen tot voorzichtigheid. Laten we de lessen ter harte nemen:

  • Behandel AI-code met gezond wantrouwen: Valideer, test en begrijp wat de AI produceert.
  • Blijf investeren in menselijke expertise: Fundamentele kennis is onmisbaar.
  • Zorg voor duidelijke verantwoordelijkheid: Wie is de eigenaar van de code en de kwaliteit ervan?
  • Weet wanneer het gepast is: Vibe coding voor een hobbyproject is iets anders dan voor een kritiek systeem zoals een gevangenisdeur of financiële software.

Laten we de kracht van AI omarmen, maar met de wijsheid die voortkomt uit het begrijpen van eerdere fouten. Software bouwen vraagt om intelligentie – zowel kunstmatige en vooral menselijke. 

Meer weten over AI modellen, tools en software? Boek gratis meeting of stuur een appje!

Geef een reactie

Uw e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *