‘Efficiënter is niet altijd beter’
Reflecties op AI in het sociaal domeinHoe verhouden we ons tot AI? Wat willen, kunnen en mogen we er als gemeente mee? En hoe pakken we dat goed aan? Onlangs bogen ongeveer veertig deelnemers zich, op bezoek bij Divosa, over deze vragen.
Erik de Bakker, wetenschappelijk medewerker bij SCP, gaf de aftrap. Hij plaatste AI in de bredere context van sociale cohesie en sociale en digitale ongelijkheid. Audrey Hergaarden, beleidsadviseur Digitale overheid bij VNG, besprak de kaders van AI-inzet door gemeenten. In een panelgesprek hoorden we over drie praktijkvoorbeelden uit Katwijk, Amsterdam en Werkse! (Delft). Tussendoor en na afloop deelden aanwezigen hun ervaringen, vragen, twijfels en inzichten.
Digitalisering en solidariteit
Sociale cohesie gaat over de mate waarin (groepen) mensen zich met elkaar en met sociale en politieke instituties verbonden voelen en dit in hun gedrag laten zien. Het heeft onder meer te maken met het vertrouwen van mensen in medeburgers, met de bereidheid om samen te werken en anderen te helpen en met sociale en politieke participatie.
Factoren als opleiding, religie, werk, inkomen en vermogen hebben invloed op de sociale cohesie in een samenleving. Net als economische, geopolitieke en ecologische factoren. En in het licht van AI: ook de digitalisering beïnvloedt de samenhang en solidariteit tussen mensen.
Individuele netwerken
Nederland verandert van een massamaatschappij in een netwerkmaatschappij, waarin individualisering en digitalisering hand in hand gaan. Verbondenheid in groepen maakt plaats voor individuele verbintenissen. Interactieve media nemen het stuur over van radio en tv en mensen staan steeds vaker digitaal en virtueel in contact met elkaar.
Alle digitale mogelijkheden vergroten de autonomie en vrijheid van veel mensen. Maar hebben ook negatieve gevolgen. Zo worden mensen sterk gestuurd door onzichtbare algoritmes en leidt individualisering tot afnemende solidariteit.
Sociale en digitale ongelijkheid zijn met elkaar verweven; houd dat in de gaten
Oog voor digitale ongelijkheid
Nog iets om bij stil te staan: niet iedereen heeft in gelijke mate toegang tot digitale middelen en diensten. Niet iedereen heeft er de motivatie of de vaardigheden voor. ‘Onderzoek laat zien dat sociale ongelijkheid en digitale ongelijkheid met elkaar verweven zijn. Houd dat in de gaten’, geeft Erik de Bakker mee. ‘Heb oog voor de diversiteit van inwoners.’
Reactie uit de zaal: als gemeenten moeten bezuinigen, wordt er al gauw naar ict gekeken om efficiencyslagen te maken. Wij kunnen misschien nog mee, maar voor een grote groep mensen maakt technologie het niet ‘steeds makkelijker’. Efficiënter is niet altijd beter. De menselijke maat moet voorop blijven staan.

AI omdat het kan?
Hoe ver kunnen, willen en mogen we gaan met de beschikbare technologie en met AI? Het woord is aan Audrey Hergaarden van VNG. ‘Wat we willen, is verantwoorde inzet van AI. En dat betekent onder meer dat het duidelijk moet zijn welke maatschappelijke en beleidsmatige doelen jouw AI-toepassing dient. Ook moeten we de publieke waarden borgen en de (digitale) grondrechten van inwoners beschermen.’ AI ‘omdat het kan’ is dus niet uitlegbaar of gerechtvaardigd.
Rechten en verplichtingen
Alle rechten en verplichtingen rondom de inzet van AI zijn vastgelegd in de AI-verordening, een Europese wet die sinds 1 augustus 2024 gefaseerd wordt ingevoerd. AI-systemen die mensen beoordelen op sociaal gedrag of persoonlijke kenmerken zijn logischerwijs verboden. Maar hoe zit het met de selectie van kandidaten voor een sollicitatieprocedure? Of met de toegang van inwoners tot sociale zekerheid?
Hoog risico of niet? Dat is lastig te duiden; gebruik de beslishulp en kijk voor de uitzonderingen gerust naar de juristen
Deze toepassingen bevinden zich in hoog risicogebied. Ze kúnnen een bedreiging vormen voor de veiligheid, gezondheid en grondrechten van mensen. Maar: doe je de selectie voor de sollicitaties zelf, zet je AI alleen in voor een bepaalde check en beslis je ook weer zelf welke kandidaat de baan krijgt, dan valt AI hier niet per se onder hoog risico, licht Audrey toe. ‘Het is lastig te duiden, de ene context is de andere niet. Maak gebruik van de beslishulp AI-verordening en kijk voor de uitzonderingsgevallen gerust naar de juristen.’
Stap voor stap door de AI-verordening
Aan welke artikelen van de AI-verordening moeten we ons houden? VNG heeft een analyse gemaakt van de impact van de AI-verordening voor gemeenten. Praktische handvatten om te starten met AI vind je in de trendanalyse en position paper AI, Algoritme en Gemeenten van de VNG.
AI-geletterdheid
Volgens artikel 4 van de AI-verordening moeten organisaties die AI-systemen ontwikkelen of gebruiken, ervoor zorgen dat hun werknemers – en anderen die AI-systemen namens hen gebruiken – toereikend AI-geletterd zijn. Zij moeten kennis en vaardigheden over AI opdoen om de technologie op een bewuste en verantwoorde manier te kunnen inzetten (zie voor meer uitleg en handreikingen over AI-geletterdheid: de Digitale Overheid).
Ook moeten gebruikers weten dat zij in contact staan met een AI-systeem – en niet met een mens. In het geval van een chatbot moet dit duidelijk vermeld worden. Maar AI neemt ook allerlei onzichtbare vormen aan en dan moet je goed nadenken over de manier waarop je inwoners informeert. Bovendien weten gemeenten zelf niet altijd of ze AI-systemen in huis hebben. Uit de zaal: ‘Dit kun je navragen bij je leverancier; zij zijn verantwoordelijk voor het inbouwen van AI in hun producten en moeten ook melding maken van de gebruiksrisico’s.’
Denk ook de doemscenario’s uit om besef te krijgen van kansen en risico’s
Begin klein
Een regel die altijd en in elke context geldt: garbage in = garbage out. Is je informatiehuishouding niet op orde, verwacht dan geen goede resultaten van je AI-inzet. En andersom: zet je AI in, zorg dan dat je input van goede kwaliteit is. Waarbij ‘goed’ onder andere staat voor: relevant (afgestemd op het doel) en representatief (juiste afspiegeling).
‘Het is veel, het is best ingewikkeld en we zijn er in sneltreinvaart doorheen gegaan.’ Behalve met een lijstje relevante links (zie uitklapkader onderaan), sluit Audrey daarom af met een bemoedigende tip: ‘Begin klein. Start met een concreet probleem en verken of AI daarvoor een van de oplossingen kan zijn. Denk ook de doemscenario’s uit. Dat is heel waardevol om besef te krijgen van kansen en risico’s.’ Een laatste advies is om samen te werken met een leverancier op de (inkoop)voorwaarden die als gemeente stelt; zelf ontwikkelen is kostbaar en omdat de AI-verordening onderscheid maakt tussen gebruikersverantwoordelijke en aanbieder maakt dit uit in de mate van juridische vereisten waar je aan moet voldoen.
We moeten de discussie over AI op gang brengen
Belangrijke discussie
Aan het einde van de bijeenkomst bespreken de deelnemers in groepjes een fictieve casus met elkaar, zoals deze: mag de gemeente AI inzetten om te voorspellen welke inwoners risico lopen op problematische schulden (en deze mensen vervolgens ongevraagd benaderen)? Wat zijn de risico’s en de kansen? Het levert een bonte verzameling post-it-notes op met ongeveer evenveel voors en tegens.
In het gesprek dat hierop volgt vragen enkele deelnemers zich hardop af: dringen we met AI niet te diep door in het leven van mensen? We hebben al zoveel moeite om hun vertrouwen te winnen. Waarop een ander reageert: ‘Juist door zulke vragen openlijk te bespreken, scherp je het vraagstuk aan, nog voordat je daadwerkelijk met AI aan de slag gaat. Je geeft lading aan je onderzoek of experiment.’
Misschien wel het belangrijkste inzicht van deze laatste ronde: ‘We moeten de discussie over AI op gang brengen – óók met consulenten, óók met bestuurders.’ ‘Ik ben geen AI-expert’, aldus een van de deelnemers, ‘maar door de informatie en uitwisseling van vandaag kan ik nu wel met overtuiging in de organisatie zeggen: ‘Dit is belangrijk.’
Praktijkvoorbeelden
AI in Amsterdam
In Amsterdam is afgelopen jaar geëxperimenteerd met een zelflerende AI-tool. De inzet: kan de tool consulenten helpen om zonder bias te bepalen met welke bijstandsaanvraag wellicht iets aan de hand is? Zo ja, dan scheelt dat een hoop onnodige onderzoeken.
De betrokken strategisch adviseur vertelt: ‘Een team van ongeveer vijftien medewerkers, aangevuld met één externe, heeft de tool zelf gebouwd. Voor de ethische toets hebben we een onafhankelijk onderzoeksplatform ingeschakeld. Zij hebben meegekeken op het proces en het ontwerp, onder meer met het oog op transparantie. Door deze externe partij te betrekken, konden we ook de meest kritische mensen in onze organisatie laten zien dat ons experiment intrinsiek in orde was.’
Mens aan zet
De AI-tool doet een voorstel, maar het besluit om een bijstandsaanvraag al dan niet te onderzoeken, blijft bij de medewerker. ‘En dat werkt eigenlijk heel goed.’ De adviseur vertelt dat het systeem minder aanvragen ten onrechte voor nader onderzoek aanwijst dan consulenten doen. In de normale situatie werd zo een 60 procent van de bijstandsaanvragen onterecht voor nader onderzoek geselecteerd – ‘terwijl we vertrouwen in de burger een belangrijk goed vinden in Amsterdam.’
De AI-tool geeft minder bias dan de menselijke blik, aldus de Amsterdamse adviseur. Maar omdat de inzet niet ‘minder’ maar ‘geen bias’ was, wordt de tool niet in praktijk genomen. Amsterdam gaat wel door met het onderzoeken van AI-mogelijkheden, maar op dit moment niet voor sociale zaken. ‘Wat het ons wel gebracht heeft, is dat we nog eens goed kijken naar controle en handhaving: hoe kunnen we dat, zonder AI, beter inrichten zodat de selectie van de door handhaving te onderzoeken zaken, meer uniform en eerlijk gebeurt?’
AI in Katwijk
Anders dan in Amsterdam wordt er in Katwijk niet zelf gebouwd. Katwijk ging als een van de eerste gemeenten met Microsoft Copilot aan de slag, een AI-assistent die ingezet kan worden als aanvulling op allerlei Microsoft-applicaties. ‘We bestuderen de functionaliteiten goed, doen een brede toets bij medewerkers en betrekken bewust ook de meest kritische onder hen’, aldus de AI-adviseur van de gemeente.
Niet ‘voor erbij’
Hij krijgt voortdurend veel vragen vanuit de organisatie. Dat komt: nog niet iedereen is voldoende op de hoogte van wat Copilot is en kan – ‘het gaat ook snel’. En: nog niet iedereen realiseert zich dat het niet alleen ‘van ICT’ is, maar onderdeel van de hele bedrijfsvoering. Zijn adviserende waarschuwing aan anderen: ‘Implementatie van AI is niet iets ‘voor erbij’; er moet een goed plan zijn en er moeten mensen en middelen voor vrijgemaakt worden.’
Kritische vragen
‘Is er sinds de inzet van AI al echt iets veranderd in Katwijk?’, vraagt een toehoorder. ‘We zitten nog in de pilotfase. We hebben ongeveer zeventig licenties aan medewerkers uitgedeeld en de animo neemt toe. Maar er is ook scepsis en we krijgen veel kritische vragen.’ Maar dat is juist goed, vindt de adviseur. Die scherpte heb je nodig. En anderen zijn juist heel enthousiast, weet hij. Zoals een HRM-collega die zich voor het opstellen van vacatureteksten laat helpen door Copilot (het doornemen en matchen van cv’s doet hij zelf).
Verdiep je erin
Belangrijk advies: houd in de gaten dat mensen alleen de betaalde AI-toepassingen gebruiken die je ook monitort. ‘ChatGPT of de gratis Copilot-versie van zoekmachine Bing staan we niet toe. Niets is gratis, al je data gaan de buitenwereld in. Maak mensen daarvan bewust en train ze daarin.’ Tot slot: ‘AI gaat niet meer weg. Maar wij, als maatschappij, als organisatie, als mensen, bepalen hoe we het inzetten. Verdiep je erin en wees kritisch.’
AI in Delft
Werkse! (Delft) onderzoekt een AI-tool die kandidaten uit het bijstandbestand aan vacatures matcht. De consulent beslist, de tool ondersteunt. Onder andere met uitleg waarom kandidaat en vacature een goede match zijn. Consulenten kunnen zelf aangeven wat ze willen meewegen bij het matchen en hoe zwaar: opleiding, ervaring, speciale aandachtspunten. Samen met de kandidaat kunnen ze de match doornemen en bekijken wat er in de uitkomst verandert als ze ‘een schuifje verzetten’.
Duurzaam?
Het doel van de AI-inzet bij Werkse! is kwaliteit toevoegen aan de dienstverlening en daarvan lijkt sprake, aldus de business unit manager Werk & Participatie. ‘De tool laat minder bias zien, vindt vaker een match dan onze medewerkers.’ Maar of een kandidaat na matching duurzaam uitstroomt? ‘Dat is nog niet bekend. We zijn momenteel bezig met de laatste juridische zaken en een technische audit, zodat alle aspecten van de tool grondig zijn getoetst. Zodra deze zijn afgerond, kan de tool live gaan. Over een jaar zullen we weten of het gebruik van de tool daadwerkelijk tot duurzame plaatsingen leidt.’
Medewerkers mee
In Delft hebben ze het hele traject eerst met een kernteam doorlopen en vervolgens breder uitgelegd. Medewerkers zijn gevraagd om mee te denken, wat heeft geholpen om mensen mee te krijgen. De manager vermoedt dat dit tot bijvangst leidt: ‘Ik denk dat dit ons en hen helpt om andere AI-tools beter te kunnen inzetten.’
Meer informatie
- Digitaal vervlochten, maar ook verbonden? (SCP en ITT • februari 2025))
- ‘O jee, hoe gaan we dit goed doen?’ (Sprank Magazine • december 2024)
- Het kan sneller en beter: maar wat willen we nu met AI? (Divosa • december 2024)
- Doe je mee?! Perspectieven op ‘zinvolle’ participatie (SCP, pdf • juni 2024)
- Samenleving in beweging (SCP • augustus 2023)
-
- Community AI en Algoritmes - Delen en samenwerken (VNG - Kennisnetwerk Data & Samenleving)
- Position paper en trendanalyse AI, Algoritmen en Gemeenten (VNG • maart 2025)
- Pilots Uitvoeringskracht en Arbeidsmarktkrapte - Lessen uit bestaande pilots en initiatieven (webinars) (VNG)
- Algoritmekader en Algoritmeregister (Rijksoverheid)
- Uitvoeringsanalyse Digital Decade AI-verordening (VNG • 2025)
- Data protection impact assessment (DPIA) (Autoriteit Persoonsgegevens)
- Impact Assessment Mensenrechten en Algoritmes (IAMA) (Rijksoverheid)
- Aan de slag met AI-geletterdheid (Autoriteit Persoonsgegevens publicaties • januari 2025)
- Binnenlandse zaken beslishulp risico classificatie (Rijksoverheid)
- AI-verordening implementatie tool (Algorithm Audit)
- Inkoopvoorwaarden GIBIT art.13 (VNG)
- Virtuele assistent opschalingsinitiatief (VNG • maart 2025)