Het gebruik van generatieve AI zoals ChatGPT en Copilot heeft in korte tijd zijn intrede gedaan in het dagelijks werk van veel professionals, ook binnen het sociaal domein. Het is duidelijk dat de technologie veel kansen biedt, bijvoorbeeld door te ondersteunen bij het opzoeken van wet- en regelgeving, het analyseren van cliëntinformatie, het structureren van dossiers of het samenvatten van complexe teksten. Je ziet dan ook dat meer professionals experimenteren met deze tools om hun werk efficiënter en effectiever te maken.
Tegelijkertijd roept het gebruik van AI vragen op. Ethische vragen, juridische vragen, maar ook vragen over professioneel en methodisch handelen. Want hoe verhoudt het werken met AI zich tot het methodisch handelen zoals dat binnen gemeenten, sociaal ontwikkelbedrijven, arbodiensten en UWV wordt nagestreefd?
Methodisch handelen is meer dan het uitvoeren van taken; het is een bewust proces van denken en doen, gericht op het toewerken naar doelen op een systematische en verantwoorde manier.[1] Methodisch handelen vraagt om reflectie, afwegingen en het kunnen onderbouwen van keuzes. Juist daar ontstaat een spanningsveld: AI kan het methodisch handelen ondersteunen, maar kan het ook ondermijnen.
Hoe beïnvloedt AI methodisch handelen?
AI kan methodisch handelen versterken. Zo helpt het bij het scherp stellen van doelen, het analyseren van grote hoeveelheden data en het maken van onderbouwde keuzes. Door administratieve taken te automatiseren, komt er meer tijd vrij voor menselijk contact en begeleiding. Ook kan AI bijdragen aan het structureren van werkprocessen en het creëren van overzicht. In die zin sluit het goed aan bij de wens om systematisch en procesmatig te werken.
Tegelijkertijd brengt AI risico’s met zich mee die het methodisch handelen kunnen ondermijnen. Een belangrijk aandachtspunt is de transparantie van AI-systemen. De keuzes die AI-tools voorstellen zijn gebaseerd op algoritmes die niet altijd inzichtelijk zijn. Hierdoor kunnen doelen impliciet verschuiven, bijvoorbeeld doordat AI suggesties doet die technisch logisch zijn, maar niet maatschappelijk wenselijk. Zo kan het gebruik van AI leiden tot discriminatie [2], bijvoorbeeld bij het aannemen van werknemers [3].
Daarnaast is er het risico van cognitieve uitbesteding: professionals nemen AI-adviezen over zonder ze kritisch te doorgronden [4]. Uit onderzoek blijkt dat gebruikers met veel vertrouwen in AI minder geneigd zijn tot reflectie [5]. Dit kan leiden tot een afname van bewust handelen, terwijl juist dat essentieel is voor kwaliteit en verantwoording. Het proces van zelf nadenken, afwegen en leren, dat normaal gesproken in methodisch handelen besloten ligt, komt onder druk te staan.
Ook het tempo waarin AI werkt, kan paradoxaal genoeg een belemmering vormen. Methodisch handelen vraagt soms om vertraging: om ruimte voor reflectie, overleg en het laten bezinken van informatie. Er zit kennis in het proces zelf, in het doorlopen van stappen, het stellen van vragen, het beschrijven van informatie. Als AI het proces te sterk versnelt, bestaat het risico dat waardevolle inzichten verloren gaan.
Tot slot kan het gebruik van AI invloed hebben op de samenwerking tussen professionals. Waar methodisch handelen vaak gepaard gaat met collegiale reflectie en gezamenlijke besluitvorming, kan AI het werk individualiseren. Als iedereen zijn eigen AI-assistent gebruikt, ontstaat het risico dat gedeelde werkwijzen en gezamenlijke leerprocessen afnemen.
Wat zie jij gebeuren?
Generatieve AI wordt steeds vaker ingezet in het sociaal domein. Wij zijn benieuwd naar wat dit betekent voor jouw praktijk als professional. Wat betekent dat voor de manier waarop jij methodisch handelt? Welke effecten zie jij van generatieve AI op jouw eigen handelen of dat van collega’s? Helpt het je om doelgerichter en efficiënter te werken, of merk je juist dat het reflectie en samenwerking onder druk zet? Hoe houd jij regie over je professionele keuzes in een tijd waarin AI steeds vaker meedenkt?
Denk met ons mee door deze vragenlijst in te vullen! Bij voldoende inzendingen zullen we de geanonimiseerde resultaten delen in een toekomstig bericht.
Bronnen
- Hazelzet, A.M., & Otten, W. (2017). Methodisch werken: waarom wel, waarom niet? Onder zoek naar factoren die methodisch werken van klantmanagers bij sociale diensten bevorderen. Leiden: TNO. TNO Rapport R17043.
- Borgesius, F. Z. (2025). Discrimination, artificial intelligence, and algorithmic decision-making. arXiv preprint arXiv:2510.13465.
- Chen, Z. (2023). Ethics and discrimination in artificial intelligence-enabled recruitment practices. Humanities and social sciences communications, 10(1), 1-12.
- Bilen, Eren and Hervé, Justine, When AI Gives Bad Advice: Critical thinking in human-AI collaborations (December 01, 2024). http://dx.doi.org/10.2139/ssrn.5040466
- Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 15(1), 6. https://doi.org/10.3390/soc15010006