Gepubliceerd op April 22nd, 2025
Een AI tool kan op basis van menselijke input (vaak een aantal steekwoorden, ook wel ‘prompts’ genoemd) een tekst of afbeelding genereren. Deze tools worden getraind op grote datasets, kunnen patronen hierin herkennen, en op basis van deze data nieuwe content creëren. AI tools zijn steeds beter in staat om realistische output te genereren, en worden helaas ook gebruikt voor het genereren van misbruikbeelden van minderjarigen.
De laatste jaren is er een toename gezien in het aantal AI gegenereerde afbeeldingen van seksueel kindermisbruik. In 2024 zijn er bij het Meldpunt Kinderporno in totaal meer dan 3700 meldingen binnengekomen van virtueel of AI gegenereerd materiaal. Gebruikers kunnen een AI tool gebruiken om misbruikbeelden te creëren, of AI gebruiken om van een bestaand slachtoffer nieuw materiaal te maken. Ook bleek dat grote datasets die werden gebruikt voor het trainen van de AI ook echt materiaal van seksueel kindermisbruik bevatten.
Om de toename van AI gegenereerde misbruikbeelden tegen te gaan, is er nu steeds meer aandacht voor ‘Safety by Design’. Dit is een aanpak waarbij al vanaf het begin van de ontwikkeling rekening wordt gehouden met risico’s en de bescherming van kinderen. Zo zal de AI termen herkennen die zouden kunnen leiden tot misbruikbeelden (zoals ‘kind’ en ‘naakt’) en hiervoor geen output genereren. Ook kan ‘watermerken’ worden gebruikt, wat betekent dat er een code of label wordt toegevoegd aan de afbeelding dat aangeeft dat het om een AI gegenereerde afbeelding gaat. Dit maakt het mogelijk om AI gegenereerd materiaal, en dus ook misbruikmateriaal, te herkennen en sneller op te sporen. Naast ‘Safety by design’ is het ook belangrijk dat er meer bewustwording komt bij mensen over de schadelijkheid van dit materiaal.
Zelfs als er geen echte kinderen zijn gebruikt voor AI gegeneerd materiaal kunnen er grote consequenties en schadelijke gevolgen aan vast zitten. AI gegenereerde misbruikbeelden kunnen seksueel gedrag tussen volwassen en kinderen normaliseren. Daarbij kan het voorkomen dat virtueel materiaal wordt gebruikt voor het groomen van kinderen. Hierdoor kunnen kinderen aangezet worden tot het delen van naaktbeelden of seksuele handelingen. Daarnaast wordt het steeds moeilijker om AI gegenereerde misbruikbeelden te onderscheiden van echt materiaal. Dit maakt dat opsporingsinstanties die zich bezig houden met het identificeren en opsporen van slachtoffers veel tijd investeren in het opsporen van een niet bestaand slachtoffer. Wat natuurlijk ten koste gaat van echte kinderen die slachtoffer zijn van seksueel misbruik. Ook kan het zijn dat iemand echte misbruikbeelden online zet en deze bestempelt als AI, in de hoop op een lagere straf mocht het daartoe komen. Als laatste bestaat er ook altijd de mogelijkheid dat door het kijken van virtueel of AI gegenereerd materiaal iemand afglijdt naar steeds realistischere beelden of zelfs echt misbruikmateriaal. Dit alles houdt een markt in stand waarin kinderen tot slachtoffer worden gemaakt, met vaak levenslange gevolgen voor het kind.
In Nederland is het kijken naar virtueel materiaal van seksueel kindermisbruik – zoals door AI gegenereerd materiaal – strafbaar. Het gaat hier met name om realistisch materiaal wat niet van echt te onderscheiden is. Dat het gaat om virtueel materiaal wilt ook niet zeggen dat het leidt tot een lagere strafeis in vergelijking met materiaal waar een echt kind bij betrokken is. Het kijken naar AI gegenereerd materiaal is namelijk niet slachtofferloos.
Heb je wel eens naar virtuele of AI gegenereerde misbruikbeelden gekeken en wil je hier over praten? Neem dan anoniem contact op met Stop it Now via de chat (www.stopitnow.nl) of telefoon (0800 266 64 36).