Het invoeren van de AI Act kan niet van de ene op de andere dag; de risicogebaseerde aanpak vereist zorgvuldige planning en naleving. De Europese Commissie heeft een tijdlijn opgesteld met deadlines. Organisaties moeten vóór 1 februari 2025 aan de voorwaarden van de eerste fase voldoen.
Om te voldoen aan de eerste fase geldt: de AI-systemen met een onacceptabel risico zijn verboden. Daarnaast moeten medewerkers binnen de organisatie beschikken over voldoende vaardigheden, kennis en competenties voor het gebruik van AI. 'AI-geletterdheid' noemen we dat.
In de eerste blog uit deze serie, 'De invloed van AI op de overheid', vertelden we over de risicogebaseerde aanpak. Zie de afbeelding hieronder met de risicocategorieën volgens de AI Act:
Verderop in deze blog geven we in een stappenplan tips om medewerkers AI-geletterd te maken. Eerst werpen we een blik op de AI-toepassingen met een onacceptabel risico die per 1 februari 2025 verboden zijn.
De AI Act beschouwt de onderstaande AI-systemen als 'onacceptabel', omdat ze mogelijk een bedreiging vormen voor burgers:
AI-systemen die mensen beïnvloeden op een manier waardoor ze hun gedrag of keuzes veranderen zonder dat ze zich hiervan bewust zijn, worden gezien als vormen van subliminale manipulatie. Dit type manipulatie kan leiden tot schade of misbruik van kwetsbare mensen.
Vooral op social media speelt dit risico een rol. In 2016 gebruikte Cambridge Analytica gegevens van 50 miljoen Facebookprofielen om kiezers in de VS persoonlijk te beïnvloeden. Met technieken zoals microtargeting werden gebruikers gericht benaderd op basis van hun angsten en verlangens, wat hielp om de campagne van Donald Trump te ondersteunen. Ook de inzet van nepaccounts op Facebook en Instagram versterkte dit effect.
AI-systemen kunnen mensen in een kwetsbare positie manipuleren, benadelen of oneerlijk belasten. Groepen zoals mensen met een migratieachtergrond, ouderen of mensen met een beperking lopen hierdoor meer risico op strafmaatregelen, hogere kosten of inbreuk op hun privacy.
Het toeslagenschandaal laat goed zien hoe het mis kan gaan. Tussen 2013 en 2019 gebruikte de Belastingdienst algoritmes om fraude op te sporen bij kinderopvangtoeslag. Mensen met een laag inkomen of een migratieachtergrond werden daarbij onterecht als fraudeurs bestempeld. Dit leidde tot grote financiële en emotionele schade voor duizenden gezinnen.
Bij 'social scoring' wordt een sociale kredietscore meegegeven op basis van gedrag, sociale status of persoonlijke kenmerken. Wanneer overheden gebruik maken van dit soort AI-systemen, kunnen burgers beoordeeld en bestraft of beloond worden op basis van hun gedrag. Dit kan leiden tot discriminatie en ongelijkheid.
In China wordt social scoring toegepast. Chinezen krijgen plus- en minpunten toegewezen voor hun kredietachtergrond, het nakomen van contracten, maar ook voor hun gedrag en hun vriendschappen. Bij een te lage score word je bijvoorbeeld geweigerd in de trein of het vliegtuig.
Handhavingsdiensten, zoals politie en douane, mogen in openbare ruimtes geen real-time biometrische identificatie (RBI) gebruiken, zoals gezichtsherkenning. Dit soort AI-systemen monitoren continu wie zich in een bepaalde ruimte bevindt, wat een ernstige inbreuk op de privacy vormt. Er zijn wel uitzonderingen mogelijk, zoals bij ernstige criminaliteit of terroristische dreigingen, maar deze moeten strikt gereguleerd en gecontroleerd worden.
Op sommige luchthavens wordt gebruik gemaakt van het Self Service Passport Control-systeem (SSPC), een gezichtsherkenningstechnologie om passagiers te identificeren en te controleren. Dit versnelt het incheck- en beveiligingsproces. Op Schiphol wordt dit al een aantal jaar toegepast.
AI-systemen die emoties of bepaalde gedragingen van individuen herkennen en daar conclusies aan verbinden, kunnen leiden tot discriminatie of misbruik.
Het gebruik van emotieherkenning om sollicitanten te beoordelen kan leiden tot oneerlijke keuzes. Deze technologie kijkt naar iemands gedrag en emoties op dat moment, maar dit zegt niets over wie die persoon echt is.
Je hebt nog tot 1 februari 2025 de tijd om aan de eisen van fase 1 van de AI Act te voldoen. Om je op weg te helpen kan je onderstaand stappenplan volgen. Zo kan je organisatie tijdig en volledig voldoen aan de eerste fase van de AI Act.
Maak een volledige lijst van alle AI-systemen en toepassingen die binnen de organisatie in gebruik zijn.
Stel een gedetailleerd plan op voor het uitfaseren van verboden AI-toepassingen, zodat alles vóór 1 februari 2025 voldoet aan de eisen.
Zorg dat de gebruikers van de AI-systemen in de organisatie AI-geletterd worden.
Zorg ervoor dat de organisatie voldoet aan de deadline van 1 februari 2025.
De EU heeft een tijdlijn opgesteld om de AI-verordening volledig door te voeren. Deze ziet er als volgt uit: