De opkomst van kunstmatige intelligentie (AI) biedt enorme mogelijkheden, maar roept ook belangrijke vragen op over veiligheid, ethiek en privacy. Om deze technologie op een verantwoorde manier te reguleren, heeft de Europese Unie de AI-verordening, ook wel de AI Act, opgesteld. Deze Europese AI-wetgeving is één van de eerste pogingen wereldwijd om AI-systemen te reguleren en focust op transparantie, veiligheid en het voorkomen van discriminatie in AI-toepassingen.
De verordening heeft een risicogebaseerde benadering, waarbij AI-systemen worden ingedeeld op basis van het risico dat ze vormen voor burgers, variërend van laag tot onacceptabel.
AI wordt wordt steeds vaker gebruikt, zowel door burgers als in het bedrijfsleven. Naast de groei van AI nemen ook de zorgen toe over de risico's die deze technologie met zich meebrengt, zoals privacyschending, discriminatie en een gebrek aan transparantie in de beslissingen van AI-systemen. Daarnaast groeit de behoefte om het vertrouwen in AI-technologie te versterken. De AI Act moet er voor zorgen dat AI op een eerlijke en verantwoorde manier wordt gebruikt.
Het eerste voorstel voor een AI-wet, maakte de Europese Commissie in april 2021 bekend. Ruim drie jaar later is de allereerste AI-verordening in Europa van kracht gegaan. Sinds 1 augustus 2024 moeten overheden en andere organisaties zich aan de AI-regels houden om op een transparante, ethische en veilige manier met AI om te gaan.
De AI-verordening heeft een risicogebaseerde aanpak. Dit betekent dat de regels strenger worden naarmate het risico op impact voor de samenleving toeneemt. De verschillende risicocategorieën zijn:
Omdat de AI Act uit veel onderdelen bestaat, zijn er fasen opgesteld. Zo krijgen organisaties en overheden de tijd om verboden AI-toepassingen uit te faseren. Verderop in deze blog vertellen we meer over deze fasen.
Het is belangrijk dat je organisatie vóór 1 februari 2025 voldoet aan de eisen uit de eerste fase. Dan zijn alle AI-systemen met onacceptabele risico's verboden. Het gaat hierbij om de volgende risico's:
De AI-verordening geldt voor verschillende partijen die betrokken zijn bij de ontwikkeling, distributie en toepassing van AI-systemen binnen de Europese Unie:
Belangrijk om te weten is dat de verordening niet alleen van toepassing is op bedrijven die gevestigd zijn in de EU, maar ook op bedrijven van buiten de EU die AI-systemen aanbieden aan Europese gebruikers of hun diensten in Europa willen aanbieden. De reikwijdte van de AI-verordening is hierdoor breed. Zowel internationale als Europese organisaties moeten zich aan dezelfde regels houden om de veiligheid, openheid en rechten van burgers te beschermen.
De handhaving van de AI-verordening wordt streng en gestructureerd uitgevoerd door nationale en Europese toezichthoudende autoriteiten. Elk EU-land is verantwoordelijk voor het benoemen van een toezichthoudende instantie die de naleving van de verordening controleert binnen zijn eigen jurisdictie.
De bestuursorganen die zijn opgericht om de AI-verordening te handhaven zijn:
Wanneer een bedrijf of organisatie zich niet aan de AI-verordening houdt, kunnen er forse boetes worden opgelegd. Deze zijn vergelijkbaar met de boetes onder de Algemene Verordening Gegevensbescherming (AVG). Boetes op de AI-verordening kunnen oplopen tot 35 miljoen euro of 7% van de jaaromzet, afhankelijk van de ernst van de overtreding en de grootte van de organisatie. Dit benadrukt hoe serieus de EU handhaving en naleving neemt om ervoor te zorgen dat AI-systemen veilig, ethisch en transparant worden gebruikt.
Het is dus belangrijk om goed in de gaten te houden wanneer je aan welke eisen moet voldoen.
De EU heeft een tijdlijn opgesteld om de AI-verordening volledig door te voeren. Deze ziet er als volgt uit:
Lees in onze volgende blog hoe je in 5 stappen aan de eerste fase voldoet.