De mogelijkheden van kunstmatige intelligentie (AI) zijn enorm, maar roepen ook belangrijke vragen op over veiligheid, ethiek en privacy. Daarom is de AI Act in het leven geroepen. Sinds 1 augustus 2024 is deze wet van kracht. Omdat het voor bedrijven en ontwikkelaars vrijwel onmogelijk is om in één keer aan alle regels te voldoen, zijn er fasen opgesteld.
Nu de tweede deadline is gepasseerd, verschuift de focus naar de volgende mijlpaal: Fase 3 op 1 augustus 2025. In deze fase draait het om transparantie bij AI-systemen met beperkt risico.
In dit artikel duiken we dieper in de betekenis van 'beperkt risico AI'. We leggen uit welke specifieke verplichtingen rondom transparantie de AI Act oplegt. En we vertellen wat de naderende deadline betekent voor organisaties die deze systemen gebruiken.
Maar eerst even samengevat, wat is de AI Act en welke fasen zijn er?
De AI Act is een Europese wetgeving met een risicogebaseerde benadering, waarbij AI-systemen worden ingedeeld op basis van het risico dat ze vormen voor burgers. De risico's variëren van laag tot onacceptabel.
De AI Act wordt stap voor stap ingevoerd. Hieronder zie je wanneer welke fase in gaat:
De eerste fase van de AI Act draait om het uitfaseren van onacceptabele AI. Zoals social scoring of gezichtsherkenning.
De tweede fase draait om het opstellen van juiste gedragsregels rondom het gebruik van General Purpose AI (GPAI). Denk aan taalmodellen en beeldgeneratie, zoals ChatGPT of Google Gemini.
In de derde fase moet je voldoen aan de regels voor AI-systemen met een beperkt risico. Hierover vertellen we meer in deze blog.
AI-systemen met beperkt risico zijn AI-toepassingen die gebruikers kunnen misleiden of manipuleren. Bijvoorbeeld wanneer gebruikers niet weten dat ze met een chatbot praten in plaats van met een echt persoon. Hier moeten organisaties transparant over zijn.
De AI Act onderscheidt verschillende categorieën binnen beperkt risico AI: interactie-AI, content-genererende AI, biometrische categorisering en deepfakes en manipulatie.
1. Interactie-AI (chatbots en virtuele assistenten)
AI-systemen die direct communiceren met mensen, zoals chatbots op websites of virtuele assistenten in apps.
Risico: Gebruikers denken dat ze met een echt persoon praten, terwijl ze met AI communiceren.
Voorbeelden:
2. Content-genererende AI
AI-systemen die tekst, afbeeldingen, audio of video produceren die lijken op door mensen gemaakte content.
Risico: Gebruikers kunnen niet onderscheiden of content echt of AI-gegenereerd is, wat kan leiden tot misinformatie.
Voorbeelden:
3. Biometrische categorisering
AI-systemen die mensen categoriseren op basis van hun biometrische kenmerken.
Risico: Onbewuste discriminatie en inbreuk op privacy en fundamentele rechten.
Voorbeelden:
4. Deepfakes en manipulatie
AI-systemen die bestaande afbeeldingen, audio of video's manipuleren waardoor de mensen op die video's dingen doen of zeggen die ze nooit hebben gedaan.
Risico: Verspreiding van nepnieuws, reputatieschade en ondermijning van vertrouwen in echte media.
Voorbeelden:
Je wilt als organisatie innoveren met AI-toepassingen. Tegelijkertijd wil je voldoen aan de AI Act en risico's minimaliseren. Voldoe vóór 1 augustus 2025 aan de regels voor beperkt risico AI, anders riskeer je een boete van maximaal 35 miljoen euro of 7% van de jaaromzet, afhankelijk van de ernst van de overtreding en de grootte van de organisatie.
Het volgende stappenplan helpt je te voldoen aan fase 3 van de AI Act en transparant te zijn over het gebruik van AI.
De EU heeft een tijdlijn opgesteld om de AI-verordening volledig door te voeren. Hieronder nogmaals een toelichting en schematische weergave (hieronder) van deze tijdlijn: