De Europese AI Act (AI-verordening) is sinds 1 augustus 2024 van kracht en zet de koers uit voor veilige, transparante en ethische AI in Europa. Vanwege de complexiteit en de impact op organisaties wordt deze wet gefaseerd ingevoerd via een risicogebaseerde aanpak.
In ons vorige artikel, 'AI Act Fase 1: stappenplan voor onacceptabele risico's', hebben we de eerste cruciale fase belicht. Deze fase, met de deadline van 1 februari 2025, richt zich op het identificeren en uitfaseren van AI-systemen die een onacceptabel risico vormen voor burgers. Denk hierbij aan systemen voor subliminale manipulatie, social scoring of het exploiteren van kwetsbare groepen. Ook benadrukten we het belang van AI-geletterdheid binnen organisaties om aan deze eerste eisen te voldoen.
De AI Act wordt stap voor stap ingevoerd. Hieronder zie je wanneer welke fase in gaat:
Nu de eerste deadline in zicht komt, verschuift de focus naar de volgende deadline: Fase 2. Deze fase staat in het teken van General Purpose AI (GPAI).
In dit artikel duiken we dieper in op GPAI. We leggen uit wat het precies inhoudt en welke specifieke verplichtingen de AI Act oplegt aan aanbieders van deze systemen. Tot slot bespreken we wat de naderende deadline voor het opstellen van gedragscodes betekent voor zowel ontwikkelaars als gebruikers binnen (overheids)organisaties.
General Purpose AI (GPAI) is een vorm van artificiële intelligentie (AI). In onze eerste blog uit deze serie vertellen we alles over AI en de invloed van AI op de overheid. Hierin benoemen we GPAI al kort. Simpel gezegd is GPAI, of 'AI voor algemene doeleinden', een type AI-systeem dat niet is ontworpen voor slechts één specifieke taak. In plaats daarvan kan het voor veel verschillende doelen gebruikt worden.
Denk aan systemen zoals ChatGPT of Google Gemini (die taal kunnen genereren, samenvatten, vertalen en meer) of beeldgeneratoren zoals DALL-E en Midjourney. Je kunt ze vragen een gedicht te schrijven, een complexe vraag te beantwoorden, code te schrijven of een afbeelding te creëren op basis van een beschrijving. GPAI-systemen hebben een zelflerend vermogen en kunnen vaak in verschillende domeinen of voor nieuwe taken worden ingezet, soms met wat extra training. Ze vormen vaak de kern waar specifiekere AI-toepassingen op worden gebouwd.
Heel vaak ligt de sleutel bij zogenaamde foundation models (basismodellen). Dit zijn enorme AI-modellen die getraind zijn op gigantische hoeveelheden data. Vaak is deze data een mix van tekst, afbeeldingen en andere informatie van het internet.
Door deze intensieve training leren foundation models algemene patronen, structuren en een soort 'basiskennis' van de wereld zoals die in de data wordt gerepresenteerd. Voorbeelden zijn modellen zoals GPT-4 (de motor achter ChatGPT), Midjourney, of DALL-E (dat tekst en beeld koppelt).
Het cruciale kenmerk van foundation models is dat ze dienen als een fundament. Ze hoeven niet voor elke nieuwe taak vanaf nul getraind te worden. In plaats daarvan kunnen ontwikkelaars ze aanpassen met kleinere, taakspecifieke datasets. Dit maakt het mogelijk om snel krachtige, gespecialiseerde AI-toepassingen te bouwen bovenop een solide, algemene basis.
De termen GPAI en foundation model worden vaak in één adem genoemd, wat logisch is, maar ze betekenen net iets anders:
Je kunt zeggen dat het foundation model de krachtige motor is, terwijl GPAI de veelzijdige auto is die door die motor wordt aangedreven.
Belangrijk detail: veel bekende foundation models zijn Large Language Models (LLM's), zoals GPT-4, die gespecialiseerd zijn in taal. Echter, de term 'foundation model' is breder en omvat ook basismodellen getraind op beelden, code, of zelfs wetenschappelijke data. Een LLM is dus een type foundation model, maar niet alle foundation models zijn LLM's.
GPAI-systemen worden nu al op diverse manieren ingezet, ook binnen de publieke sector. Hier zijn enkele voorbeelden en de bijbehorende risico's:
De brede inzetbaarheid van GPAI maakt het lastig om alle mogelijke uitkomsten en risico's vooraf te overzien. Eén fout in een veelgebruikt basismodel kan onbedoelde gevolgen hebben in talloze toepassingen. Daarom stelt de AI Act specifieke eisen.
De AI Act legt de verantwoordelijkheid voor GPAI grotendeels bij de aanbieders van de foundation models. Zij moeten voldoen aan een aantal eisen om de veiligheid en betrouwbaarheid te waarborgen:
Een belangrijk onderdeel van Fase 2, met de deadline van 1 mei 2025, is het opstellen van vrijwillige gedragscodes (Codes of Conduct) voor GPAI. Deze codes moeten organisaties helpen om de wettelijke verplichtingen uit de AI Act in de praktijk te brengen. Ze zullen zich richten op aspecten als transparantie, veiligheid, privacy en de impact op fundamentele rechten.
De ontwikkeling van deze gedragscodes is een samenwerking:
Hoewel de codes vrijwillig zijn, wordt verwacht dat ze een belangrijke standaard zullen worden in de sector.
We lieten je eerder al de tijdlijn zien die de EU heeft opgesteld om de AI-verordening volledig door te voeren. Nogmaals een toelichting en schematische weergave (hieronder) van deze tijdlijn:
De volgende belangrijke deadline is 1 augustus 2025. Dan gelden de bepalingen voor AI met beperkt risico, dit is fase 3 van de AI Act. Wij blijven de ontwikkelingen rondom deze AI Act volgen, en houden je via onze blog op de hoogte over de laatste updates.