Atabix | blog

AI Act fase 2: de focus op General Purpose AI (GPAI)

Geschreven door Atabix | 10 april 2025

De Europese AI Act (AI-verordening) is sinds 1 augustus 2024 van kracht en zet de koers uit voor veilige, transparante en ethische AI in Europa. Vanwege de complexiteit en de impact op organisaties wordt deze wet gefaseerd ingevoerd via een risicogebaseerde aanpak.

In ons vorige artikel, 'AI Act Fase 1: stappenplan voor onacceptabele risico's', hebben we de eerste cruciale fase belicht. Deze fase, met de deadline van 1 februari 2025, richt zich op het identificeren en uitfaseren van AI-systemen die een onacceptabel risico vormen voor burgers. Denk hierbij aan systemen voor subliminale manipulatie, social scoring of het exploiteren van kwetsbare groepen. Ook benadrukten we het belang van AI-geletterdheid binnen organisaties om aan deze eerste eisen te voldoen.

De tijdlijn van de AI Act

De AI Act wordt stap voor stap ingevoerd. Hieronder zie je wanneer welke fase in gaat:

Nu de eerste deadline in zicht komt, verschuift de focus naar de volgende deadline: Fase 2. Deze fase staat in het teken van General Purpose AI (GPAI).

In dit artikel duiken we dieper in op GPAI. We leggen uit wat het precies inhoudt en welke specifieke verplichtingen de AI Act oplegt aan aanbieders van deze systemen. Tot slot bespreken we wat de naderende deadline voor het opstellen van gedragscodes betekent voor zowel ontwikkelaars als gebruikers binnen (overheids)organisaties.

Wat is General Purpose AI (GPAI)?

General Purpose AI (GPAI) is een vorm van artificiële intelligentie (AI). In onze eerste blog uit deze serie vertellen we alles over AI en de invloed van AI op de overheid. Hierin benoemen we GPAI al kort. Simpel gezegd is GPAI, of 'AI voor algemene doeleinden', een type AI-systeem dat niet is ontworpen voor slechts één specifieke taak. In plaats daarvan kan het voor veel verschillende doelen gebruikt worden.

Denk aan systemen zoals ChatGPT of Google Gemini (die taal kunnen genereren, samenvatten, vertalen en meer) of beeldgeneratoren zoals DALL-E en Midjourney. Je kunt ze vragen een gedicht te schrijven, een complexe vraag te beantwoorden, code te schrijven of een afbeelding te creëren op basis van een beschrijving. GPAI-systemen hebben een zelflerend vermogen en kunnen vaak in verschillende domeinen of voor nieuwe taken worden ingezet, soms met wat extra training. Ze vormen vaak de kern waar specifiekere AI-toepassingen op worden gebouwd.

De motor achter GPAI: foundation models

Heel vaak ligt de sleutel bij zogenaamde foundation models (basismodellen). Dit zijn enorme AI-modellen die getraind zijn op gigantische hoeveelheden data. Vaak is deze data een mix van tekst, afbeeldingen en andere informatie van het internet.

Door deze intensieve training leren foundation models algemene patronen, structuren en een soort 'basiskennis' van de wereld zoals die in de data wordt gerepresenteerd. Voorbeelden zijn modellen zoals GPT-4 (de motor achter ChatGPT), Midjourney, of DALL-E (dat tekst en beeld koppelt).

Het cruciale kenmerk van foundation models is dat ze dienen als een fundament. Ze hoeven niet voor elke nieuwe taak vanaf nul getraind te worden. In plaats daarvan kunnen ontwikkelaars ze aanpassen met kleinere, taakspecifieke datasets. Dit maakt het mogelijk om snel krachtige, gespecialiseerde AI-toepassingen te bouwen bovenop een solide, algemene basis.

GPAI vs. foundation model: hoe zit het precies?

De termen GPAI en foundation model worden vaak in één adem genoemd, wat logisch is, maar ze betekenen net iets anders:

  • Foundation Model: Verwijst naar de onderliggende technologie – het grote, vooraf getrainde basismodel zelf. Het is het resultaat van de grootschalige training.
  • GPAI: Beschrijft de functionaliteit van een AI-systeem – het vermogen om een breed scala aan taken uit te voeren. Deze functionaliteit wordt vaak mogelijk gemaakt door een foundation model.

Je kunt zeggen dat het foundation model de krachtige motor is, terwijl GPAI de veelzijdige auto is die door die motor wordt aangedreven.

Belangrijk detail: veel bekende foundation models zijn Large Language Models (LLM's), zoals GPT-4, die gespecialiseerd zijn in taal. Echter, de term 'foundation model' is breder en omvat ook basismodellen getraind op beelden, code, of zelfs wetenschappelijke data. Een LLM is dus een type foundation model, maar niet alle foundation models zijn LLM's.

Praktijkvoorbeelden van GPAI (en de risico's)

GPAI-systemen worden nu al op diverse manieren ingezet, ook binnen de publieke sector. Hier zijn enkele voorbeelden en de bijbehorende risico's:

De brede inzetbaarheid van GPAI maakt het lastig om alle mogelijke uitkomsten en risico's vooraf te overzien. Eén fout in een veelgebruikt basismodel kan onbedoelde gevolgen hebben in talloze toepassingen. Daarom stelt de AI Act specifieke eisen.

Verplichtingen voor GPAI onder de AI Act

De AI Act legt de verantwoordelijkheid voor GPAI grotendeels bij de aanbieders van de foundation models. Zij moeten voldoen aan een aantal eisen om de veiligheid en betrouwbaarheid te waarborgen:

  • Risicobeoordeling: Potentiële risico's (technisch, ethisch, maatschappelijk) moeten worden geïdentificeerd en geanalyseerd.
  • Data governance: Er moeten processen zijn voor verantwoord databeheer, inclusief controle op kwaliteit, privacy en het voorkomen van vooroordelen (bias) in datasets.
    Prestaties en beveiliging: De modellen moeten betrouwbaar functioneren en robuust zijn tegen storingen of cyberaanvallen.
  • Duurzaamheid: De milieu-impact (met name energieverbruik) moet worden geëvalueerd en waar mogelijk beperkt.
  • Technische documentatie: Gedetailleerde documentatie moet beschikbaar zijn voor toezichthouders en gebruikers van het model.
  • Kwaliteitsmanagement: Er moeten systemen zijn voor continue monitoring, testen en verbetering van het model.
Extra eisen voor generatieve AI: Foundation models die worden gebruikt voor generatieve AI (zoals het maken van tekst, beeld of code) moeten aan aanvullende regels voldoen:
  • Transparantie over trainingsdata: Er moet een samenvatting worden gepubliceerd van de data die is gebruikt voor de training, met name aandacht voor auteursrechtelijk beschermd materiaal. (Let op: dit betekent niet automatisch dat het gebruik van die data legaal is).
  • Aanduiding van AI-gegenereerde content: Output die bedoeld is om op echte personen, objecten, etc. te lijken (deepfakes) moet duidelijk als kunstmatig gemarkeerd worden, tenzij dit technisch onmogelijk is of voor legitieme doeleinden (kunst, satire) gebeurt met behoud van fundamentele rechten.

Fase 2: gedragscodes voor GPAI opstellen

Een belangrijk onderdeel van Fase 2, met de deadline van 1 mei 2025, is het opstellen van vrijwillige gedragscodes (Codes of Conduct) voor GPAI. Deze codes moeten organisaties helpen om de wettelijke verplichtingen uit de AI Act in de praktijk te brengen. Ze zullen zich richten op aspecten als transparantie, veiligheid, privacy en de impact op fundamentele rechten.

De ontwikkeling van deze gedragscodes is een samenwerking:

  • Aanbieders van GPAI-modellen: Nemen het initiatief en werken samen om praktische richtlijnen op te stellen die aansluiten bij de stand van de techniek.
  • Europese Commissie (AI Office): Faciliteert en moedigt de ontwikkeling aan, en beoordeelt uiteindelijk of de codes voldoen aan de doelstellingen van de AI Act.
  • Belanghebbenden: Andere partijen, zoals gebruikersorganisaties, overheden en experts, kunnen input leveren.

Hoewel de codes vrijwillig zijn, wordt verwacht dat ze een belangrijke standaard zullen worden in de sector.

Tijdlijn en deadlines van de AI Act

We lieten je eerder al de tijdlijn zien die de EU heeft opgesteld om de AI-verordening volledig door te voeren. Nogmaals een toelichting en schematische weergave (hieronder) van deze tijdlijn:

De volgende belangrijke deadline is 1 augustus 2025. Dan gelden de bepalingen voor AI met beperkt risico, dit is fase 3 van de AI Act. Wij blijven de ontwikkelingen rondom deze AI Act volgen, en houden je via onze blog op de hoogte over de laatste updates.

Meer informatie