De EU AI-wet

Het is belangrijk om te evalueren of uw gebruik van AI onder de 'hoge risico' categorie valt.

De EU AI-wet (De Wet op Kunstmatige Intelligentie, Verordening 2024/1689) legt voor de meeste kleine en middelgrote ondernemingen (KMO's) niet veel extra werk op, tenzij ze te maken hebben met 'hoogrisico' AI-systemen.

Meer hierover

De EU AI-wet

Wie moet zich houden aan de regels?

Elk bedrijf dat AI-oplossingen in de EU gebruikt, ontwikkelt of aanschaft, moet voldoen. De nalevingsverplichtingen zijn zeer beperkt, tenzij een bedrijf te maken heeft met een 'hoog-risico' AI-systeem.

Wat is een hoogrisico-AI-systeem?

Een AI-systeem wordt als hoog risico gedefinieerd als:

  • Het is een veiligheidscomponent die een conformiteitsbeoordeling door een derde partij moet ondergaan (van kracht sinds augustus 2027).
  • Het betreft biometrie.
  • Het wordt gebruikt in kritieke infrastructuur.
  • Het wordt gebruikt voor wetshandhaving, migratie of de administratie van justitie en democratische processen.
  • Het wordt gebruikt om toegang te bieden tot essentiële diensten (gezondheid, krediet, noodgevallen, enz.).
  • Het wordt gebruikt in de werkgelegenheid, het beheer van werknemers en de toegang tot zelfstandigheid.
  • Het wordt gebruikt in het onderwijs en de beroepsopleiding.

EU-lidstaten zijn vrij om de lijst te wijzigen.

Kleine bedrijven maken waarschijnlijk gebruik van bestaande AI-systemen (genaamd 'deployers') in de laatste twee categorieën.

Gebruik van een AI-systeem in werk, onderwijs of training

Een AI-systeem wordt als 'hoog risico' beschouwd als:

  • Het AI-systeem wordt gebruikt voor de werving, selectie of evaluatie van werkzoekenden.
  • Het AI-systeem wordt gebruikt om beslissingen te nemen die de voorwaarden van werkgerelateerde relaties, de promotie van werknemers, beëindiging, het toewijzen van taken of het monitoren en evalueren van werknemers (of aannemers) beïnvloeden.

Een AI-systeem wordt als 'hoog risico' beschouwd als:

  • Het AI-systeem wordt gebruikt om toegang of toelating tot cursussen te bepalen.
  • Het AI-systeem wordt gebruikt om leerresultaten te evalueren, individuen te beoordelen of verboden gedrag van studenten tijdens toetsen te monitoren en te detecteren.

Als je van plan bent AI in deze contexten te gebruiken, moet je de regelgeving voor details controleren. Dit geldt ook wanneer je een kant-en-klaar AI-systeem gebruikt, zoals Microsoft Copilot, ChatGPT of Google Gemini.

AVG-naleving

Bijzondere bepalingen voor AI-systemen worden verstrekt naast alle andere AVG-vereisten die aan de bedrijven die ze exploiteren zijn opgelegd. In veel opzichten is de AI-wet een verdere ontwikkeling van de compliance-eisen die door de AVG zijn opgelegd. Om praktische redenen zouden de meeste kleine bedrijven hun inspanningen voor naleving van de AI-wet moeten plannen en documenteren als een aanvullend onderdeel van hun AVG-nalevingsinspanningen.

Wanneer treedt de AI-wet in werking?

De lijst met verboden AI-praktijken is al van kracht. De meeste bepalingen die het meest relevant zijn voor kleine bedrijven, treden in augustus 2025 in werking.