La Loi sur l'IA de l'UE

Il est important d'évaluer si votre utilisation de l'IA relève de la catégorie 'haut risque'.

La loi européenne sur l'IA (Loi sur l'intelligence artificielle, Règlement 2024/1689) n'impose pas beaucoup de travail supplémentaire pour la plupart des petites et moyennes entreprises (PME), à moins qu'elles ne traitent des systèmes d'IA 'à haut risque'.

En savoir plus

La Loi sur l'IA de l'UE

Qui doit se conformer ?

Chaque entreprise utilisant, développant ou acquérant des solutions d'IA dans l'UE doit se conformer. Les obligations de conformité sont très limitées à moins qu'une entreprise ne traite un système d'IA 'à haut risque'.

Qu'est-ce qu'un système d'IA à haut risque ?

Un système d'IA est défini comme à haut risque si :

  • Il s'agit d'un composant de sécurité qui doit subir une évaluation de conformité par un tiers (en vigueur depuis août 2027).
  • Cela implique des données biométriques.
  • Il est utilisé dans les infrastructures critiques.
  • Il est utilisé pour l'application de la loi, la migration ou l'administration de la justice et des processus démocratiques.
  • Il est utilisé pour fournir un accès à des services essentiels (santé, crédit, urgences, etc.).
  • Il est utilisé dans l'emploi, la gestion des travailleurs et l'accès à l'auto-emploi.
  • Il est utilisé dans l'éducation et la formation professionnelle.

Les États membres de l'UE sont libres de modifier la liste.

Les petites entreprises sont les plus susceptibles d'utiliser des systèmes d'IA existants (appelés 'déployeurs') dans les deux dernières catégories.

Utilisation d'un système d'IA dans l'emploi, l'éducation ou la formation

Un système d'IA est considéré comme 'à haut risque' si :

  • Le système d'IA est utilisé pour le recrutement, la sélection ou l'évaluation des candidats à l'emploi.
  • Le système d'IA est utilisé pour prendre des décisions affectant les conditions des relations de travail, la promotion des employés, le licenciement, l'attribution des tâches ou pour surveiller et évaluer les employés (ou les contractuels).

Un système d'IA est considéré comme 'à haut risque' si :

  • Le système d'IA est utilisé pour déterminer l'accès ou l'admission aux cours.
  • Le système d'IA est utilisé pour évaluer les résultats d'apprentissage, évaluer les individus ou surveiller et détecter les comportements interdits des étudiants pendant les tests.

Si vous prévoyez d'utiliser l'IA dans ces contextes, vous devez consulter la réglementation pour plus de détails. Cela s'applique également lorsque vous utilisez un système d'IA prêt à l'emploi, tel que Microsoft Copilot, ChatGPT ou Google Gemini.

Conformité au RGPD

Des dispositions spéciales pour les systèmes d'IA sont prévues en plus de toutes les autres exigences du RGPD imposées aux entreprises qui les exploitent. À bien des égards, la loi sur l'IA est un développement supplémentaire des exigences de conformité imposées par le RGPD. Pour des raisons pratiques, la plupart des petites entreprises devraient planifier et documenter leurs efforts de conformité avec la loi sur l'IA comme un élément supplémentaire de leurs efforts de conformité au RGPD.

Quand le règlement sur l'IA entre-t-il en vigueur?

La liste des pratiques d'IA interdites est déjà en vigueur. La plupart des dispositions les plus pertinentes pour les petites entreprises entreront en vigueur en août 2025.