Questions Fréquentes sur le règlement sur l’IA Européen (IA Act – FAQ)

FAQ – Règlement européen sur l’intelligence artificielle

Les 25 questions les plus fréquentes

  1. Qu’est-ce que le règlement européen sur l’intelligence artificielle ?
  2. Quels sont les objectifs de ce règlement ?
  3. À qui s’applique le règlement sur l’IA ?
  4. Quelles sont les définitions clés données dans ce règlement ?
  5. Quels systèmes d’IA sont interdits ?
  6. Comment les systèmes d’IA sont-ils classés par niveau de risque ?
  7. Quelles obligations pour les systèmes d’IA à haut risque ?
  8. Quelles sont les exigences de qualité des données ?
  9. Quel est le rôle du contrôle humain dans l’utilisation de l’IA ?
  10. Quelles sont les obligations de transparence pour les IA ?
  11. Quels sont les droits des utilisateurs ?
  12. Qu’est-ce qu’un bac à sable réglementaire pour l’IA ?
  13. Quelles sont les obligations des fournisseurs d’IA ?
  14. Quel est le rôle du Bureau de l’IA ?
  15. Comment sont assurées la surveillance et l’évaluation après mise sur le marché ?
  16. Quels modèles d’IA sont considérés à usage général ?
  17. Les systèmes d’IA peuvent-ils être testés sur des personnes ?
  18. Comment l’UE assure-t-elle la gouvernance de l’IA ?
  19. Quelles sanctions sont prévues en cas de non-respect ?
  20. Comment les normes harmonisées sont-elles utilisées ?
  21. Comment se déroule la procédure d’évaluation de conformité ?
  22. Comment s’articule le marquage CE pour l’IA ?
  23. Quelle est la place des codes de bonne conduite ?
  24. Les petites entreprises bénéficient-elles d’exemptions ?
  25. Comment les citoyens peuvent-ils signaler des risques liés à l’IA ?

Les réponses détaillées avec des liens vers le RÈGLEMENT DE l’IA ACT (UE) 2024/1689 DU PARLEMENT EUROPÉEN ET DU CONSEIL

Qu’est-ce que le règlement européen sur l’intelligence artificielle ?

Le règlement (UE) 2024/1689 établit un cadre juridique harmonisé pour l’utilisation de l’intelligence artificielle dans l’Union européenne. Il vise à garantir que les systèmes d’IA respectent les droits fondamentaux, la sécurité et l’éthique, tout en stimulant l’innovation. Voir article 1.

Quels sont les objectifs de ce règlement ?

Les objectifs du règlement sont de promouvoir une IA digne de confiance, de garantir la sécurité juridique, de renforcer la gouvernance et la protection des droits fondamentaux, et de favoriser l’innovation responsable. Voir article 1.

À qui s’applique le règlement sur l’IA ?

Le règlement s’applique aux fournisseurs, utilisateurs, importateurs et distributeurs de systèmes d’IA dans l’UE, ainsi qu’à ceux opérant en dehors de l’UE si les systèmes sont utilisés sur le territoire européen. Voir article 2.

Quelles sont les définitions clés données dans ce règlement ?

L’article 3 fournit des définitions clés telles que ‘système d’IA’, ‘modèle fondamental’, ‘fournisseur’, ‘utilisateur’, entre autres, essentielles pour comprendre les obligations spécifiques. Voir article 3.

Quels systèmes d’IA sont interdits ?

Les pratiques interdites incluent les systèmes d’IA manipulant le comportement humain de manière subliminale, exploitant des groupes vulnérables, notant socialement les individus ou utilisant la reconnaissance biométrique non autorisée. Voir article 5.

Comment les systèmes d’IA sont-ils classés par niveau de risque ?

Les systèmes d’IA sont classés selon quatre niveaux de risque : inacceptable (interdits), élevé (réglementé), limité (transparence exigée), et minimal (non réglementé). Voir article 6.

Quelles obligations pour les systèmes d’IA à haut risque ?

Les systèmes à haut risque doivent répondre à des exigences strictes concernant la gestion des risques, la qualité des données, la documentation, la transparence, la surveillance humaine, etc. Voir article 8.

Quelles sont les exigences de qualité des données ?

Les données utilisées dans les systèmes d’IA à haut risque doivent être pertinentes, représentatives, exemptes de biais et suffisamment complètes. Voir article 10.

Quel est le rôle du contrôle humain dans l’utilisation de l’IA ?

Le règlement impose une supervision humaine appropriée afin de prévenir les risques pour la santé, la sécurité et les droits fondamentaux. Voir article 14.

Quelles sont les obligations de transparence pour les IA ?

Les utilisateurs doivent être informés lorsqu’ils interagissent avec un système d’IA, notamment en cas de systèmes générant des contenus ou d’analyse émotionnelle. Voir article 13.

Quels sont les droits des utilisateurs ?

Les citoyens peuvent participer au débat via des forums consultatifs et bénéficier de garanties juridiques contre les usages abusifs des IA. Voir article 68.

Qu’est-ce qu’un bac à sable réglementaire pour l’IA ?

Les bacs à sable réglementaires permettent de tester les systèmes d’IA innovants dans un cadre supervisé, en collaboration avec les autorités nationales. Voir article 57.

Quelles sont les obligations des fournisseurs d’IA ?

Les fournisseurs sont responsables de la conformité de leurs systèmes d’IA, notamment à travers une évaluation des risques, la documentation technique et la mise à jour des systèmes. Voir article 16.

Quel est le rôle du Bureau de l’IA ?

Le Bureau européen de l’IA, sous l’égide de la Commission européenne, supervise l’application uniforme du règlement et fournit des orientations techniques. Voir article 64.

Comment sont assurées la surveillance et l’évaluation après mise sur le marché ?

Les fournisseurs doivent assurer la surveillance continue après la mise sur le marché afin de corriger les éventuelles failles ou incidents. Voir article 72.

Quels modèles d’IA sont considérés à usage général ?

Les modèles d’IA à usage général sont ceux pouvant être appliqués à de nombreux cas d’utilisation. Des obligations spécifiques s’appliquent à ceux présentant des risques systémiques. Voir article 51.

Les systèmes d’IA peuvent-ils être testés sur des personnes ?

Oui, des essais de systèmes d’IA sur des personnes sont autorisés sous conditions strictes de transparence, de sécurité et de consentement éclairé. Voir article 60.

Comment l’UE assure-t-elle la gouvernance de l’IA ?

La gouvernance est assurée par un comité d’experts, un bureau européen de l’IA, des autorités nationales et des mécanismes de coopération. Voir article 66.

Quelles sanctions sont prévues en cas de non-respect ?

Le non-respect des dispositions peut entraîner des amendes pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Voir article 99.

Comment les normes harmonisées sont-elles utilisées ?

Les normes harmonisées permettent aux entreprises de démontrer la conformité de leurs systèmes à certaines exigences réglementaires. Voir article 40.

Comment se déroule la procédure d’évaluation de conformité ?

L’évaluation de conformité peut être faite par autoévaluation ou par des organismes notifiés selon le type et le niveau de risque du système. Voir article 43.

Comment s’articule le marquage CE pour l’IA ?

Le marquage CE indique qu’un système d’IA respecte les exigences du règlement et a passé les procédures de conformité requises. Voir article 48.

Quelle est la place des codes de bonne conduite ?

Les codes de conduite sont encouragés pour aider à l’application volontaire de bonnes pratiques, notamment dans les PME. Voir article 56.

Les petites entreprises bénéficient-elles d’exemptions ?

Oui, des mesures spécifiques sont prévues pour soutenir les PME, comme un accès facilité aux bacs à sable réglementaires. Voir article 62.

Comment les citoyens peuvent-ils signaler des risques liés à l’IA ?

Les citoyens peuvent signaler des incidents graves ou risques via des mécanismes officiels mis en place par les États membres. Voir article 73.