Introduction
L’IA Act n’est pas qu’une simple déclaration de principes. Ce n’est pas non plus un guide de bonnes pratiques. C’est une réglementation contraignante. Elle est assortie de sanctions dissuasives en cas de non-respect. Ces sanctions sont essentielles pour garantir l’effectivité de la loi. Elles visent aussi à responsabiliser les acteurs de l’IA.
Ce chapitre explore en détail le régime de sanctions prévu par l’IA Act. Nous analyserons les différents types d’infractions et les amendes administratives applicables. Nous verrons aussi les sanctions non pécuniaires. Les facteurs aggravants et atténuants pris en compte par les autorités de contrôle seront évoqués. Nous aborderons également les procédures de plainte et de recours. Enfin, nous verrons le rôle des autorités nationales et européennes dans l’application des sanctions.
Types d’Infractions
L’IA Act distingue trois principaux types d’infractions. Ils correspondent à différents niveaux de gravité et entraînent des sanctions distinctes.
Non-respect des interdictions (risque inacceptable)
La violation des interdictions relatives aux pratiques d’IA prohibées constitue l’infraction la plus grave. Il s’agit par exemple de la notation sociale ou de la manipulation subliminale.
Non-respect des exigences pour les systèmes à haut risque
Le non-respect des exigences applicables aux systèmes d’IA à haut risque constitue le deuxième type d’infraction le plus grave. Il s’agit par exemple des obligations en matière de gestion des risques, de gouvernance des données, de documentation technique, de transparence ou de contrôle humain.
Non-respect des obligations de transparence
Troisième type d’infraction : la violation des obligations de transparence pour les systèmes d’IA à risque limité. Par exemple, l’obligation d’informer les utilisateurs qu’ils interagissent avec une IA . Sont aussi concernées les exigences spécifiques pour les modèles d’IA à usage général, telles que les obligations de documentation et de respect du droit d’auteur . Le non-respect des exigences d’information en cas d’utilisation d’un système de reconnaissance des émotions est aussi une infraction.
Fourniture d’informations incorrectes ou trompeuses
La fourniture d’informations incorrectes, incomplètes ou trompeuses aux autorités compétentes ou aux organismes notifiés constitue une infraction spécifique. Ceci dans le cadre des procédures d’évaluation de la conformité ou d’enregistrement. Elle est distincte des autres types d’infractions.
Analyse approfondie : Cette classification des infractions reflète l’approche basée sur les risques de l’IA Act. Les pratiques les plus dangereuses pour les droits fondamentaux et la sécurité des personnes sont sanctionnées plus sévèrement. Que les manquements aux obligations de transparence ou d’information.
Amendes Administratives
L’IA Act prévoit des amendes administratives dissuasives pour les infractions à ses dispositions. Le montant de ces amendes varie en fonction du type d’infraction et de la taille de l’entreprise.
Jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires annuel mondial pour les infractions les plus graves
Pour les infractions relatives aux pratiques d’IA prohibées, l’amende peut aller jusqu’à 35 millions d’euros. Pour les entreprises, elle peut atteindre 7% du chiffre d’affaires annuel mondial total de l’exercice précédent. Le montant le plus élevé étant retenu. À partir du 2 août 2027, ceci s’appliquera également aux infractions aux règles relatives aux données interdites pour l’entraînement des systèmes d’IA (source).
Jusqu’à 15 millions d’euros ou 3% du chiffre d’affaires pour le non-respect des exigences des systèmes à haut risque
Pour le non-respect des autres exigences de l’IA Act, l’amende peut aller jusqu’à 15 millions d’euros. Pour les entreprises, jusqu’à 3% du chiffre d’affaires annuel mondial total de l’exercice précédent. Le montant le plus élevé étant retenu. Ceci concerne en particulier les exigences applicables aux systèmes d’IA à haut risque (source).
Jusqu’à 7,5 millions d’euros ou 1% du chiffre d’affaires pour les autres infractions
Pour les infractions relatives aux obligations de transparence, l’amende peut atteindre 7,5 millions d’euros. Pour les entreprises, jusqu’à 1% du chiffre d’affaires annuel mondial total de l’exercice précédent. Le montant le plus élevé étant retenu. Ceci concerne aussi les exigences spécifiques pour les modèles d’IA à usage général et la fourniture d’informations incorrectes ou trompeuses (source).
Prise en compte du chiffre d’affaires mondial et du montant le plus élevé
Important : les amendes sont calculées en pourcentage du chiffre d’affaires annuel mondial total de l’entreprise. Pas seulement sur son chiffre d’affaires sur le marché européen. De plus, c’est toujours le montant le plus élevé entre l’amende forfaitaire et l’amende proportionnelle qui est retenu.
Analyse approfondie : Le régime d’amendes administratives de l’IA Act est particulièrement dissuasif. Notamment pour les grandes entreprises multinationales. Il vise à inciter les acteurs de l’IA à prendre la conformité très au sérieux. Et à mettre en place des mesures robustes pour respecter les exigences de la loi.
Sanctions Non Pécuniaires
Outre les amendes administratives, l’IA Act prévoit aussi des sanctions non pécuniaires. Les autorités de contrôle peuvent les imposer en fonction de la nature et de la gravité de l’infraction (source).
Retrait du marché ou rappel des systèmes non conformes
Les autorités de contrôle peuvent ordonner le retrait du marché ou le rappel des systèmes d’IA non conformes. Ceci afin de protéger les utilisateurs et de prévenir les dommages potentiels.
Exemple concret : Un système d’IA à haut risque est mis sur le marché. Il n’a pas fait l’objet d’une évaluation de la conformité appropriée. L’autorité de contrôle peut alors exiger du fournisseur qu’il retire le système du marché. Et qu’il rappelle les exemplaires déjà vendus.
Mises en demeure et injonctions
Les autorités de contrôle peuvent adresser des mises en demeure aux fournisseurs ou aux utilisateurs. Elles leur enjoignent de mettre fin à l’infraction et de se conformer aux exigences. Ceci dans un délai déterminé. Elles peuvent aussi imposer des injonctions pour interdire ou restreindre l’utilisation d’un système d’IA non conforme.
Analyse approfondie : Les sanctions non pécuniaires permettent aux autorités de contrôle d’agir rapidement et efficacement. Ceci pour faire cesser les infractions et prévenir les dommages. Sans attendre l’issue d’une procédure d’amende administrative.
Avertissements
En cas d’infractions mineures ou de première infraction, les autorités de contrôle peuvent adresser un simple avertissement. Celui-ci invite le contrevenant à se conformer à la loi. Il l’informe aussi des sanctions encourues en cas de récidive.
Conseil pratique : Même si un avertissement peut sembler anodin, ne le négligez pas. C’est un signal clair que votre organisation est dans le viseur des autorités de contrôle. Vous devez prendre des mesures correctives sans tarder pour éviter des sanctions plus sévères.
Sanctions Spécifiques aux Fournisseurs de GPAI
Les fournisseurs de modèles d’IA à usage général (GPAI) qui ne respectent pas leurs obligations s’exposent à des sanctions particulières. La Commission européenne peut imposer des amendes. Celles-ci vont jusqu’à 3% du chiffre d’affaires annuel mondial total de l’exercice précédent du fournisseur, ou 15 millions d’euros. Le montant le plus élevé étant retenu.
Important : ces sanctions s’appliquent même si le GPAI n’est pas intégré dans un système d’IA à haut risque. La Commission peut aussi prendre en compte le respect par le fournisseur d’un code de conduite approuvé. Ceci comme un facteur atténuant lors de la détermination du montant de l’amende.
Facteurs Aggravants et Atténuants
Les autorités de contrôle tiennent compte de facteurs aggravants et atténuants. Ceci pour déterminer le type et le montant des sanctions. Elles adaptent ainsi la sanction à la situation spécifique de chaque cas (source).
Avantages financiers obtenus
Les autorités de contrôle prennent en compte les avantages financiers tirés de l’infraction par le contrevenant. Directement ou indirectement. Plus ces avantages sont importants, plus la sanction risque d’être lourde.
Degré de coopération avec les autorités
La coopération du contrevenant avec les autorités de contrôle est prise en compte comme un facteur atténuant. Tant pendant l’enquête que lors de la mise en œuvre des mesures correctives.
Caractère intentionnel ou non de la violation
Le caractère intentionnel ou non de l’infraction est un élément important. Une violation délibérée et répétée sera sanctionnée plus sévèrement. Qu’une infraction commise par négligence ou par manque de connaissance de la réglementation.
Mesures prises pour atténuer le préjudice
Les mesures prises par le contrevenant pour atténuer le préjudice sont prises en compte. Comme un facteur atténuant. Cela peut inclure, par exemple, des mesures d’indemnisation, de rectification des données ou de retrait du marché.
Analyse approfondie : La prise en compte de ces facteurs permet aux autorités de contrôle d’individualiser les sanctions. Et de les adapter à la gravité de l’infraction, au comportement du contrevenant et aux circonstances spécifiques.
Adaptations pour les PME et les Startups
L’IA Act prévoit des adaptations spécifiques pour les petites et moyennes entreprises (PME) et les startups. Afin de ne pas les pénaliser de manière disproportionnée par rapport aux grandes entreprises.
Plafonds d’amendes réduits
Pour les PME, les plafonds d’amendes administratives sont réduits. Par exemple, pour les infractions les plus graves, une PME risque une amende maximale de 3% de son chiffre d’affaires annuel mondial. Contre 7% pour une grande entreprise.
Prise en compte de la viabilité économique
Lorsqu’elles infligent des amendes à des PME ou à des startups, les autorités de contrôle doivent tenir compte de leur viabilité économique. Elles doivent éviter de les mettre en difficulté financière de manière disproportionnée.
Conseil pratique : Si vous êtes une PME ou une startup, faites valoir votre situation spécifique auprès des autorités de contrôle. Fournissez-leur des informations sur votre chiffre d’affaires, votre effectif et votre situation financière. Ceci afin qu’elles puissent adapter la sanction en conséquence.
Droit de Recours et Plaintes
L’IA Act garantit aux personnes concernées des droits de recours et de plaintes. En cas de violation de leurs droits par un système d’IA.
Possibilité de contester les décisions des autorités
Les entreprises ou les personnes physiques visées par une sanction administrative ont le droit de contester cette décision. Devant les juridictions compétentes.
Droit de déposer plainte pour les citoyens
Toute personne physique a le droit de déposer une plainte auprès d’une autorité de contrôle. Si elle estime qu’un système d’IA viole ses droits au regard de l’IA Act. L’autorité de contrôle est tenue d’examiner la plainte, de mener une enquête si nécessaire. Et d’informer le plaignant des suites données.
Analyse approfondie : Le droit de plainte est un mécanisme essentiel pour garantir l’effectivité de l’IA Act. Il permet aux citoyens de faire valoir leurs droits face aux abus potentiels de l’IA. Il contribue à la responsabilisation des acteurs de l’IA et à la protection des personnes concernées.
Explications pour les décisions basées sur des systèmes à haut risque
Une personne est concernée par une décision prise par un système d’IA à haut risque. Cette décision produit des effets juridiques à son égard ou l’affecte de manière significative. Elle a alors le droit d’obtenir des explications claires et compréhensibles. Sur les motifs de cette décision et sur le rôle joué par le système d’IA dans le processus décisionnel.
Exemple concret : Une personne se voit refuser un crédit sur la base d’une évaluation effectuée par un système d’IA. Elle a le droit de savoir pourquoi cette décision a été prise. Et quels sont les facteurs qui ont été pris en compte par le système.
Surveillance et Contrôle
L’application effective des sanctions prévues par l’IA Act repose sur un dispositif de surveillance et de contrôle. Celui-ci implique à la fois les autorités nationales compétentes et la Commission européenne.
Autorités de surveillance du marché
Chaque État membre doit désigner une ou plusieurs autorités nationales de surveillance du marché. Celles-ci sont chargées de contrôler l’application de l’IA Act sur leur territoire. Ces autorités peuvent être des autorités existantes, comme les autorités de protection des données. Ou de nouvelles autorités créées spécifiquement pour cette mission.
Les autorités de surveillance du marché disposent de pouvoirs étendus. Elles peuvent mener des enquêtes et accéder aux informations nécessaires (y compris le code source sous conditions). De plus, elles ont le pouvoir d’ordonner des mesures correctives et d’infliger des sanctions. Enfin, la gestion des bacs à sable réglementaires pour l’IA fait également partie de leurs missions.
AI Office
Au niveau européen, la Commission européenne a mis en place un Bureau de l’IA (AI Office). Celui-ci est chargé de coordonner l’action des autorités nationales. Et de veiller à une application harmonisée de l’IA Act dans l’ensemble de l’Union.
Le Bureau de l’IA a notamment pour mission de :
- Élaborer des codes de conduite et des lignes directrices pour l’application de l’IA Act.
- Conseiller la Commission sur les évolutions technologiques et réglementaires dans le domaine de l’IA.
- Coopérer avec les autorités nationales et les assister dans leurs missions de surveillance et de contrôle.
- Gérer la base de données européenne des systèmes d’IA à haut risque.
- Surveiller l’application des règles relatives aux modèles d’IA à usage général. Y compris en menant des évaluations et en demandant des informations aux fournisseurs.
Analyse approfondie : La mise en place d’un Bureau de l’IA au niveau européen est une innovation majeure de l’IA Act. Elle vise à garantir une application cohérente et efficace de la réglementation dans l’ensemble de l’Union. À mutualiser les expertises et à anticiper les évolutions futures de l’IA.
Signalement d’incidents
Les fournisseurs de systèmes d’IA à haut risque ont l’obligation de signaler sans retard injustifié aux autorités de surveillance du marché tout incident grave. Ou tout dysfonctionnement de leur système susceptible de constituer une violation des obligations découlant de l’IA Act. Ou d’entraîner un risque pour les droits fondamentaux, la santé ou la sécurité des personnes.
Conseil pratique : Mettez en place des procédures internes pour détecter, signaler et gérer les incidents impliquant vos systèmes d’IA. Désignez un point de contact responsable de la communication avec les autorités de surveillance du marché.
Coopération
En cas d’enquête transfrontalière ou d’incident affectant plusieurs États membres, les autorités de surveillance du marché sont tenues de coopérer. Entre elles et avec la Commission européenne. Cette coopération peut prendre la forme d’échanges d’informations, d’enquêtes conjointes ou d’une assistance mutuelle.
Conclusion
Le régime de sanctions de l’IA Act est un élément essentiel du dispositif. Il vise à garantir une utilisation sûre, éthique et responsable de l’intelligence artificielle en Europe. Les sanctions prévues sont dissuasives, tant sur le plan financier que sur le plan réputationnel. Elles couvrent un large éventail d’infractions, des plus graves aux plus mineures.
La mise en conformité avec l’IA Act doit donc être une priorité absolue pour toutes les organisations. Celles qui développent, déploient ou utilisent des systèmes d’IA, en particulier ceux à haut risque. Il ne s’agit pas seulement d’éviter des sanctions. Mais aussi de bâtir une relation de confiance avec les utilisateurs, les clients et les partenaires. Et de contribuer à l’émergence d’une IA européenne respectueuse des droits fondamentaux et des valeurs démocratiques.
Dans les prochains chapitres, nous explorerons plus en détail les rôles et responsabilités des différents acteurs. De la chaîne de valeur de l’IA. Nous verrons aussi les enjeux éthiques et sociétaux de cette technologie en pleine expansion.
Sommaire
Chapitre 1 : Comprendre l’IA Act : Fondements et Objectifs
- Pourquoi une réglementation de l’IA ?
- Genèse de l’IA Act
- Objectifs et principes fondamentaux
- Champ d’application
- Définitions clés
- Approche basée sur les risques
Chapitre 2 : Les Risques Liés à l’Intelligence Artificielle : Un Enjeu Majeur
- Biais algorithmiques et discrimination
- Protection des données personnelles et vie privée
- Manipulation et désinformation
- Sécurité et robustesse des systèmes d’IA
- Impact sur l’emploi et le marché du travail
- Responsabilité et transparence
- Autres risques éthiques et sociétaux
Chapitre 3 : Classification des Risques selon l’IA Act : Une Approche Graduée
- Risque Inacceptable : Les Pratiques Interdites
- Haut Risque : Exigences Strictes pour les Systèmes Sensibles
- Risque Limité : Obligations de Transparence
- Risque Minimal : Pas d’Obligations Spécifiques
Chapitre 4 : Exigences Détaillées pour les Systèmes d’IA à Haut Risque
- Système de Gestion des Risques
- Gouvernance des Données
- Documentation Technique
- Tenue de Registres (Logging)
- Transparence et Information des Utilisateurs
- Contrôle Humain
- Exactitude, Robustesse et Cybersécurité
- Évaluation de la Conformité
- Déclaration de Conformité et Marquage CE
- Enregistrement dans la Base de Données de l’UE
Chapitre 5 : Étapes Pratiques pour se Conformer à l’IA Act
- Cartographie des Systèmes d’IA
- Évaluation des Risques
- Mise en Place d’un Système de Gestion des Risques
- Gouvernance des Données
- Documentation Technique
- Mise en Place du Contrôle Humain
- Évaluation de la Conformité
- Déclaration de Conformité et Marquage CE
- Enregistrement des Systèmes à Haut Risque
- Formation et Sensibilisation des Équipes
- Surveillance et Mise à Jour
Chapitre 6 : Spécificités pour Différents Types d’IA
- IA SaaS (ex. ChatGPT)
- Systèmes d’IA Développés en Interne
- Systèmes d’IA Fournis par un Tiers
- Agents IA Autonomes
- Modèles d’IA à Usage Général (GPAI)
Chapitre 7 : Sanctions en Cas de Non-Conformité avec l’IA Act
- Types d’Infractions
- Amendes Administratives
- Sanctions Non Pécuniaires
- Sanctions Spécifiques aux Fournisseurs de GPAI
- Facteurs Aggravants et Atténuants
- Adaptations pour les PME et les Startups
- Droit de Recours et Plaintes
- Surveillance et Contrôle
Chapitre 8 : Rôles et Responsabilités dans la Chaîne de Valeur de l’IA
- Fournisseurs de Systèmes d’IA
- intégrateurs de Systèmes d’IA
- Importateurs
- Distributeurs
- Mandataires
- Notion de Chaîne de Valeur et Interactions entre les Acteurs
Chapitre 9 : Rôle des États Membres et des Autorités de Contrôle
- Désignation des Autorités Compétentes
- Surveillance du Marché
- Mise en Place de Bacs à Sable Réglementaires
- Coopération avec les Institutions Européennes
- Sensibilisation, Formation et Soutien aux PME
- Autres Acteurs Impliqués
Chapitre 10 : Analyse d’Impact sur les Droits Fondamentaux
- Obligation pour les intégrateurs Publics et Certains Acteurs Privés
- Objectifs de l’Analyse d’Impact
- Contenu de l’Analyse d’Impact
- Procédure et Délais
- Liens avec le RGPD
- Suites de l’Analyse d’Impact
Chapitre 11 : Modèles d’IA à Usage Général (GPAI) et Risques Systémiques : Une Analyse Approfondie
- Définition des Modèles GPAI
- Obligations pour les Fournisseurs de GPAI
- GPAI Présentant un Risque Systémique
- Codes de Conduite pour les GPAI
- Rôle du Bureau de l’IA (AI Office)
- Enjeux de Conformité pour les Fournisseurs et les intégrateurs de GPAI
- Défis et Opportunités pour l’Innovation en IA