Introduction
Les chapitres précédents ont détaillé les exigences substantielles de l’IA Act, en particulier pour les systèmes d’IA à haut risque. Il est maintenant temps d’aborder la question cruciale de la mise en œuvre pratique de cette réglementation. Comment les entreprises peuvent-elles concrètement se conformer à l’IA Act ? Quelles sont les étapes à suivre pour s’assurer que leurs systèmes d’IA respectent les nouvelles exigences ?
Ce chapitre s’appuie sur les meilleures pratiques en matière de gestion des risques et de conformité réglementaire, adaptées au contexte spécifique de l’IA. En suivant ces étapes, vous serez en mesure de non seulement respecter les exigences légales, mais aussi de bâtir une culture de l’IA responsable et de renforcer la confiance de vos clients et partenaires.
Cartographie des Systèmes d’IA
La première étape cruciale de la mise en conformité consiste à identifier et à cartographier tous les systèmes d’IA utilisés ou développés par votre organisation. Cette cartographie doit être exhaustive et couvrir l’ensemble des activités de l’entreprise (source).
Identifier tous les systèmes d’IA utilisés ou en développement
Il est essentiel d’identifier non seulement les systèmes d’IA évidents, tels que les chatbots ou les algorithmes de recommandation, mais aussi les systèmes moins visibles qui intègrent des composants d’IA, comme certains logiciels de gestion des ressources humaines, de sécurité informatique ou d’analyse de données.
Conseil pratique : Impliquez l’ensemble des départements de votre organisation dans cet exercice d’identification, afin de ne négliger aucun système d’IA. Sensibilisez les équipes aux enjeux de l’IA Act et à la nécessité de déclarer les systèmes d’IA qu’ils utilisent ou développent.
Recueillir des informations sur chaque système
Pour chaque système d’IA identifié, collectez des informations de base telles que :
- Le nom du système et une brève description de sa fonction.
- Le département ou l’entité responsable du système.
- Le fournisseur du système (interne ou externe).
- La finalité du système et son contexte d’utilisation.
- Les données utilisées par le système (types, sources, volume).
- Les principales caractéristiques techniques du système (algorithmes, architecture).
Analyse approfondie : Cette étape de collecte d’informations est cruciale pour la suite du processus de mise en conformité. Elle permet de constituer une base de connaissances solide sur les systèmes d’IA de l’organisation, qui sera utilisée pour l’évaluation des risques, la classification des systèmes et la définition des mesures de conformité appropriées.
Mettre en place un inventaire des systèmes d’IA
Centralisez les informations collectées dans un inventaire des systèmes d’IA. Cet inventaire doit être un document évolutif, mis à jour régulièrement pour refléter l’évolution du parc de systèmes d’IA de l’organisation.
Exemple concret : L’inventaire peut prendre la forme d’un tableau, avec une ligne par système d’IA et des colonnes pour chaque type d’information collectée (nom du système, description, fournisseur, finalité, données utilisées, etc.). Des outils de gestion des actifs informatiques ou des solutions dédiées à la gouvernance de l’IA peuvent également être utilisés.
Évaluation des Risques
Une fois vos systèmes d’IA cartographiés, l’étape suivante consiste à évaluer les risques associés à chaque système, afin de déterminer s’ils entrent dans la catégorie des systèmes à haut risque selon l’IA Act.
Classer chaque système selon son niveau de risque
En vous appuyant sur la classification des risques présentée au chapitre 3, déterminez si chaque système d’IA identifié est :
- Interdit (risque inacceptable)
- À haut risque
- À risque limité
- À risque minimal
Conseil pratique : Utilisez les critères définis à l’annexe III de l’IA Act et, en cas de doute, privilégiez une classification plus stricte. N’hésitez pas à solliciter l’avis d’experts juridiques ou techniques pour vous aider dans cette classification.
Analyser l’impact potentiel sur les droits fondamentaux
Pour les systèmes susceptibles d’être à haut risque, menez une analyse plus approfondie de leur impact potentiel sur les droits fondamentaux, tels que la non-discrimination, la protection de la vie privée, la liberté d’expression, etc.
Analyse approfondie : Cette analyse doit prendre en compte non seulement l’impact direct du système sur les individus, mais aussi les effets indirects et systémiques potentiels. Par exemple, un système de notation des étudiants apparemment anodin pourrait, s’il est mal conçu, contribuer à reproduire des inégalités sociales ou à limiter la diversité dans l’enseignement supérieur.
Identifier les cas d’usage à haut risque
Portez une attention particulière aux cas d’usage identifiés comme à haut risque à l’annexe III de l’IA Act, tels que l’utilisation de l’IA dans le recrutement, l’éducation, les services financiers, le maintien de l’ordre ou la gestion des migrations.
Exemple concret : Si votre organisation utilise un algorithme pour présélectionner les CV des candidats à un emploi, ce système sera très probablement considéré comme à haut risque et devra donc respecter l’ensemble des exigences décrites au chapitre 4.
Mise en Place d’un Système de Gestion des Risques
Pour les systèmes d’IA classés comme à haut risque, l’IA Act exige la mise en place d’un système de gestion des risques robuste et documenté (source).
Définir des processus d’identification et d’évaluation des risques
Établissez des processus clairs pour identifier, analyser, estimer et évaluer les risques associés à vos systèmes d’IA à haut risque, tout au long de leur cycle de vie. Ces processus doivent être intégrés à votre système global de gestion des risques, le cas échéant.
Conseil pratique : Impliquez des profils variés dans le processus d’identification et d’évaluation des risques (juristes, éthiciens, experts techniques, utilisateurs finaux), afin de bénéficier d’une vision exhaustive des risques potentiels.
Mettre en œuvre des mesures d’atténuation
Pour chaque risque identifié, définissez et mettez en œuvre des mesures d’atténuation appropriées, telles que celles décrites au chapitre 4 (gouvernance des données, transparence, contrôle humain, etc.).
Analyse approfondie : Le choix des mesures d’atténuation doit être guidé par une approche basée sur les risques, en tenant compte de la gravité et de la probabilité de chaque risque, ainsi que de l’état de l’art en matière de sécurité et d’éthique de l’IA.
Documenter le système de gestion des risques
L’ensemble du système de gestion des risques doit être documenté de manière précise et exhaustive. Cette documentation doit inclure la description des processus d’identification et d’évaluation des risques, les mesures d’atténuation mises en place, les résultats des tests et des évaluations, ainsi que les procédures de surveillance et de mise à jour du système.
Exemple concret : Vous pouvez utiliser un modèle de document de gestion des risques, qui liste pour chaque risque identifié : sa description, sa gravité, sa probabilité, les mesures d’atténuation associées, les responsables de la mise en œuvre de ces mesures, et les indicateurs de suivi de leur efficacité.
Gouvernance des Données
La qualité, la sécurité et la légalité des données utilisées par les systèmes d’IA à haut risque sont cruciales pour garantir leur fiabilité et leur conformité avec l’IA Act. La mise en place d’une gouvernance des données robuste est donc une étape essentielle.
Établir des politiques de gestion des données
Définissez des politiques claires pour la collecte, le traitement, le stockage, la sécurisation et la suppression des données utilisées par vos systèmes d’IA. Ces politiques doivent être conformes au RGPD et aux exigences spécifiques de l’IA Act en matière de gouvernance des données .
Conseil pratique : Nommez un responsable de la gouvernance des données, chargé de superviser la mise en œuvre de ces politiques et de s’assurer de leur respect dans l’ensemble de l’organisation.
Garantir la qualité et la pertinence des données
Mettez en place des processus rigoureux pour garantir la qualité, la pertinence, la représentativité et l’absence de biais des données utilisées pour l’entraînement, la validation et le test de vos systèmes d’IA à haut risque.
Analyse approfondie : La qualité des données est un enjeu majeur pour la performance et l’équité des systèmes d’IA. Des données de mauvaise qualité ou biaisées peuvent conduire à des résultats erronés, discriminatoires ou dangereux. Il est donc crucial d’investir dans des processus de validation et de nettoyage des données, et de s’assurer de leur représentativité par rapport à la population cible du système d’IA.
Mettre en place des mesures de sécurité et de confidentialité
Assurez-vous que des mesures de sécurité techniques et organisationnelles appropriées sont en place pour protéger les données contre les accès non autorisés, les fuites, les altérations et les destructions, conformément au RGPD et aux exigences de cybersécurité de l’IA Act.
Exemple concret : Mettez en place des contrôles d’accès stricts aux données, chiffrez les données sensibles, anonymisez ou pseudonymisez les données lorsque cela est possible, et réalisez régulièrement des audits de sécurité.
Documentation Technique
La constitution d’une documentation technique complète et à jour est une obligation essentielle pour les fournisseurs de systèmes d’IA à haut risque.
Rédiger une documentation complète pour chaque système à haut risque
Pour chaque système d’IA à haut risque, rédigez une documentation technique conforme aux exigences de l’annexe IV de l’IA Act (voir 4.3). Cette documentation doit être claire, exhaustive et compréhensible pour les autorités compétentes.
Conseil pratique : Commencez à rédiger la documentation technique dès les premières phases de développement du système d’IA. Cela vous permettra de vérifier au fur et à mesure que vous respectez bien les exigences de l’IA Act et de ne pas accumuler de retard dans la constitution du dossier.
Inclure les informations requises par l’IA Act
Assurez-vous que votre documentation technique contient bien toutes les informations requises, notamment :
- La description du système, de sa finalité et de son fonctionnement
- L’architecture technique et les algorithmes utilisés
- Les données d’entraînement, de validation et de test
- Les résultats des évaluations de performance et de conformité
- Les mesures de gestion des risques, de transparence et de contrôle humain
- Les instructions d’utilisation
Analyse approfondie : La documentation technique n’est pas qu’une simple formalité administrative. C’est un élément central de la démonstration de conformité de votre système d’IA. Elle doit permettre aux autorités compétentes de comprendre le fonctionnement du système, d’évaluer ses risques et de vérifier qu’il respecte bien les exigences de l’IA Act.
Mettre à jour la documentation régulièrement
La documentation technique doit être tenue à jour tout au long du cycle de vie du système d’IA. Toute modification substantielle du système ou de son environnement d’utilisation doit être reflétée dans la documentation.
Exemple concret : Si vous mettez à jour l’algorithme de votre système d’IA pour améliorer ses performances, vous devez mettre à jour la documentation technique pour décrire la nouvelle version de l’algorithme, les données utilisées pour son entraînement, et les résultats des tests effectués pour valider ses performances et sa conformité.
Mise en Place du Contrôle Humain
L’IA Act exige que les systèmes d’IA à haut risque soient conçus de manière à permettre un contrôle humain effectif. La mise en place de ce contrôle est une étape cruciale de la mise en conformité.
Définir les rôles et les responsabilités
Définissez clairement les rôles et les responsabilités des personnes chargées du contrôle humain de vos systèmes d’IA. Précisez leurs missions, leurs prérogatives et leurs interactions avec le système.
Conseil pratique : Formalisez ces rôles et responsabilités dans des fiches de poste ou des procédures internes. Assurez-vous que les personnes concernées comprennent bien leurs missions et disposent des moyens nécessaires pour les accomplir.
Former les personnes chargées du contrôle
Assurez-vous que les personnes chargées du contrôle humain disposent des compétences et de la formation nécessaires pour exercer leur rôle efficacement. Elles doivent notamment avoir une bonne compréhension du fonctionnement du système d’IA, de ses limites et des risques associés à son utilisation.
Analyse approfondie : Le contrôle humain ne doit pas être une simple case à cocher, mais un véritable mécanisme de supervision et d’intervention, capable de prévenir ou de corriger les erreurs et les dérives du système d’IA. La formation des personnes chargées de ce contrôle est donc cruciale pour garantir son efficacité.
Mettre en place des procédures d’intervention
Définissez des procédures claires d’intervention en cas de détection d’un risque, d’une erreur ou d’un comportement anormal du système d’IA. Ces procédures doivent permettre aux personnes chargées du contrôle humain de prendre rapidement les mesures appropriées, comme la suspension du système, la correction des données d’entrée ou la modification des paramètres.
Exemple concret : Pour un système d’IA utilisé dans le domaine médical, les procédures d’intervention pourraient prévoir la possibilité pour le médecin de valider ou d’invalider les résultats fournis par le système, de demander une analyse complémentaire, ou de signaler un dysfonctionnement au fournisseur.
Évaluation de la Conformité
Avant de mettre un système d’IA à haut risque sur le marché, vous devez effectuer une évaluation de la conformité pour démontrer qu’il respecte bien les exigences de l’IA Act (source).
Réaliser une auto-évaluation ou faire appel à un organisme notifié
Selon le type de système d’IA et la législation applicable, vous pouvez soit réaliser vous-même l’évaluation de la conformité (contrôle interne), soit faire appel à un organisme notifié.
Conseil pratique : Si vous optez pour le contrôle interne, assurez-vous de disposer des compétences et des ressources nécessaires pour mener une évaluation rigoureuse et impartiale. Documentez soigneusement l’ensemble du processus d’évaluation et conservez les preuves de conformité.
Préparer la documentation nécessaire
Rassemblez toute la documentation nécessaire pour l’évaluation de la conformité, notamment la documentation technique, les rapports de tests et d’évaluation, les analyses de risques, et les preuves de la mise en place des mesures de conformité (gouvernance des données, transparence, contrôle humain, etc.).
Analyse approfondie : L’évaluation de la conformité est une étape cruciale pour garantir la sécurité et la légalité de vos systèmes d’IA à haut risque. Elle vous permet de vérifier que vous avez bien mis en place toutes les mesures requises par l’IA Act et que votre système est prêt à être mis sur le marché.
Déclaration de Conformité et Marquage CE
Une fois l’évaluation de la conformité effectuée avec succès, vous devez établir une déclaration UE de conformité et apposer le marquage CE sur votre système d’IA à haut risque (ou sur sa documentation d’accompagnement).
Rédiger la déclaration de conformité
La déclaration UE de conformité doit respecter le modèle fourni à l’annexe V de l’IA Act. Elle doit notamment inclure (Annexe V) :
- L’identification du système d’IA et du fournisseur
- Une déclaration attestant que le système d’IA est conforme aux exigences de l’IA Act
- Les références des normes harmonisées ou des spécifications communes appliquées, le cas échéant
- L’identification de l’organisme notifié ayant participé à l’évaluation de la conformité, le cas échéant
- La date et la signature du fournisseur
Conseil pratique : Utilisez le modèle de déclaration fourni par l’IA Act et assurez-vous de le remplir avec exactitude et exhaustivité. Conservez une copie de la déclaration dans vos dossiers.
Apposer le marquage CE sur les systèmes conformes
Le marquage CE doit être apposé de manière visible, lisible et indélébile sur le système d’IA ou, si cela n’est pas possible, sur son emballage ou dans la documentation d’accompagnement. Il doit être suivi du numéro d’identification de l’organisme notifié, le cas échéant.
Analyse approfondie : Le marquage CE est le « passeport » qui permet à votre système d’IA à haut risque de circuler librement sur le marché européen. Il atteste de sa conformité aux exigences de l’IA Act et engage votre responsabilité en tant que fournisseur.
Enregistrement des Systèmes à Haut Risque
Avant de mettre un système d’IA à haut risque sur le marché, vous devez l’enregistrer dans la base de données de l’UE prévue à cet effet.
Fournir les informations requises à la base de données de l’UE
Vous devrez fournir un certain nombre d’informations sur votre système, notamment :
- Votre identité et vos coordonnées en tant que fournisseur
- Une copie de la déclaration UE de conformité
- Des informations sur le système d’IA (finalité, fonctionnalités, performances)
- Des informations sur le processus de développement et de validation
- Une version électronique des instructions d’utilisation
Conseil pratique : Anticipez cette étape d’enregistrement et préparez les informations nécessaires en amont. Assurez-vous que les informations fournies sont exactes et à jour.
Mettre à jour l’enregistrement en cas de modification du système
En cas de modification substantielle de votre système d’IA, vous devrez mettre à jour les informations enregistrées dans la base de données.
Analyse approfondie : L’enregistrement dans la base de données de l’UE est une obligation importante qui contribue à la transparence et à la traçabilité des systèmes d’IA à haut risque. Il permet aux autorités compétentes de surveiller le marché et de s’assurer que les systèmes mis en circulation respectent bien les exigences de l’IA Act.
Formation et Sensibilisation des Équipes
La mise en conformité avec l’IA Act ne se limite pas à des aspects techniques et juridiques. Elle implique également une dimension humaine importante, qui passe par la formation et la sensibilisation des équipes concernées.
Former les employés aux exigences de l’IA Act
Organisez des sessions de formation pour sensibiliser vos employés aux enjeux de l’IA Act et aux exigences applicables à votre organisation. Ciblez en priorité les équipes impliquées dans le développement, le déploiement ou l’utilisation de systèmes d’IA à haut risque.
Conseil pratique : Adaptez le contenu des formations aux différents publics concernés. Par exemple, les développeurs auront besoin d’une formation approfondie sur les aspects techniques de la conformité (gouvernance des données, documentation, etc.), tandis que les équipes marketing ou commerciales devront être sensibilisées aux enjeux éthiques et aux impacts potentiels de l’IA sur les utilisateurs.
Sensibiliser aux risques et aux enjeux éthiques de l’IA
Au-delà des aspects purement réglementaires, il est important de sensibiliser vos équipes aux risques et aux enjeux éthiques liés à l’utilisation de l’IA, tels que les biais algorithmiques, la protection de la vie privée, la transparence et la responsabilité.
Analyse approfondie : La formation et la sensibilisation ne doivent pas se limiter à une présentation des obligations légales, mais doivent viser à développer une véritable culture de l’IA responsable au sein de votre organisation. Il s’agit de faire comprendre à chacun que l’éthique et la conformité ne sont pas des freins à l’innovation, mais au contraire des conditions essentielles pour bâtir une IA digne de confiance.
Promouvoir une culture de l’IA responsable
Encouragez l’adoption de bonnes pratiques en matière d’éthique et de gouvernance de l’IA, au-delà des exigences minimales de l’IA Act. Vous pouvez par exemple mettre en place une charte éthique de l’IA, créer un comité d’éthique, ou organiser des ateliers de réflexion sur les impacts sociétaux de vos projets d’IA.
Exemple concret : Vous pouvez organiser des ateliers participatifs pour discuter des dilemmes éthiques potentiels liés à l’utilisation de vos systèmes d’IA, et définir collectivement des principes directeurs pour guider vos choix technologiques et vos pratiques commerciales.
Surveillance et Mise à Jour
La mise en conformité avec l’IA Act n’est pas un processus ponctuel, mais un effort continu. Vous devez mettre en place des mécanismes de surveillance pour vous assurer que vos systèmes d’IA restent conformes dans la durée, et anticiper les évolutions futures de la réglementation.
Surveiller en continu la conformité des systèmes d’IA
Mettez en place des processus de surveillance continue de vos systèmes d’IA à haut risque, afin de détecter rapidement tout écart par rapport aux exigences de conformité. Cela peut inclure des audits internes réguliers, des tests de performance et de sécurité, ou encore la mise en place d’indicateurs de suivi des risques.
Conseil pratique : Utilisez les registres d’activité (logs) de vos systèmes d’IA pour surveiller leur fonctionnement et identifier les éventuels problèmes. Mettez en place des alertes automatiques en cas de détection d’anomalies ou de comportements à risque.
Mettre à jour les systèmes en fonction des évolutions réglementaires
L’IA Act est susceptible d’évoluer dans le temps, notamment par le biais d’actes délégués ou d’actes d’exécution adoptés par la Commission européenne. Vous devez donc mettre en place une veille réglementaire pour vous tenir informé de ces évolutions et adapter vos systèmes en conséquence.
Analyse approfondie : L’IA Act est une législation complexe et encore relativement nouvelle. Il est probable que sa mise en œuvre donne lieu à des précisions, des ajustements, voire des modifications dans les années à venir. Il est donc essentiel de rester informé et de faire preuve de flexibilité pour s’adapter à ces évolutions.
Réaliser des audits réguliers
Planifiez des audits réguliers de vos systèmes d’IA à haut risque, afin de vérifier leur conformité avec l’IA Act et l’efficacité de votre système de gestion des risques. Ces audits peuvent être réalisés en interne ou par des prestataires externes spécialisés.
Exemple concret : Vous pouvez mettre en place un plan d’audit annuel, qui prévoit un audit complet de chaque système d’IA à haut risque au moins une fois par an, et des audits plus ciblés en cas de modification substantielle du système ou d’incident significatif.
Conclusion
La mise en conformité avec l’IA Act est un processus exigeant, qui nécessite une approche structurée et un engagement fort de l’ensemble de l’organisation. En suivant les étapes décrites dans ce chapitre, vous serez en mesure de naviguer avec succès dans ce nouveau paysage réglementaire et de faire de la conformité un atout pour votre entreprise.
Dans les chapitres suivants, nous approfondirons certains aspects spécifiques de l’IA Act, tels que les rôles et responsabilités des différents acteurs de la chaîne de valeur de l’IA, les exigences particulières pour certains types de systèmes d’IA, et les sanctions prévues en cas de non-conformité.
Sommaire
Chapitre 1 : Comprendre l’IA Act : Fondements et Objectifs
- Pourquoi une réglementation de l’IA ?
- Genèse de l’IA Act
- Objectifs et principes fondamentaux
- Champ d’application
- Définitions clés
- Approche basée sur les risques
Chapitre 2 : Les Risques Liés à l’Intelligence Artificielle : Un Enjeu Majeur
- Biais algorithmiques et discrimination
- Protection des données personnelles et vie privée
- Manipulation et désinformation
- Sécurité et robustesse des systèmes d’IA
- Impact sur l’emploi et le marché du travail
- Responsabilité et transparence
- Autres risques éthiques et sociétaux
Chapitre 3 : Classification des Risques selon l’IA Act : Une Approche Graduée
- Risque Inacceptable : Les Pratiques Interdites
- Haut Risque : Exigences Strictes pour les Systèmes Sensibles
- Risque Limité : Obligations de Transparence
- Risque Minimal : Pas d’Obligations Spécifiques
Chapitre 4 : Exigences Détaillées pour les Systèmes d’IA à Haut Risque
- Système de Gestion des Risques
- Gouvernance des Données
- Documentation Technique
- Tenue de Registres (Logging)
- Transparence et Information des Utilisateurs
- Contrôle Humain
- Exactitude, Robustesse et Cybersécurité
- Évaluation de la Conformité
- Déclaration de Conformité et Marquage CE
- Enregistrement dans la Base de Données de l’UE
Chapitre 5 : Étapes Pratiques pour se Conformer à l’IA Act
- Cartographie des Systèmes d’IA
- Évaluation des Risques
- Mise en Place d’un Système de Gestion des Risques
- Gouvernance des Données
- Documentation Technique
- Mise en Place du Contrôle Humain
- Évaluation de la Conformité
- Déclaration de Conformité et Marquage CE
- Enregistrement des Systèmes à Haut Risque
- Formation et Sensibilisation des Équipes
- Surveillance et Mise à Jour
Chapitre 6 : Spécificités pour Différents Types d’IA
- IA SaaS (ex. ChatGPT)
- Systèmes d’IA Développés en Interne
- Systèmes d’IA Fournis par un Tiers
- Agents IA Autonomes
- Modèles d’IA à Usage Général (GPAI)
Chapitre 7 : Sanctions en Cas de Non-Conformité avec l’IA Act
- Types d’Infractions
- Amendes Administratives
- Sanctions Non Pécuniaires
- Sanctions Spécifiques aux Fournisseurs de GPAI
- Facteurs Aggravants et Atténuants
- Adaptations pour les PME et les Startups
- Droit de Recours et Plaintes
- Surveillance et Contrôle
Chapitre 8 : Rôles et Responsabilités dans la Chaîne de Valeur de l’IA
- Fournisseurs de Systèmes d’IA
- intégrateurs de Systèmes d’IA
- Importateurs
- Distributeurs
- Mandataires
- Notion de Chaîne de Valeur et Interactions entre les Acteurs
Chapitre 9 : Rôle des États Membres et des Autorités de Contrôle
- Désignation des Autorités Compétentes
- Surveillance du Marché
- Mise en Place de Bacs à Sable Réglementaires
- Coopération avec les Institutions Européennes
- Sensibilisation, Formation et Soutien aux PME
- Autres Acteurs Impliqués
Chapitre 10 : Analyse d’Impact sur les Droits Fondamentaux
- Obligation pour les intégrateurs Publics et Certains Acteurs Privés
- Objectifs de l’Analyse d’Impact
- Contenu de l’Analyse d’Impact
- Procédure et Délais
- Liens avec le RGPD
- Suites de l’Analyse d’Impact
Chapitre 11 : Modèles d’IA à Usage Général (GPAI) et Risques Systémiques : Une Analyse Approfondie
- Définition des Modèles GPAI
- Obligations pour les Fournisseurs de GPAI
- GPAI Présentant un Risque Systémique
- Codes de Conduite pour les GPAI
- Rôle du Bureau de l’IA (AI Office)
- Enjeux de Conformité pour les Fournisseurs et les intégrateurs de GPAI
- Défis et Opportunités pour l’Innovation en IA