L’intelligence artificielle (IA) s’impose progressivement au cœur des processus décisionnels, organisationnels et opérationnels, tant dans les services publics que dans le secteur privé. Si ses bénéfices sont nombreux, gain d’efficacité, amélioration des services aux usagers, renforcement de l’aide à la décision, son déploiement soulève également des préoccupations légitimes en matière d’éthique, de transparence, de gouvernance et de confiance.
Afin de répondre à ces enjeux, la mise en place d’une charte de l’intelligence artificielle constitue déjà un premier levier essentiel. Elle fournit un cadre de référence clair, partagé et opérationnel, qui guide les pratiques internes et rassure sur la responsabilité des usages. Loin d’être un simple document déclaratif, cette charte devrait s’appuyer sur une méthodologie structurée et participative pour garantir sa légitimité et son efficacité.
Plusieurs chartes IA existent déjà actuellement dans divers organes publics et privés, en plus de la charte IA responsable fédérale mise en place par AI4Belgium-BOSA et signée par 38 organes publics fédéraux.
Vous envisagez de créer votre propre charte IA ? Voici une méthodologie en 5 étapes.
Définir les objectifs et les principes
La charte doit refléter les valeurs et les ambitions de votre organisation. La charte devra s’articuler autour de principes universels mais adaptés au contexte de l’organisation.
Avant de commencer la rédaction, il est important de clarifier les finalités, à savoir :
- Encadrer un usage responsable et éthique de l’IA.
- Renforcer la confiance des citoyens, collaborateurs ou partenaires.
- Assurer la conformité réglementaire (RGPD, AI Act, normes sectorielles).
- Soutenir l’innovation sans freiner l’agilité.
- Servir de référence pour évaluer les projets IA.
Les principes clés à intégrer peuvent inclure :
- Transparence. Interpréter les résultats et communiquer sur les usages.
- Équité et inclusion. Prévenir les biais et respecter la diversité.
- Responsabilité. Assumer clairement les responsabilités humaines.
- Proportionnalité. Adapter l'usage de l'IA à la réalité des enjeux.
- Sécurité et protection des données. Protéger les données personnelles et intégrer les standards de cybersécurité et de conformité (RGPD).
- Durabilité. Evaluer l’impact environnemental et social des solutions déployées pour favoriser la durabilité.
Ces principes peuvent être enrichis par des valeurs propres à l’organisation.
Exemple à intégrer concernant cette recommandation :
- Vérifier le niveau de risque des usages de l'IA, surtout pour éviter les usages interdits (Cfr AI Act).
- Les outils autorisés. Il est également pertinent de préciser quels outils d’IA peuvent être utilisés. Allez-vous autoriser Chat GPT, Gemini, DeepSeek,...?
- Les données personnelles. Noms, prénoms, adresses, numéros de téléphone ou toute autre information permettant d’identifier une personne ne devront pas être introduits (Respect du RGPD).
- Les risques et biais (nécessité de vérifier l’information : Human in the loop).
Impliquer les parties prenantes
La légitimité d’une charte réside dans la diversité de ses contributeurs. Il est recommandé d’impliquer dès le départ les :
- Directions (vision stratégique et arbitrages) ;
- Experts techniques (informaticiens, développeurs ou responsables de la donnée) ;
- Juristes et responsables conformité ;
- Équipes métiers et opérationnelles impactées ;
- Usagers ou leurs représentants (quand cela est pertinent, notamment dans le secteur public).
La co-construction favorise l’adhésion et l'ancrage dans les réalités de terrain.
Identifier les usages
Dressez un état des lieux des usages actuels et des besoins. Identifiez les risques, les outils utilisés, les zones de non-conformité. Intégrez ces éléments dans la charte pour définir clairement ce qui est autorisé ou interdit.
Déployer et accompagner le changement
Une charte n’a de valeur que si elle est incarnée. Une fois validée par les équipes. Dès lors :
- Prévoyez des formations et des actions de sensibilisation.
- Mettez en place des procédures d’évaluation des projets IA.
- Désignez un référent éthique ou un comité de suivi.
- Créez des canaux d’échanges pour les collaborateurs et les usagers.
L’accompagnement doit être perçu comme un soutien et non comme une contrainte.
Exemple à intégrer concernant cette recommandation :
- Les travailleurs sont encouragés à suivre des formations pour comprendre les opportunités et les limites de l’IA.
- L’entreprise met à disposition des ressources pour accompagner cette formation et un usage responsable de l'IA.
Assurer le suivi et l’amélioration continue
La charte doit s’inscrire dans une logique vivante, adaptée à un environnement technologique et réglementaire en constante évolution. Un mécanisme d’évaluation continue est indispensable, incluant indicateurs, retours d’expérience et mise à jour périodique des engagements.
La charte sera adaptée régulièrement si nécessaire.
Exemple à intégrer concernant cette recommandation :
- L’utilisation de l'IA ainsi que l’impact de l’IA sur l’organisation du travail doit être régulièrement évalué.
Conclusion
La création d’une charte de l’intelligence artificielle ne se résume pas à une déclaration de principes. Elle constitue un outil stratégique et opérationnel, conçu pour instaurer un usage de l’IA qui soit responsable, transparent et porteur de confiance.
Qu’il s’agisse d’un service public ou d’une organisation privée, cette démarche contribue à renforcer la légitimité des projets, à favoriser leur acceptabilité sociale et à assurer une gouvernance durable de l’innovation.
Pour en savoir plus
À propos de l'auteur.
Philippe Compère
Agence du Numérique