Intelligence artificielle digne de confiance
Une intelligence artificielle digne de confiance, ou IA digne de confiance ou encore IA de confiance (en anglais Trustworthy AI) est une intelligence artificielle en laquelle toutes les parties prenantes ont confiance tout au long de son cycle de vie. Pour cela elle doit être « alignée », ce qui implique généralement qu'elle soit licite, éthique, transparente, explicable et robuste, et réponde à certains principes éthiques et d'exigences clés lui octroyant et validant ce statut de confiance.
Origines
À la suite de travaux tels ceux du « Groupe européen d'éthique des sciences et des nouvelles technologies » (GEE), groupe consultatif de la Commission européenne, le terme « IA digne de confiance » apparaît, en 2019, dans les documents du « Groupe d'experts indépendants de haut niveau en intelligence artificielle » (GEHN IA)[1],[2], qui visent à donner des orientations sur la stratégie européenne en intelligence artificielle.
En 2019 le GEHN IA publie un recueil d'orientations intitulé Lignes directrices en matière d'éthique pour une IA digne de confiance[3], où sont détaillés les éléments constitutifs d'une IA digne de confiance, repris dans cet article, ainsi qu'en 2020 une version aboutie de questionnaire d'auto-évaluation de la confiance que l'on peut porter à une IA[4], résultat d'un travail collégial de spécialistes de l'IA. Ils y estiment que « dans un contexte d’évolution technologique rapide, nous sommes convaincus qu’il est essentiel que la confiance reste le ciment des sociétés, des communautés, des économies et du développement durable (...) La fiabilité est une condition préalable pour que les personnes et les sociétés mettent au point, déploient et utilisent des systèmes d’IA. S’ils ne démontrent pas qu’ils sont dignes de confiance, les systèmes d’IA – et les êtres humains qui les conçoivent – pourraient être à l’origine de conséquences indésirables susceptibles de nuire à leur utilisation, ce qui empêcherait la réalisation des avantages sociaux et économiques potentiellement vastes qu’apportent les systèmes d’IA ».
C'est une question de gouvernance, liée aux risques et opportunités de l'IA pour les entreprises, administrations et populations[5].
Travaux du groupe d'experts indépendants de haut niveau en intelligence artificielle
Le groupe d'experts indépendants de haut niveau en intelligence artificielle (GEHN IA) a rendu public le 8 avril 2019 son premier livrable[6], intitulé Lignes directrices en matière d'éthique pour une IA digne de confiance[3] (« Ethics Guidelines for Trustworthy AI » en anglais). Ce document n'est ni un document règlementaire ni une norme ; il propose une classification et un cadre pour une IA digne de confiance (après mise en consultation publique de sa première version datée du 18 Décembre 2018, qui a suscité des commentaires de la part de plus 500 personnes)[7]. Ce document est notamment basé sur le concept de droits fondamentaux[8] tels que la dignité humaine, la non-discrimination ou les droits en relation avec la protection des données et le respect de la vie privée. Il discute ainsi des exigences essentielles, regroupées en sept « exigences clefs » (en anglais key requirements), en précise les détails ainsi que des méthodes, techniques et non techniques, pour parvenir à une IA digne de confiance ; il donne des exemples de préoccupations majeures, actuelles ou à venir, couvrant un vaste domaine d'utilisations, que soulève l'IA[Lesquels ?] et fournit une version pilote d'un questionnaire afin d'évaluer si une IA est digne de confiance. Il reconnait le potentiel transformateur de l’intelligence artificielle tout en insistant sur la nécessité d’en encadrer les risques de manière proportionnée et selon 3 piliers : la légalité (conformité aux lois), l’éthique (respect des principes fondamentaux) et la robustesse (prévention des dommages involontaires). Les auteurs plaident pour une IA innovante mais aussi respectueuse des droits fondamentaux, de la démocratie et de l’État de droit[9].
Le groupe publie un second rapport en 2019, Policy and Investment Recommendations for Trustworthy AI[10], qui s'attache à décrire comment utiliser l'IA de confiance pour créer un effet positif en Europe et quels leviers européens[Lesquels ?] mobiliser pour une IA digne de confiance.
Un troisième livrable fait suite (17 juillet 2020) au dernier chapitre du premier ouvrage sur l'auto-évaluation. Il est le fruit de 350 parties prenantes et s'intitule The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment[4] (« Liste d'évaluation pour une intelligence artificielle digne de confiance pour auto-évaluation »). Ce document consultatif, non exhaustif et amené à être nourri des expériences de tous et chacun, est destiné à tous les acteurs participant de près ou de loin à l'élaboration d'une l'IA, c'est-à-dire les concepteurs, les ingénieurs système, les développeurs, les data scientists, comme les spécialistes des achats, les utilisateurs, les testeurs, les bureaux de contrôle et les metteurs en service, les ingénieurs avant-vente, les formateurs, les mainteneurs, les juristes, les commerciaux ou les managers, entre autres. Il traite des moyens de prendre conscience des risques et opportunités d'une intelligence artificielle, pour la totalité du cycle de vie d'une IA (conception, développement, prototypage, test, mise en service, exploitation, maintenance et retrait de service), et de les évaluer afin qu'elle respecte les conditions d'une IA digne de confiance telles qu'édictées dans les lignes directrices du premier livrable. Une version web interactive permet, en version pilote, de répondre aux questions de cette auto-évaluation directement en ligne[11].
Un quatrième et dernier livrable, Sectoral Considerations on the Policy and Investment Recommendations[12], publié le 23 juillet 2023 par le GEHN IA, explore les possibles implémentations d'une IA digne de confiance dans le secteur public, la santé ou l'industrie et l'internet des objets (IoT).
Caractéristiques
Une « IA digne de confiance », sous le prisme des experts en IA de la Commission européenne, repose sur trois caractéristiques. L'IA doit être licite (aspect législatif ou règlementaire), éthique (respect des principes éthiques) et robuste (sur le plan technique mais aussi social ou sociétal). L'aspect légal n'est pas traité dans les quatre livrables de la commission européenne car ces ouvrages collectifs se veulent rester un recueil d'orientations des deux dernières caractéristiques[3]. L'aspect législatif sera traité dans l'AI Act.
Principes éthiques
Concernant les deux autres caractéristiques, l'éthique et la robustesse, il est supposé qu'elles respectent quatre principes éthiques basés sur les droits fondamentaux : respect de l'autonomie humaine, prévention de toute atteinte, équité, explicabilité.
Exigences clefs
Ces quatre grands principes éthiques sont à leur tour déclinés en sept exigences clefs comme suit :
- action humaine et contrôle humain ;
- robustesse technique et sécurité ;
- respect de la vie privée et gouvernance des données ;
- transparence ;
- diversité, non-discrimination et équité ;
- bien-être sociétal et environnemental ;
- responsabilité.
Ces exigences clefs d'une l'IA digne de confiance, très générales, recoupent tout ou partie de la douzaine de notions clefs retrouvées dans nombre d'ouvrages de référence en France et dans le monde (livre blanc, feuille de route, etc.) traitant de l'éthique pour l'IA (OCDE[13], AFNOR[14], IEEE[15], etc.).
Détail des exigences clefs
Ces exigences clefs sont encore affinées en 23 exigences de niveau inférieur, qui visent à en préciser le sens et mieux détourer leur périmètre :
- Action humaine et contrôle humain
- droits fondamentaux
- autonomie humaine
- Robustesse technique et sécurité
- résilience aux attaques et sécurité
- plans de secours et sécurité générale
- précision
- fiabilité
- reproductibilité
- Respect de la vie privée et gouvernance des données
- qualité et intégrité des données
- accès aux données
- Transparence
- traçabilité
- explicabilité
- communication
- Non-discrimination, équité et diversité
- absence de biais injustes
- accessibilité et conception universelle
- participation des parties prenantes
- Bien-être sociétal et environnemental
- durabilité(*) et respect de l'environnement
- frugalité
- impact social
- société
- démocratie
- Responsabilité (sociale et sociétale)
- auditabilité
- réduction au minimum des incidences négatives et la communication à leur sujet
- arbitrages et recours
(*) traduction française de sustainability, qui peut se traduire par « développement durable » ou « soutenabilité ».
Chacune de ces sous-exigences se décline en autant d'items augmentant encore leur précision ; par exemple en définissant et concrétisant ce que l'on appelle les « biais injuste », en précisant ce que l'on entend par « explicabilité » d'une IA, en évaluant les risques et opportunités de systèmes intelligents et d'IA pour l'être humain, pour les démocraties, ou encore dans le cadre du transhumanisme ou de systèmes intelligents armés et autonomes.
Tous ces items sont traités de manière plus ou moins avancée pour promouvoir une IA digne de confiance, même s'il est difficile d'en mesurer l'exhaustivité, dans le guide des experts de la Commission européenne cité plus haut[3], et évalués dans un autre de leurs document de référence dans l'optique de les vérifier tout au long du cycle de vie de l'IA[4].
Si des tensions apparaissent entre certaines des caractéristiques, principes, exigences clefs ou méthodes d'une IA digne de confiance, elles doivent être nommées, évaluées et arbitrées de façon raisonnée par les parties prenantes chargées de cette IA[16].
En France
Les autorités promeuvent la fiabilité et la résilience des systèmes d'IA, y compris dans les domaines militaire et stratégique, en particulier face aux attaques adversariales et aux manipulations de données[17]. Par exemple, en mai 2025, le Commandement de la cyberdéfense (COMCYBER) et l'Agence de l'innovation de Défense (AID) ont lancé le défi « Sécurisation de l'IA » qui a distingué deux solutions :
- PRISM Eval, une start-up spécialisée dans l'analyse des dérives comportementales des modèles d'IA. Son outil BET Eval (BET = Behavior Elicitation Tool), teste la robustesse des LLMs face aux attaques sémantiques et contextuelles (manipulation subtile du contexte ou du sens des données visant à induire en erreur l'IA ou son utilisateur, via des biais cognitifs ou des failles de traitement de linformation), évaluant leur vulnérabilité aux injections de prompts et aux contournements de garde-fous[17].
- CEA-List, un outil de sécurisation des modèles de classification visuelle, basé sur PyRAT et PARTICUL qui vérifiient formellement les réseaux de neurones et détectent les anomalies dans les jeux de données, réduisant les risques de manipulation malveillante[17].
Voir aussi
Articles connexes
- Alignement des intelligences artificielles
- Apprentissage automatique
- Apprentissage profond
- randomisation de domaine
- ChatGPT
- Éthique de l'intelligence artificielle
- Intelligence artificielle
- Intelligence artificielle amicale
- Intelligence artificielle forte
- Intelligence artificielle générative
- Histoire de l'intelligence artificielle
- Philosophie de l'intelligence artificielle
- Réseaux antagonistes génératifs
- Risque de catastrophe planétaire lié à l'intelligence artificielle
- Risque de catastrophe planétaire lié à l'intelligence artificielle générale
- Singularité technologique
- Superintelligence
- Sûreté des intelligences artificielles
- Transhumanisme
Bibliographie
: document utilisé comme source pour la rédaction de cet article.
- (en) Independant High Level Group on Artificial Intelligence (AI HLEG), The Assessment List For Trustworthy Artificial Intelligence (ALTAI) for self assessment, Bruxelles, Commission européenne, , 34 p. (lire en ligne).
- Groupe d'Experts de haut niveau en intelligence artificielle (GEHN IA) (trad. de l'anglais), Lignes directrices en matière d'éthique pour une IA digne de confiance [« Ethics guidelines for trustworthy AI »], Bruxelles, Commission européenne, (1re éd. 2018), 56 p. (lire en ligne), p. 8 (24). Autres traductions en ligne.
- Eynard, Jessica (2020) Réflexions pour une intelligence artificielle digne de confiance. In : Télémédecine et intelligence artificielle en santé : quels enjeux pour l’Union européenne et les États membres ? De Grove-Valdeyron, Nathalie (ed.) Presses de l'université Toulouse 1 Capitole, p. 165-192 (ISBN 978-2-36170-210-6).
- Legros, B. (2022). L’intelligence artificielle en santé. Entre droit dur et droit souple: de la norme interne à la norme européenne ; Revue générale de droit médical (RGDM), N°83, pages 19-35 | url=http://hdl.handle.net/20.500.12210/75455.
- Halima Brahmi, Saïda Belouali, Yves Demazeau et Toumi Bouchentouf, « Vers un référentiel universel pour un usage éthique de l’intelligence artificielle », East African Journal of Information Technology, vol. 6, no 1, , p. 91–106 (ISSN 2707-5354 et 2707-5346, DOI 10.37284/eajit.6.1.1226, lire en ligne, consulté le ).
Liens externes
- (en) Proposition de règlement établissant des règles harmonisées en matière d'intelligence artificielle, alias « AI Act », Commission européenne, 2021 (lire en ligne).
Notes et références
- ↑ (en) « Commission appoints expert group on AI and launches the European AI Alliance », Commission européenne, (consulté le ).
- ↑ (en) « High-level expert group on artificial intelligence », sur digital-strategy.ec.europa.eu (consulté le ).
- GEHNIA 2018.
- AIHLEG 2020.
- ↑ Gauthier Chassang et Anthéa Serafin, Vers une gouvernance responsable des systèmes d’IA organisée autour de la gestion des risques, Presses de l’Université Toulouse Capitole, , 419–445 p. (ISBN 978-2-36170-261-8 et 978-2-37928-115-0, lire en ligne).
- ↑ Groupe d'Experts de haut niveau en intelligence artificielle (GEHN IA) (trad. de l'anglais), Lignes directrices en matière d'éthique pour une IA digne de confiance [« Ethics guidelines for trustworthy AI »], Bruxelles, Commission européenne, (1re éd. 2018), 56 p. (lire en ligne), p. 8 (24). Autres traductions en ligne.
- ↑ Ceci est précisé page 2 du document final.
- ↑ Charte des droits fondamentaux de l'Union Européenne, Commission européenne, , 17 p. (lire en ligne), sur EUR-Lex.
- ↑ (en) « Ethics Guidelines for Trustworthy AI », sur Commission européenne, (consulté le ).
- ↑ (en) European commission, Policy and Investment Recommendations for Trustworthy AI, Bruxelles, commission européenne, , 52 p. (lire en ligne).
- ↑ (en) Commission européenne, « Prototype web-tool of ALTAI, to support AI developers and deployers in developing Trustworthy AI. »(Archive.org • Wikiwix • Archive.is • Google • Que faire ?) , sur Futurium, Commission européenne (consulté le ).
- ↑ (en) Independant High level Expert Group on Artificial Intelligence (AI HLEG), Sectoral Considerations on the Policy and Investment Recommendations, Bruxelles, Commission européenne, , 16 p. (lire en ligne [PDF]).
- ↑ (en) OCDE (ill. kras99/Shutterstock.com), OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449, ECD Legal Instruments,, , 11 p. (lire en ligne), p. 7-8.
- ↑ AFNOR, Feuille de route stratégique pour la normalisation de l'Intelligence Artificielle, La Plaine Saint-Denis, AFNOR, , 40 p. (lire en ligne), p.14.
- ↑ (en) IEEE, Ethically Aligned Design (EADV2) : A Vision for Prioritizing Human Well-beingwith Autonomous and Intelligent Systems, IEEE, , 266 p. (lire en ligne), p. 9.
- ↑ GEHNIA 2018, p. 6, §2.3 « Tensions entre ces principes », p. 25 (90) « Arbitrages ».
- « PRISM Eval et le CEA-List, lauréats du défi Sécurisation de l'IA », sur ActuIA, (consulté le ).
- Portail de l’intelligence artificielle
- Portail de l'informatique théorique
- Portail de l’informatique