PANAME : teste la confidentialité des IA et protège vos données. Ce 27 juin 2025, la CNIL, l’ANSSI, le PEReN et l’équipe IPoP ont lancé PANAME, un nouveau projet ambitieux. Son objectif : mettre au point un outil open source pour tester si une intelligence artificielle garde en mémoire des données personnelles de manière indésirable.
Ce projet vise à protéger la vie privée des citoyens, tout en aidant les entreprises à se mettre en conformité avec le RGPD, grâce à des tests techniques clairs, reproductibles et accessibles.
PANAME : teste la confidentialité des IA et protège vos données
→ Le risque de « mémorisation indésirable » des IA
Les modèles d’intelligence artificielle, comme ceux de type LLM (chatbots, générateurs de texte, etc.), sont capables d’apprendre à partir d’énormes volumes de données. Mais ils peuvent parfois conserver et divulguer par erreur des données sensibles :
- Des noms, adresses, ou numéros de carte de crédit
- Des extraits d’emails ou de messages privés
- Des documents confidentiels (même supprimés)
Ce risque est aujourd’hui bien connu : certaines IA peuvent restituer des données d’entraînement simplement via une question posée par un utilisateur. Cela pose de gros problèmes de confidentialité et de sécurité.
Le RGPD s’applique aussi aux IA
Depuis décembre 2024, le Comité européen de la protection des données (CEPD) a rappelé que les IA doivent respecter le Règlement général sur la protection des données (RGPD).
Cela signifie que tout acteur qui utilise ou développe une IA doit pouvoir prouver que son système ne met pas en danger la vie privée.
Mais jusqu’à présent, les outils de test étaient trop complexes, trop techniques ou pas adaptés à un usage industriel. PANAME vient répondre à ce besoin.
Que va proposer le projet PANAME concrètement ?
PANAME a pour mission de créer une bibliothèque logicielle de tests, disponible gratuitement (open source ou partiellement), pour :
- Auditer les IA sur le respect de la confidentialité des données
- Identifier les failles de mémorisation indésirable
- Standardiser les méthodes d’évaluation
- Proposer une interface claire, même pour les non-experts
Le tout sera testé sur des cas réels, en lien avec des administrations et des industriels volontaires.
Qui pilote PANAME ?
Le projet réunit plusieurs acteurs publics français, experts dans leur domaine :
- La CNIL : en charge de la coordination, du cadre juridique et de la conformité RGPD
- L’ANSSI : apporte son expertise en cybersécurité
- Le PEReN : développe les outils techniques
- IPoP / PEPR Cybersécurité : assure le suivi scientifique
Le tout financé dans le cadre du plan national pour la cybersécurité.
→ Durée du projet : 18 mois (jusqu’à fin 2026)
Ce que PANAME va changer
Voici ce que ce projet va concrètement apporter :
- un outil accessible à toutes les entreprises (pas seulement les géants du numérique) ;
- une méthode claire et fiable pour tester la sécurité des IA ;
- une meilleure protection des citoyens ;
- une mise en conformité facilitée pour les développeurs d’IA ;
- un standard de référence européen pour les audits IA.
Ressources utiles
- Dossier CNIL sur PANAME
- Comprendre les risques de fuite de données dans l’IA
- Guide RGPD pour les développeurs IA