Le Conseil de l’intelligence artificielle et du numérique chargé de constituer une commission « IA générative et vulnérabilités »
Le 20 février 2026, le CIANum a été chargé de conduire les travaux de la commission « IA générative et vulnérabilités », lancée par la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, Anne Le Hénanff.
La commission d’experts devra se pencher sur les vulnérabilités engendrées par les usages grand public de l’IA générative. Les premières conclusions de ces travaux sont attendues pour le mois de mai 2026.
Constitution d’une commission d’experts
La coprésidence de cette commission a été confiée à :
- Madame Serena VILLATA, directrice de recherche CNRS en Intelligence Artificielle au Centre Inria d’Université Côte d’Azur ;
- Monsieur Amine BENYAMINA, professeur de psychiatrie et d’addictologie à l’Université Paris-Saclay ;
- Monsieur Raphaël GAILLARD, professeur de psychiatrie à l’Université Paris Cité.
Le CIANum travaillera en étroite collaboration avec le Comité consultatif national d’éthique du numérique (CCNEN).
Cette commission est complétée par la participation d’experts qualifiés, reconnus pour leurs travaux et issus de disciplines variées :
- Sylvie CHOKRON, neuropsychologue et directrice de recherche CNRS ;
- Marie COHEN-SKALLI, codirectrice d'Emmaüs Connect ;
- Marc FADDOUL, cofondateur d'AI Forensics ;
- Hugo MICHERON, enseignant à Sciences Po et cofondateur d’Arlequin AI ;
- Juliette SÉNÉCHAL, professeure de droit privé et sciences criminelles (Université de Lille) et adjointe au directeur scientifique d’Inria ;
- Joëlle TOLEDANO, professeure émérite en économie, associée à la Chaire « Gouvernance et Régulation » (Université Paris Dauphine - PSL) ;
- Célia ZOLYNSKI, professeure de droit privé (Université Paris 1).
Champ et objectifs des travaux
La lettre de mission précise les objectifs que devront poursuivre les réflexions de la commission :
- Cartographier les usages grand public de l’IA générative (IA conversationnelle, « compagnons IA », jouets IA, etc.) ;
- Identifier les vulnérabilités les plus critiques suscitées par les usages de l’IA générative, avec un œil particulier sur les mineurs ;
- Analyser les cadres normatif et technique existant au niveau national et européen, ainsi que les enjeux éthiques et les réflexions conduites en dehors de nos frontières ;
- Formuler des propositions étayées et concrètes à l’échelle française et européenne.
Les premières conclusions de la commission « IA générative et vulnérabilités » sont attendues pour le mois de mai 2026. Elles devront guider l’action publique sur ces enjeux d’intérêt général.
Ils en parlent
- Libération, « Le gouvernement français lance une commission pour étudier les dangers de l’IA générative », 21 février 2026
- Ouest France, « Le gouvernement veut s’attaquer aux dangers de l’IA générative », 21 février 2026
- Clubic, « Le gouvernement mandate psychiatres et addictologues pour enquêter sur les risques de l'IA chez les Français », 21 février 2026
- CB News, « Lancement d'une mission sur les risques de l'IA générative », 22 février 2026
- France Info, « Si l’intelligence est parfois artificielle, l’émotion est-elle forcément humaine ? », 14 mars 2026
- France Culture, « Face à l'IA, on ne peut pas attendre quinze ans pour protéger les enfants, alertent des médecins », 25 mars 2026
- France Inter, « La commission sur l'IA générative servira à "réguler, protéger et informer", affirme son coprésident Amine Benyamina », 25 mars 2026
Contact :
info@conseil-ia-numerique.fr