Description
Avec les avancées technologiques majeures de la dernière décennie, l’adoption rapide et massive de l’intelligence artificielle, désormais omniprésente, soulève de nouveaux enjeux en matière de cybersécurité. De nombreux risques techniques restent encore méconnus et mal maîtrisés par les entreprises.
Cette formation, destinée à un public technique (développeurs, pentesters, data scientists, etc.), vise à fournir les compétences essentielles pour identifier, exploiter et corriger les vulnérabilités les plus fréquentes dans les systèmes basés sur l’intelligence artificielle.
À qui s'adresse cette formation ?
Pour qui ?
- Développeurs, responsables techniques et architectes impliqués dans des projets d’intelligence artificielle.
- Consultants en cybersécurité souhaitant élargir ou renforcer leurs compétences dans le domaine de la sécurité des systèmes IA.
- Connaissances générales des systèmes d’information.
Les objectifs de la formation
Programme de la formation
- Introduction à la sécurité des systèmes IA
- Différences entre sécurité logicielle classique et IA.
- Surface d’attaque d’un système basé sur l’IA.
- Cas concrets d’attaques sur modèles (ex. : poisoning, model extraction, adversarial inputs)
- Principales menaces et vulnérabilités
- Types d’attaques spécifiques à l’IA.
- Vulnérabilités des modèles d’apprentissage supervisé et non supervisé.
- Sécurité des données d’entraînement et confidentialité.
- Cadres réglementaires et éthiques
- Conformité RGPD et confidentialité des données.
- Règlement européen sur l’IA (AI Act).
- Notions d’équité, d’explicabilité et de transparence.
- Sécurisation du cycle de vie du développement IA (Secure MLOps)
- Intégration de la sécurité dans les pipelines CI/CD pour modèles IA.
- Surveillance continue et mises à jour des modèles.
- Journalisation et traçabilité des prédictions.
- Bonnes pratiques de codage sécurisé dans les projets IA
- Gestion sécurisée des API d’inférence.
- Sécurisation des dépendances et bibliothèques ML.
- Renforcement de l’authentification et des accès aux modèles.
- Outils et tests pour sécuriser les systèmes IA
- Introduction à des outils d’audit IA (Adversarial Robustness Toolbox, IBM ART, etc.).
- Scanners de vulnérabilités spécifiques aux environnements ML.
- Bonnes pratiques de test adversarial.