Description
La formation Lead AI Risk Manager permet aux participants d’acquérir les connaissances et compétences essentielles pour identifier, évaluer, atténuer et gérer les risques liés à l’intelligence artificielle. S’appuyant sur des référentiels reconnus tels que le NIST AI Risk Management Framework, le règlement européen sur l’IA (EU AI Act) ainsi que les analyses issues du MIT AI Risk Repository, cette formation propose une approche structurée de la gouvernance des risques IA, de la conformité réglementaire et de la gestion des risques éthiques.
Les participants analyseront également des scénarios réels de risques liés à l’IA, issus du MIT AI Risk Repository, afin de mieux comprendre les enjeux concrets de l’IA et d’identifier des stratégies efficaces de prévention et de mitigation des risques.
À qui s'adresse cette formation ?
Pour qui ?
- Professionnels chargés d’identifier, d’évaluer et de gérer les risques liés à l’intelligence artificielle au sein de leur organisation
- Professionnels des systèmes d’information et de la cybersécurité souhaitant développer une expertise en gestion des risques IA
- Data scientists, data engineers et développeurs IA impliqués dans la conception, le déploiement et la maintenance des systèmes d’IA
- Consultants accompagnant les organisations dans la gestion et la mitigation des risques liés à l’IA
- Conseillers juridiques et éthiques spécialisés en réglementation de l’IA, conformité et impacts sociétaux
- Managers et responsables supervisant des projets d’implémentation de l’IA et veillant à une adoption responsable
- Dirigeants et décideurs souhaitant comprendre et maîtriser les risques liés à l’IA à un niveau stratégique
Les principaux prérequis pour participer à cette formation sont une compréhension de base des concepts de l’intelligence artificielle ainsi qu’une connaissance générale des principes de la gestion des risques. Une familiarité avec les cadres de gouvernance de l’IA, tels que le NIST AI Risk Management Framework ou le EU AI Act, constitue un atout, mais n’est pas obligatoire.
Les objectifs de la formation
Programme de la formation
- 1 : Introduction à la gestion des risques liés à l’IA
- Présentation des concepts clés de l’IA et des risques associés aux systèmes d’intelligence artificielle
- Enjeux éthiques, réglementaires et organisationnels liés à l’adoption de l’IA
- Introduction aux cadres de référence en gestion des risques IA
- 2 : Contexte organisationnel, gouvernance et identification des risques IA
- Analyse du contexte interne et externe de l’organisation en lien avec l’IA
- Mise en place d’une gouvernance efficace des risques liés à l’IA
- Identification des risques IA tout au long du cycle de vie des systèmes d’IA
- 3 : Analyse, évaluation et traitement des risques liés à l’IA
- Analyse et évaluation des risques IA (biais, sécurité, transparence, conformité)
- Priorisation des risques selon leur impact et leur probabilité
- Définition et mise en œuvre des mesures de traitement et de mitigation des risques
- 4 : Surveillance, reporting et amélioration de la gestion des risques IA
- Mise en place de mécanismes de surveillance et de reporting des risques IA
- Programmes de formation, de sensibilisation et de communication interne
- Optimisation continue de la performance du dispositif de gestion des risques IA
