Infos clés
A définir
14h
Possibilité de financement OPCO jusqu’à 100% / Paiement en 3 fois possible
Responsable RSE / Responsable Communication / DRH / Dirigeant
débutant / intermédiaire / avancé / expert
Présentiel (lieu à définir) ou distanciel (visio synchrone)
un ordinateur portable par participant / connexion WiFi
30 jours avant le début de la formation
Description de la formation
Comment déployer l’IA dans votre organisation sans compromettre vos engagements RSE ? Cette formation de 4 demi-journées permet aux dirigeants et responsables RSE d’identifier les vrais risques, d’encadrer les usages actuels (y compris le Shadow AI) et de construire un cadre opérationnel aligné avec leurs valeurs.
Chaque module produit un livrable actionnable immédiatement.

Objectifs de la formation
- Identifier et cartographier les usages IA actuels dans l’organisation (y compris Shadow AI)
- Appréhender les impacts RSE de l’IA sur les 3 piliers : environnement, social, gouvernance
- Évaluer chaque cas d’usage avec une grille de décision simple (GO / GO sous conditions / STOP)
- Construire un cadre opérationnel : règles d’usage, politique outils, matrice données
- Choisir des outils cohérents avec les exigences RSE, RGPD et souveraineté
Programme de la formation
DEMI-JOURNÉE 1 (3H30)
Ice breaker et diagnostic collectif (15 min) : Vos usages IA actuels et vos enjeux RSE
Module 1 (1h) – IA en entreprise : promesses, limites et Shadow AI
L’IA dans les organisations : ce qu’elle fait vraiment, ce qu’elle ne sait pas faire, pourquoi elle « hallucine ». Les zones à risques : données sensibles, décisions automatisées, dépendances techniques. Le Shadow AI : pourquoi ça arrive, ce que ça coûte, comment le repérer.
Module 2 (1h) – Les 3 piliers RSE impactés par l’IA
Pilier Environnement : consommation énergétique (entraînement vs usage), empreinte carbone, ressources. Pilier Social : transformation des métiers, gestion RH, risques psychosociaux, inclusion numérique. Pilier Gouvernance : biais algorithmiques, transparence des décisions, protection des données, responsabilité juridique. Comprendre les arbitrages nécessaires entre innovation et impact.
Module 3 (1h30) – Atelier : Cartographie des usages IA et évaluation des risques
Identifier tous les usages IA actuels dans l’organisation (déclarés et Shadow AI). Classer par type : recherche, création de contenu, automatisation, aide à la décision. Évaluer avec la méthode « feux tricolores » : vert (faible risque) / orange (risque modéré) / rouge (risque élevé). Critères : type de données, criticité de la décision, impact métier. Construction collective du registre V0.
Livrable : Mini registre des usages IA avec niveau de risque (format 1 page)
DEMI-JOURNÉE 2 (3H30)
Module 1 (1h) – Impact environnemental de l’IA : comprendre et arbitrer
L’empreinte réelle : différence entre modèles (GPT-4 vs Mistral vs modèles légers). Entraînement vs inférence : où se situe vraiment l’impact de VOS usages. Sobriété numérique appliquée à l’IA : réduire les requêtes inutiles, optimiser les prompts, mutualiser les usages. Arbitrer intelligemment : quand l’IA réduit votre impact global (exemple : optimisation logistique).
Module 2 (1h ) – Atelier : Prompts efficaces = prompts sobres
Méthode de prompt sobre : contexte minimal, format attendu, critères qualité, limites claires. Réduire les allers-retours (principal levier d’économie). Exercices pratiques sur vos cas d’usage réels : améliorer un prompt gourmand en requêtes.
Module 3 (1h30) – Construire vos règles de sobriété IA
Atelier collaboratif de co-création des règles d’usage. Définir ce qui est acceptable et ce qui ne l’est pas : types d’usages autorisés, limites de fréquence, validation pour usages lourds. Rédiger 10 règles de sobriété actionnables et diffusables. Définir qui valide quoi (niveaux de responsabilité).
Livrable : Document « 10 règles de sobriété IA » prêt à diffuser en interne
DEMI-JOURNÉE 3 (3H30)
Module 1 (1h) – Pilier Social : biais, emploi et inclusion
Origine des biais algorithmiques : données d’entraînement, conception, usage. Types de biais : genre, origine, âge, handicap, situation sociale. Où se cachent les biais dans VOS processus : recrutement, communication, service client, évaluation. Impact sur l’emploi : quels métiers transformés dans votre secteur, comment accompagner sans exclure. Inclusion numérique interne : fracture digitale, accompagnement des équipes.
Module 2 (2h30) – Atelier métiers : détecter et corriger les biais
Travail en sous-groupes par fonction (RH / Com-Marketing / Support-Ops / autre selon participants). Analyse de cas concrets pré-préparés avec biais intégrés : offre d’emploi, contenu RSE, processus décisionnel. Identification collective des biais présents. Retravail des contenus pour éliminer les biais. Partage en plénière et construction de fiches garde-fous par métier : risques identifiés, règles à appliquer, validation humaine nécessaire.
Livrable : Fiches garde-fous par métier (RH, Com, Support) avec check-list anti-biais
DEMI-JOURNÉE 4 (3H30)
Module 1 (1h) – Gouvernance : données, juridique et souveraineté
Protection des données : ce qu’on ne met JAMAIS dans l’IA (données clients nominatives, données sensibles RH, secrets industriels). Méthode d’anonymisation simple (placeholders). RGPD et IA : responsabilités, traçabilité, droit à l’explication. IA Act : logique de niveaux de risque, obligations selon votre rôle (déployeur/fournisseur). Souveraineté numérique : enjeux géopolitiques, dépendances technologiques, solutions européennes vs américaines. Grille de choix d’outils selon 3 niveaux de sensibilité : usage public / interne / données sensibles.
Module 2 (2h) – Atelier : Politique outils et matrice données
Co-construction de la politique outils en 3 niveaux : outils autorisés sans restriction (ex : recherche publique), outils autorisés sous conditions (ex : création interne), outils interdits (données sensibles). Pour chaque niveau : quels outils, quelles règles, qui valide. Construction de la matrice données : OK / OK anonymisé / Interdit. Exemples concrets par type de données (clients, RH, finance, stratégie). Définir les responsabilités : qui est garant, qui contrôle, processus de validation des nouveaux cas d’usage.
Module 3 (30 min) – Intégrer l’IA dans votre démarche RSE existante
Comment communiquer sur vos choix IA auprès du comex, des équipes, des parties prenantes. Intégrer dans votre reporting RSE : indicateurs clés à suivre (nombre d’usages, empreinte carbone estimée, formations réalisées). Valoriser votre démarche responsable (clients, audits, labels).
Livrable : Politique outils (3 niveaux) + Matrice données OK/anonymisé/interdit
Module complémentaire
Atelier co-création de charte IA responsable (3h30) :
Méthodologie de co-création avec parties prenantes. Définir principes, engagements, interdits, processus de validation. Rédaction collaborative. Plan de déploiement et communication.
Livrable : Charte IA responsable finalisée et prête à déployer
Méthodes pédagogiques
- Apport théorique
- Exemples et cas concrets
- Atelier de mise en pratique immédiate
- Support livré en fichier PDF
Option
Le programme de la formation est intense ce qui ne permet pas d’approfondir tous les points. Il est possible d’ajouter ½ journée de formation pour approfondir des points spécifiques en fonction des besoins qui pourraient émerger pendant la première session.
Tarif
Sur demande
Formules INTRA entreprise
Possibilité de financement OPCO jusqu’à 100%
Paiement en 3 fois possible
Référente Handicap
Toutes nos formations sont accessibles aux personnes en situation de handicap.
Pour toutes questions complémentaires, merci de contacter notre référente handicap : Maud Richard (maud.richard.ext@lacollab.com)
Formateurs
- Diplôme :
- Fonction : :
- Références :
- Diplôme :
- Fonction : :
- Références :
S’inscrire
Vous pouvez également nous contactez via notre formulaire ou par téléphone 07 49 92 36 29.
Ils nous ont fait confiance
Sur le même thème
< À nos futurs clients />
Envie de collaborer ?
Nous vous contactons dans les 72h afin d’obtenir vos premiers conseils 100% personnalisés et gratuits par nos experts, et ce, sans engagement.