L’IA responsable, c’est concevoir, déployer et piloter des systèmes d’intelligence artificielle qui amplifient les capacités humaines sans compromettre la dignité, l’autonomie ou les droits des personnes et dont on peut expliquer, auditer et corriger les décisions à tout moment.
| Header | Question à se poser | Critère de validation |
|---|---|---|
| Éthique by design | « Aurais-je honte si ce système était décrit en une page dans la presse ? » | Un comité éthique ou une grille d’impact a validé le cas d’usage avant le développement |
| Explicabilité | « Puis-je expliquer à un utilisateur pourquoi l’IA a pris cette décision, en 3 phrases simples ? » | Des logs de décision + des contre-factuels (« Si X avait été différent, le résultat aurait été Y ») sont accessibles |
| Équité et non-discrimination | « Ai-je testé le modèle sur des sous-groupes vulnérables ou minoritaires ? » | Audit de biais réalisé avec des métriques désagrégées (genre, âge, origine, CSP…) |
| Maîtrise humaine | « Un humain peut-il intervenir, suspendre ou annuler une décision automatisée ? » | Bouton « override » + traçabilité des interventions humaines dans le workflow |
| Sobriété & impact | « Le bénéfice business justifie-t-il l’empreinte carbone et cognitive du modèle ? » | Analyse coût/bénéfice incluant énergie, maintenance, et charge mentale pour les équipes |
| Robustesse & sécurité | « Que se passe-t-il si le modèle est trompé, piraté ou utilisé hors de son périmètre ? » | Tests d’adversarialité + plan de réponse aux défaillances documenté |