Le règlement européen sur l’intelligence artificielle (IA Act) établit une classification par niveaux de risque pour encadrer les systèmes d’IA en fonction de leur impact potentiel sur les droits fondamentaux, la sécurité et le bien-être des personnes.
1. Risques inacceptables (Unacceptable Risk)
- Interdits par le règlement.
- Exemples :
- Systèmes de social scoring gouvernementaux (comme en Chine).
- Manipulation subliminale ou exploitation de vulnérabilités (âge, handicap, etc.).
- Reconnaissance biométrique en temps réel dans les espaces publics par les forces de l’ordre (sauf exceptions strictes).
2. Risques élevés (High-Risk)
- Soumis à des exigences strictes (transparence, traçabilité, évaluation de la conformité, gouvernance des données, supervision humaine, etc.).
- Comprennent les systèmes utilisés dans :
- L’infrastructure critique (énergie, transport).
- L’éducation (ex. : outils d’évaluation automatisée).
- L’emploi (ex. : tri automatisé de CV).
- La justice, la migration, la santé, etc.
- Ces systèmes doivent être inscrits dans une liste exhaustive de l’Annexe III du règlement.
3. Risques limités ou minimes (Limited or Minimal Risk)
- Non réglementés de manière contraignante, mais soumis à des obligations de transparence dans certains cas.
- Exemples :
- Chatbots (doivent indiquer qu’ils ne sont pas humains).
- Systèmes de reconnaissance émotionnelle.
- Contenu généré par IA (ex. : deepfakes → obligation de « watermarking » ou d’étiquetage).
Cas particulier : modèles d’IA à usage général (General-Purpose AI – GPAI)
- Inclut les grands modèles (ex. : LLM comme GPT, Llama, etc.).
- Soumis à des obligations spécifiques selon leur niveau de capacité (ex. : évaluation des risques systémiques pour les GPAI avancés).
- Encadrés notamment par le Code de pratique et les lignes directrices de la Commission européenne (voir les articles du site sur les Guidelines for GPAI Models et le Code of Practice).