Discipline : Intelligence artificielle et systèmes autonomes

Discipline du numérique centrée sur les capacités cognitives simulées, les agents autonomes et l’IA générative pour transformer données en décisions.
IA générative, agents autonomes, LLM, orchestration IA, apprentissage continu, RAG, gouvernance de l’IA

  • Ancrage aux sources – source grounding

    Mécanisme par lequel un système d’intelligence artificielle fonde ses réponses sur des données ou documents vérifiables et explicitement référencés.

    Contrairement aux modèles génératifs purs qui peuvent « halluciner », le source grounding garantit que chaque affirmation est traçable à une source d’origine (base de connaissances, corpus documentaire, base de données).

    C’est un pilier du RAG éthique et de la fiabilité en contexte documentaire ou réglementé.

  • API MCP

    L’API MCP n’est pas une API au sens classique (comme une REST API), mais plutôt une spécification de communication entre un client IA (le « modèle ») et un fournisseur de fonctionnalités (le « serveur »).

    Elle définit :

    • comment un agent IA découvre les outils disponibles,
    • comment il demande à exécuter une action,
    • comment le système répond (succès, erreur, données),
    • et comment gérer la sécurité et le contexte utilisateur.

    Concrètement, MCP utilise des canaux comme stdin/stdout, WebSockets ou HTTP pour échanger des messages structurés en JSON, permettant à n’importe quel outil d’être intégré dans le workflow d’un agent IA.

    En résumé : MCP est un langage commun qui permet aux IA de dialoguer avec des outils externes de façon générique, sécurisée et interopérable.

  • Niveau de présence de l’IA selon l’outil

    Le niveau de présence de l’IA selon l’outil, c’est l’intensité, la profondeur et la visibilité avec lesquelles l’intelligence artificielle est intégrée dans un logiciel, un site ou un dispositif numérique.

    Le niveau varie d’un outil à l’autre : l’IA peut être absente, superficielle (marketing), fonctionnelle (automatisation) ou centrale (cœur de l’expérience).

    OutilsPrésence de l’IAExemples
    Navigateurs webForte (intégrée)Edge (Phi-4-mini), Chrome (Help me write), Firefox (AI prompts)
    Suites bureautiquesTrès forteMicrosoft 365 (Copilot), Google Workspace (Duet AI), LibreOffice (en expérimentation)
    Éditeurs de codeTrès forteGitHub Copilot, Cursor, CodeWhisperer
    Outils de créationDominanteCanva (Magic Studio), Adobe Firefly, Figma (AI plugins)
    Réseaux sociauxPartoutFacebook, Instagram, TikTok (recommandations, modération, génération)
    MessageriesCouranteGmail (Smart Compose), WhatsApp (Meta AI), Slack (AI assistant)
    CMS / CMS headlessÉmergenteWordPress (plugins AI), Webflow (AI site builder), mais pas natif
    Outils open source / libresLimitée (mais en croissance)GIMP, Inkscape, DokuWiki → peu ou pas d’IA intégrée (par choix éthique ou technique)
    Logiciels spécialisés (CAO, BIM, etc.)SectorielleAutodesk, Blender (IA pour rendu), mais pas universelle

    Les 4 niveaux de présence IA

    NiveauDéfinitionExemple
    0. Aucune IAL’outil fonctionne sans IA, par choix ou par simplicité.GIMP, Vim, DokuWiki, Raspberry Pi OS léger
    1. IA décorativeL’IA est mentionnée, mais joue un rôle mineur ou non essentiel.Bouton “IA” qui reformule un texte déjà écrit, sans intelligence contextuelle
    2. IA fonctionnelleL’IA automatise des tâches précises (traduction, modération, recommandation).Gmail (Smart Compose), WordPress (plugins de résumé), Canva (Magic Resize)
    3. IA intégrée / systémiqueL’IA est au cœur de l’architecture : elle structure, adapte, génère ou décide en temps réel.Microsoft Copilot dans Windows, Perplexity.ai, site web avec IA locale pour la recherche sémantique
  • Fausse IA

    La « fausse IA » désigne des fonctionnalités présentées comme de l’intelligence artificielle, mais qui reposent en réalité sur des règles prédéfinies, des automates simples ou des algorithmes classiques sans apprentissage, sans adaptation ni compréhension du contexte.

    C’est souvent du marketing technologique : on colle l’étiquette « IA » à un outil pour le rendre plus attractif, alors qu’il ne fait que suivre des instructions fixes, comme un formulaire ou un filtre.

    Exemples concrets

    • Un chatbot qui répond toujours la même phrase selon des mots-clés : pas de l’IA, mais un arbre de décision.
    • Un outil qui « résume » un texte en ne gardant que la première phrase de chaque paragraphe : pas de compréhension, juste une règle mécanique.
    • Un site qui dit « personnalisé par IA » alors qu’il montre les articles les plus lus : pas de personnalisation réelle.
  • Edge computing pour l’IA

    L’edge computing consiste à exécuter l’inférence IA sur des serveurs proches géographiquement de l’utilisateur (« edge nodes »), plutôt que dans un data center centralisé.

    Plutôt que d’envoyer une requête à un serveur situé à des milliers de kilomètres, l’inférence est traitée sur un point de présence (PoP) local — par exemple, un serveur de Cloudflare, Fastly ou AWS Local Zones, situé dans la même région que l’utilisateur. Cela réduit drastiquement la latence (souvent < 50 ms), améliore la réactivité et permet des usages en temps réel (voix, vidéo, jeu, assistance contextuelle).

    Impact sur l’architecture :

    • La distribution globale n’est plus « cloud centralisé », mais décentralisée en périphérie,
    • Les schémas deviennent multi-région, low-latency first,
    • On optimise non plus seulement le contenu, mais le calcul.

    Exemple : un modèle de traduction hébergé sur un edge node à Paris répond en 30 ms à un utilisateur lyonnais, contre 200 ms via un serveur aux États-Unis.

  • Client-side AI – AI at the edge

    L’« IA côté client » désigne l’exécution de modèles d’intelligence artificielle directement dans le navigateur ou l’appareil de l’utilisateur, sans transfert de données vers un serveur distant.

    L’« IA côté client » marque une rupture avec le modèle traditionnel du cloud, où l’IA nécessitait un appel serveur pour traiter chaque requête.

    Désormais, grâce à des avancées en compression de modèles, en accélération WebGPU et en optimisation pour le Web, des modèles d’IA de plusieurs milliards de paramètres comme Phi-4-mini (3,8 B de paramètres) intégré nativement à Microsoft Edge peuvent s’exécuter localement dans le navigateur.

    Cela permet des fonctionnalités telles que :

    • la génération de texte en temps réel (résumés, réécriture, traduction),
    • la personnalisation contextuelle (recommandations basées sur le contenu affiché),
    • l’assistance interactive (chat, aide à la saisie, correction),
    • le traitement sensible sans fuite de données (confidentialité renforcée).

    Les avantages sont multiples : latence quasi nulle, fonctionnement hors ligne, souveraineté des données, et réduction de la charge serveur. Ce paradigme redéfinit le navigateur : il n’est plus un « client » affichant du HTML, mais une plateforme d’exécution intelligente, capable de raisonner localement.

    Exemple concret : Dans Edge, un utilisateur peut sélectionner un paragraphe sur une page et demander « Résume ceci » — le modèle Phi-4-mini s’exécute entièrement dans le navigateur, sans envoyer le texte à Microsoft.

    Ce mouvement s’inscrit dans la tendance plus large de l’IA à la périphérie (edge AI), où la puissance cognitive migre des data centers vers les terminaux, au service de la performance, de l’éthique et de l’autonomie numérique.

  • Programmation assistée par l’IA

    La programmation assistée par l’IA est une approche de développement logiciel dans laquelle des systèmes d’intelligence artificielle (souvent basés sur des modèles de langage) aident les développeurs à écrire, comprendre, corriger ou documenter du code sans remplacer leur jugement ni leur responsabilité.

    L’IA agit comme un pair-programmeur virtuel, proposant du code en temps réel, mais l’humain valide, adapte et assume.

    Fonctionnement (cas concret : GitHub Copilot)

    Le développeur commence à taper une fonction en Python

    def calculate_monthly_budget(income, expenses):

    L’IA, entraînée sur des millions de lignes de code public, prédit la suite

    return income - sum(expenses)

    Le développeur accepte, modifie ou rejette la suggestion en s’appuyant sur sa compréhension métier et ses bonnes pratiques.

    Ce que l’IA peut faire (en 2026)

    TâcheExemple
    Auto-complétion intelligenteProposer une boucle for à partir d’un commentaire : # trier la liste par ordre alphabétique
    Génération de testsCréer des tests unitaires à partir d’une fonction
    Explication de codeRésumer en français ce qu’un script complexe fait
    Migration de langageTransformer du Python 2 en Python 3
    Détection de vulnérabilitésSignaler une injection SQL potentielle

    Limites et vigilances (essentielles pour un pro)

    RisqueExplication
    Code non sécuriséL’IA peut générer du code fonctionnel… mais vulnérable (ex. : sans échappement SQL)
    Biais de licenceModèles entraînés sur du code GitHub peuvent recopier du code sous licence restrictive (GPL, etc.) → risque juridique
    Illusion de compétenceUn débutant peut croire que le code est “correct” parce que l’IA l’a écrit
    Dépendance cognitiveMoins de mémorisation des syntaxes, mais aussi moins de compréhension profonde
    Vieillissement cachéLes suggestions deviennent obsolètes si le modèle n’est pas mis à jour (ex. : bonnes pratiques 2022 vs 2026)
  • IA Act

    Le règlement européen sur l’intelligence artificielle (IA Act) établit une classification par niveaux de risque pour encadrer les systèmes d’IA en fonction de leur impact potentiel sur les droits fondamentaux, la sécurité et le bien-être des personnes.

    1. Risques inacceptables (Unacceptable Risk)

    • Interdits par le règlement.
    • Exemples :
      • Systèmes de social scoring gouvernementaux (comme en Chine).
      • Manipulation subliminale ou exploitation de vulnérabilités (âge, handicap, etc.).
      • Reconnaissance biométrique en temps réel dans les espaces publics par les forces de l’ordre (sauf exceptions strictes).

    2. Risques élevés (High-Risk)

    • Soumis à des exigences strictes (transparence, traçabilité, évaluation de la conformité, gouvernance des données, supervision humaine, etc.).
    • Comprennent les systèmes utilisés dans :
      • L’infrastructure critique (énergie, transport).
      • L’éducation (ex. : outils d’évaluation automatisée).
      • L’emploi (ex. : tri automatisé de CV).
      • La justice, la migration, la santé, etc.
    • Ces systèmes doivent être inscrits dans une liste exhaustive de l’Annexe III du règlement.

    3. Risques limités ou minimes (Limited or Minimal Risk)

    • Non réglementés de manière contraignante, mais soumis à des obligations de transparence dans certains cas.
    • Exemples :
      • Chatbots (doivent indiquer qu’ils ne sont pas humains).
      • Systèmes de reconnaissance émotionnelle.
      • Contenu généré par IA (ex. : deepfakes → obligation de « watermarking » ou d’étiquetage).

    Cas particulier : modèles d’IA à usage général (General-Purpose AI – GPAI)

    • Inclut les grands modèles (ex. : LLM comme GPT, Llama, etc.).
    • Soumis à des obligations spécifiques selon leur niveau de capacité (ex. : évaluation des risques systémiques pour les GPAI avancés).
    • Encadrés notamment par le Code de pratique et les lignes directrices de la Commission européenne (voir les articles du site sur les Guidelines for GPAI Models et le Code of Practice).

    Artificialintelligenceact.eu

    Artificialintelligenceact.eu/fr/ai-act-explorer

  • Prompt engineering

    Le prompt enginering est l’art et la science de concevoir des instructions précises (les prompts) pour guider les modèles d’IA vers des réponses pertinentes, structurées et exploitables. Ce n’est pas juste poser une question — c’est orchestrer la pensée de l’IA, en lui donnant contexte, rôle, format, contraintes et exemples.

    C’est la différence entre dire “Raconte-moi une histoire” et “Rédige un résumé de 3 lignes d’un article sur l’IA, au ton professionnel, destiné à un public non technique.”

    Le prompt engineering, ce n’est pas parler à l’IA — c’est la diriger. Et comme un bon chef d’orchestre, tu dois connaître ton instrument, ton score… et savoir quand changer de partition.

    Quand s’en servir ?

    Dès que tu veux que l’IA agisse comme :

    • Un stratège (analyse, recommandation, plan)
    • Un opérateur (extraction, tri, transformation de données)
    • Un créatif (rédaction, scénario, storytelling)
    • Un assistant technique (code, documentation, débug)

    À éviter quand tu traites l’IA comme un simple chatbot : sans structure, le résultat est aléatoire et peu utilisable.

    Outils & plateformes pour maîtriser le prompt engineering

    Outils d’expérimentation rapide

    • Promptfoo – Compare plusieurs prompts sur un jeu de tests → trouve le meilleur.
    • PromptLayer – Trace, versionne et optimise tes prompts avec métriques.
    • LangSmith (by LangChain) – Debugge, évalue et améliore tes chaînes de prompts complexes.
    • Vellum – Plateforme collaborative pour tester, comparer et documenter des prompts.

    Modèles IA optimisés pour le prompting

    • ChatGPT (OpenAI) – Le plus connu, avec des modes avancés (GPT-4o, Code Interpreter).
    • Claude 3.5 Sonnet / Opus (Anthropic) – Excellents pour les longs contextes et le raisonnement structuré.
    • Gemini 1.5 Pro (Google) – Fort en multimodalité et en traitement de documents.
    • Perplexity AI – Moteur de recherche + IA, idéal pour des prompts orientés faits vérifiés.
    • Mistral Large / Mixtral – Open source, performants pour le prompting personnalisé.
    • Llama 3.1 (Meta) – Modèle open-source puissant, idéal pour expérimenter localement.

    Frameworks pour automatiser et industrialiser le prompt engineering

    • DSPy – Transforme les prompts en code modulaire, optimisable et portable. Parfait pour passer du “prompting artisanal” au “software d’IA”.
    • LangChain / LlamaIndex – Pour construire des pipelines d’IA avec prompts dynamiques, RAG, agents, etc.
    • Haystack – Framework open source pour créer des systèmes de recherche/answer avec prompts intelligents.

    Outils de benchmarking & évaluation

    • TruLens – Évalue la qualité des sorties (pertinence, factuel, biais, cohérence).
    • Ragas – Métriques automatiques pour les systèmes RAG (fidelité, pertinence, utilité).
    • DeepEval – Test unitaire pour prompts, avec assertions et scores personnalisés.

    Astuce pro

    Le meilleur prompt n’existe pas : il faut tester, mesurer, itérer. Utilise des jeux de tests (ex. : 10 cas typiques) et compare les résultats avec des métriques objectives (exactitude, temps de réponse, satisfaction utilisateur).


    Syn. : art du prompt

  • Évolution de l’IA

    L’évolution de l’IA désigne la progression des systèmes d’intelligence artificielle, du calcul automatique rigide vers des capacités de plus en plus humaines : apprendre, s’adapter, prédire, comprendre le langage, puis créer.

    Les 6 couches de complexité de l’IA

    Chaque couche repose sur la précédente. Plus on monte, plus l’IA devient intelligente, autonome et proche de l’humain.

    1. AlgorithmeLa base

    Définition : Suite d’étapes précises et sans ambiguïté pour résoudre un problème ou obtenir un résultat.

    Exemple : Un programme qui calcule la moyenne d’une liste de notes.
    Caractéristique : Pas d’apprentissage, pas d’adaptation — c’est une recette fixe.

    2. Machine Learning (Apprentissage automatique)L’apprentissage

    Définition : Système capable d’apprendre à partir de données, sans être programmé explicitement.

    Exemple : Un modèle qui apprend à reconnaître les chats dans des photos, en voyant des milliers d’images étiquetées.
    Caractéristique : Il s’améliore avec les données, mais ne “comprend” pas le langage ou le contexte.

    3. IA AdaptativeL’ajustement en temps réel

    Définition : IA qui s’adapte à son environnement ou à l’utilisateur en temps réel, sans reprogrammation.

    Exemple : Le clavier Gboard qui apprend ton style d’écriture ; ou Dia Browser qui change de rôle (tuteur, assistant, concierge) selon ce que tu fais dans chaque onglet.
    Caractéristique : Réactive, contextuelle, personnalisée.

    4. IA PrédictiveLa prédiction

    Définition : IA qui analyse des données passées pour prédire des événements futurs.

    Exemple : Netflix qui te propose un film parce que tu as aimé des films similaires ; ou Dia qui précharge une page parce qu’il sait que tu vas y aller.
    Caractéristique : Anticipative, basée sur des probabilités.

    5. Modèle de LangageLa compréhension et la production du langage humain

    Définition : IA entraînée sur des millions de textes pour comprendre, générer, traduire ou répondre en langage naturel.

    Exemple : ChatGPT, Claude, Llama 3, Mistral…
    Caractéristique : Peut écrire, discuter, expliquer — mais peut aussi halluciner (inventer des faits).

    6. IA GénérativeLa création

    Définition : IA capable de créer du contenu nouveau (texte, image, son, vidéo) à partir d’instructions (prompts) de l’utilisateur.

    Exemple : Midjourney (images), Murf AI (voix), Kling AI (vidéo), ou Dia Browser qui écrit avec toi, résume un article, ou crée un plan de voyage.
    Caractéristique : Créative, inspirante, parfois imprévisible — elle ne suit pas un script, elle imagine.