Discipline : Architecture de l’information et Web immuable

Organisation, classement et pérennisation des connaissances via taxonomies, ontologies et protocoles décentralisés comme IPFS ou le Web sémantique.
IPFS, Web immuable, HAL, Wikidata, JSON-LD, ontologie, sauvegarde culturelle, résilience documentaire

  • Civic tech de l’information et des communs

    Il s’agit d’une branche de la civic tech centrée sur :

    • L’accès équitable, libre et durable à l’information publique, culturelle ou scientifique
    • La construction, la préservation et la diffusion de communs informationnels (bases de données publiques, archives ouvertes, contenus éducatifs libres, etc.)
    • L’interopérabilité, la réutilisabilité et la découvrabilité des ressources numériques
    • L’autonomie des structures intermédiaires (bibliothèques, médiathèques, centres culturels, associations) dans leur capacité à gérer, structurer et partager leurs propres contenus sans dépendre de géants technologiques

    Cette approche privilégie :

    • Des infrastructures légères, sobres et auto-hébergeables
    • Des CMS documentaires ou bases de connaissances orientés métadonnées, accessibilité et pérennité
    • Des moteurs de recherche internes intelligents, respectueux de la vie privée
    • Une architecture de l’information claire, inclusive et orientée usages publics

    Sous-domaines illustratifs

    1. Infrastructures documentaires citoyennes
      → Outils comme Omeka S, Kiwix, Publik, Archifiltre, ou des CMS sobres (Hugo, PubliForge, Dotclear, SPIP) pour structurer et diffuser des collections patrimoniales, éducatives ou associatives.
    2. Médiation numérique et accès public à l’information
      → Interfaces web accessibles dans les bibliothèques/médiathèques, bornes locales hors ligne, portails documentaires collaboratifs.
    3. Communs numériques locaux ou sectoriels
      → Bases de données partagées entre acteurs culturels, plateformes de mutualisation de ressources (ex. catalogues de médiathèques interconnectés via des API ou protocoles ouverts).
    4. Technologies de la résilience informationnelle
      → Auto-hébergement, formats ouverts, sauvegardes distribuées (IPFS, Dat), indexation sémantique (schema.org, Wikidata), compatibilité avec Google Dataset Search ou HAL.
    5. Design inclusif et sobre pour les services publics numériques
      → UX centrée sur les publics fragiles ou éloignés du numérique, interfaces WCAG/RGAA, absence de tracking, performances optimisées même en bas débit.
  • Système de fichiers distribué

    Un système de fichiers distribué est un moyen de gérer du stockage à grande échelle de façon fiable et collaborative, en répartissant les données sur un réseau d’ordinateurs

    Un système de fichiers distribué est comme une bibliothèque géante dont les livres sont répartis dans plusieurs bâtiments, mais que vous pouvez consulter depuis un seul endroit.

    Il permet de stocker des fichiers sur plusieurs ordinateurs en même temps, tout en les faisant apparaître comme s’ils étaient sur un seul disque.

    Cela rend le stockage plus résistant (si un ordinateur tombe en panne, les fichiers ne disparaissent pas), plus rapide (plusieurs machines peuvent travailler en parallèle), et évolutif (on peut ajouter de nouveaux ordinateurs quand on manque de place).

    Exemples de systèmes de fichiers distribués

    NomÀ quoi ça sert ?Pour qui / dans quels cas ?
    HDFS (Hadoop Distributed File System)Stocke de très gros volumes de données pour l’analyse (big data)Entreprises ou chercheurs traitant des millions de documents, logs, ou données scientifiques
    CephOffre du stockage unifié : fichiers, blocs (comme un disque dur virtuel) et objets (comme dans le cloud)Infrastructures cloud privées, centres de données modernes
    GlusterFSCrée un espace de stockage partagé à partir de serveurs standardsPetites/moyennes infrastructures auto-hébergées, web clusters
    IPFS (InterPlanetary File System)Stocke des fichiers de façon décentralisée sur Internet, sans serveur centralProjets web résilients, archivage décentralisé, Web3
    LustreAccélère l’accès aux données dans les supercalculateursCalcul scientifique intensif (météo, physique, génomique)
    MinIOStockage objet haute performance, compatible avec Amazon S3Développeurs cloud, microservices, sauvegardes automatisées
  • Automatisation de workflows

    L’automatisation de worflows consiste à relier entre eux des logiciels ou services pour qu’ils échangent des données et enchaînent des actions sans intervention manuelle — comme un assistant numérique qui exécute des routines à ta place.

    Quand s’en servir ?

    Dès qu’une tâche revient plusieurs fois : générer des rapports, accueillir de nouveaux collaborateurs, transférer des fichiers, envoyer des notifications, ou mettre à jour des bases de données.

    Règle d’or : si tu le fais une deuxième fois, c’est qu’il est temps de l’automatiser.

    Outils populaires

    • Make (anciennement Integromat) – Interface visuelle puissante pour créer des workflows complexes avec conditions, boucles, données structurées et erreurs gérées. Idéal pour les utilisateurs avancés.
    • Zapier – Solution grand public la plus connue : simple, rapide à mettre en place, avec des centaines d’applications intégrées. Parfait pour les workflows linéaires et les non-techniciens.
    • n8n – Plateforme open source, auto-hébergeable, avec une logique de « nœuds » très flexible. Très appréciée des équipes tech soucieuses de confidentialité, de contrôle et de coûts.
    • Bardeen – Se distingue par son intégration directe dans le navigateur : il peut automatiser des actions sur des pages web (ex. : extraire des profils LinkedIn, sauvegarder dans Notion) via des « playbooks » simples ou avancés.
    • Pabbly Connect – Alternative économique à Zapier, avec des fonctionnalités similaires (workflow builder, webhooks, filtres) à un prix plus abordable, surtout pour les petites structures.
    • Automatisch – Alternative open source à Zapier, inspirée par n8n mais plus proche de l’expérience utilisateur de Zapier. Auto-hébergeable et légère.
    • Huginn – Outil open source pour créer des « agents logiciels » qui surveillent le web, envoient des alertes, extraient des données ou déclenchent des actions. Très puissant, mais nécessite des compétences techniques.
    • Activepieces – Open source, visuel, auto-hébergeable, avec un éditeur de workflow semblable à Make. Grandit rapidement grâce à sa communauté.
    • Tray.io – Orienté entreprise, avec des workflows hautement personnalisables, gestion des erreurs avancée, et intégration de code personnalisé. Cible les processus métiers complexes (sales, HR, finance).
    • Microsoft Power Automate – Natif dans l’écosystème Microsoft (Teams, SharePoint, Outlook, etc.). Très utilisé dans les grandes organisations pour automatiser les processus internes.
    • IFTTT – Pour les automatisations grand public ultra-simples (ex. : “si nouvelle photo sur Instagram → sauvegarder dans Google Photos”). Moins puissant, mais très accessible.
    • Node-RED – Plateforme open source basée sur Node.js, conçue à l’origine pour l’IoT mais désormais utilisée pour tout type de workflow logiciel, notamment avec API et MQTT. Très flexible pour les développeurs.

    Le choix de l’outil dépend du besoin

    • Simplicité → Zapier, IFTTT
    • Puissance + flexibilité → Make, Tray.io
    • Contrôle total / confidentialité → n8n, Activepieces, Automatisch
    • Automatisation web / scraping / actions manuelles → Bardeen
    • Intégration système / IoT / dev → Node-RED, Huginn

  • Knowledge Graph Optimization – KGO

    Optimisation centrée sur les entités, relations et données structurées pour alimenter les graphes de connaissances (Google Knowledge Graph, Wikidata, etc.).

    Les IA génératives puisent leurs faits dans ces graphes. Plus vous êtes cité comme source d’entité, plus vous êtes “vrai” pour l’IA.

    Outils

    • Google Knowledge Graph API – Exploration d’entités.
    • Wikidata – Créer ou enrichir votre fiche entité.
    • Schema Markup Generator (Schema.org) – JSON-LD pour Person, Organization, Article, etc.
    • InLinks / Kalicube – Cartographie sémantique par entités.
    • Entity Validation Tools – Vérifier la cohérence entre vos pages et les entités externes.
  • Relais IPFS locaux

    Nœuds IPFS auto-hébergés, situés à l’échelle d’un foyer, d’un collectif, d’une bibliothèque ou d’un territoire, dont la fonction est de « relayer » (épingler, pin) des contenus décentralisés afin d’en garantir la persistance, l’accessibilité hors ligne et la résistance à la censure.

    Contrairement à un hébergement classique (sur un serveur unique), un relais IPFS local :

    • ne dépend d’aucun fournisseur centralisé (pas de Cloudflare, pas d’AWS),
    • participe à un réseau pair-à-pair mondial tout en ancrant la mémoire localement,
    • permet d’accéder au contenu même sans internet, si le relais est sur le même réseau local.
  • Plateforme numérique

    Environnement technologique intégré souvent en ligne qui permet de créer, héberger, gérer et distribuer des contenus, services ou interactions, en réunissant infrastructures, interfaces, données et règles de gouvernance.

    Elle agit comme un socle commun pour utilisateurs, développeurs et organisations (ex. : WordPress, Omeka S, Google Drive, GitHub).

    C’est un système technologique intégré local ou en ligne qui fournit une infrastructure commune pour la production, la gestion, la circulation et parfois la monétisation de contenus, services ou interactions numériques. Une plateforme numérique repose sur une combinaison de :

    • logiciels applicatifs (CMS, LMS, bases de données, API),
    • protocoles d’interopérabilité (REST, ActivityPub, OAI-PMH),
    • modèles de gouvernance (politiques d’accès, modération, propriété des données),
    • et souvent une économie de plateforme (gratuité conditionnelle, abonnements, extractivisme des données).

    Contrairement à un simple outil isolé, une plateforme crée un écosystème où plusieurs acteurs interagissent : contributeurs, administrateurs, visiteurs, algorithmes, voire agents tiers (extensions, bots, services externes).

    Exemples selon les usages :

    • Documentaires / culturels :
      • Omeka S (gestion de collections patrimoniales avec liens sémantiques),
      • WordPress + plugins structurants (comme Custom Post Type UI, WP REST API, ou Schema Pro pour le SEO documentaire),
      • Wikibase (infrastructure derrière Wikidata, pour la modélisation de connaissances).
    • Collaboration / formation :
      • Moodle (plateformes pédagogiques),
      • Nextcloud (alternative souveraine à Google Drive, avec gestion de fichiers, calendriers et apps collaboratives).
    • Développement / automatisation :
      • GitHub (hébergement de code + CI/CD + gestion de projet),
      • Hugging Face (partage et déploiement de modèles d’IA),
      • IPFS (plateforme décentralisée de stockage résilient).

    Outils et technologies de plateformes numériques (communication et diffusion)

    1. Plateformes libres & auto-hébergeables (recommandées)

    OutilTypeCas d’usageSouveraineté
    WordPressCMSSites documentaires, blogs culturels, portfoliosThème personnalisé + plugins légers
    Omeka SPlateforme patrimonialeBases de connaissances, collections culturelles, liens sémantiquesNatif RDF, liens vers Wikidata, modules modulaires
    MastodonRéseau social fédéréCommunautés thématiques Auto-hébergé, protocole ActivityPub
    PeerTubePlateforme vidéoDiffusion de contenus pédagogiques ou culturelsStreaming décentralisé, pas de bande passante centralisée
    WriteFreelyBlogging fédéréEssais longs, récits, documentation narrativeMinimaliste, compatible Fediverse
    FreshRSS / MinifluxAgrégateur de fluxVeille documentaire, syndication de contenusAuto-hébergeable, RSS/Atom

    2. Générateurs de sites statiques (performance + sécurité)

    OutilAvantage
    AstroContenu statique + interactivité ciblée (« Islands »), zéro JS par défaut
    HugoTrès rapide, idéal pour documentation technique ou culturelle
    JekyllIntégré à GitHub Pages, mais préférer déploiement local (GitLab CI, NGINX)

    Ces outils produisent des sites rapides, sécurisés, versionnables, parfaits pour la diffusion de contenus figés (articles, notices, ressources pédagogiques).

    3. Protocoles et standards ouverts (interopérabilité)

    TechnoRôle
    ActivityPubFédération sociale (Mastodon, PeerTube, etc.) → sortir des silos
    RSS / Atom / JSON FeedSyndication passive, indépendante des algorithmes
    WebSubNotification en temps réel des mises à jour
    Schema.org (JSON-LD)Rendre le contenu compréhensible par les moteurs et agents IA
    OAI-PMHPartage de métadonnées pour archives académiques (HAL, bases institutionnelles)

    4. Infrastructures de diffusion souveraines

    OutilFonction
    NGINX / CaddyServeur web léger, HTTPS automatique
    TraefikReverse proxy dynamique (idéal avec Docker)
    MinIOStockage objet compatible S3 (pour médias, exports)
    IPFSDiffusion résiliente, hors serveur centralisé
    Synology NAS + Web StationHébergement local pour petits projets (ex. : site de classe)

    5. Outils d’interaction éthique (pas de tracking)

    OutilUsage
    Plausible AnalyticsMesure de fréquentation RGPD-compliant, auto-hébergeable
    Commento / IssoCommentaires sans compte ni tracking
    ShariffBoutons de partage sans cookies tiers
    SimpleWebmentionsNotifications quand ton contenu est cité ailleurs

    6. À éviter (risques extractivistes)

    PlateformePourquoi l’éviter
    Facebook Pages / InstagramPropriété du contenu, algorithme opaque, tracking massif
    YouTubeMonétisation intrusive, recommandations manipulatrices
    Wix / SquarespaceVerrouillage technique, pas d’export complet
    Google SitesDépendance totale à l’écosystème Google
    Notion (publique)Pas de contrôle sur l’archivage, format propriétaire

    Checklist pour choisir une plateforme

    • Code source libre ou au moins export complet des données
    • Auto-hébergeable ou hébergeable chez un tiers de confiance (O2Switch, etc.)
    • Interopérable (RSS, ActivityPub, Schema.org, API ouverte)
    • Accessible (WCAG AA minimum)
    • Éco-conçue (pas de JS superflu, faible consommation)
    • Documentée (README, schémas, bonnes pratiques partagées)
  • Modélisation des données

    La modélisation des données consiste à concevoir la structure logique qui décrit comment les données sont organisées, liées et stockées.

    Dans un monde où les données proviennent de sources très diverses structurées (bases SQL), semi-structurées (JSON, logs) et non structurées (textes, images) — la modélisation classique (tables rigides) devient insuffisante.

    Il faut alors adopter des schémas flexibles ou des modèles orientés graphe, capables de :

    • Accueillir des formats variés,
    • Représenter des relations complexes (ex. : « cet utilisateur a consulté cette page, puis a mentionné ce lieu sur Twitter »),
    • Évoluer sans casser l’ensemble du système.

    L’objectif n’est plus seulement de stocker, mais de relier avec du sens une démarche au cœur du web sémantique et de la documentation intelligente.

    Exemple concret : la vue 360° du client

    Pour comprendre un client dans sa globalité, une organisation peut fusionner :

    SourceType de donnéesStructure
    CRM (ex. : HubSpot, Salesforce)Identité, historique d’achat, statutStructurée (tables relationnelles)
    Logs de navigation (site web, app)Pages visitées, temps passé, parcoursSemi-structurée (JSON, événements horodatés)
    Réseaux sociaux (commentaires, mentions)Opinions, émotions, hashtagsNon structurée (texte libre, images)

    Comment les relier ?

    • Un modèle en graphe permet de représenter :
      • Le client comme un nœud central,
      • Ses interactions (achats, clics, commentaires) comme des arêtes,
      • Les entités mentionnées (produits, lieux, émotions) comme d’autres nœuds.
    • Grâce à des techniques comme le NER (Named Entity Recognition) ou le linking sémantique, on peut relier « Paris » dans un tweet à wd:Q90 (Wikidata), ou « produit X » à une fiche produit normalisée.

    Résultat : une représentation riche, dynamique et interopérable du client, bien plus utile qu’un simple tableau Excel.

    Technologies associées

    ApprocheOutils / standards
    Modèle en grapheNeo4j, Apache Jena, GraphDB, RDF/OWL
    Schémas flexiblesJSON Schema, Avro, MongoDB (schema validation optionnelle)
    Lien sémantiqueWikidata, Schema.org, ontologies SSN/SOSA (IoT), SKOS
    Enrichissement NLPspaCy, Stanza, transformers (Hugging Face)
  • Recherche en SIC

    La recherche en SIC (Sciences de l’Information et de la Communication) est un champ académique interdisciplinaire qui étudie les processus de production, de circulation, de réception et de transformation de l’information et des messages dans les sociétés contemporaines, à l’ère des médias, du numérique et des technologies de communication.

    Domaines d’étude principaux :

    Théories de la communication
    → De Shannon-Weaver à la sémiotique, en passant par les théories critiques (École de Francfort), les cultural studies ou la socio-sémiotique.

    Médias et journalisme
    → Évolution des pratiques journalistiques, crise de la presse, infox, rôle des plateformes.

    Communication publique et politique
    → Campagnes électorales, communication institutionnelle, désinformation, influence.

    Culture numérique et usages des technologies
    → Réseaux sociaux, algorithmes, cultures participatives, vie privée, digital divide.

    Industries culturelles et créatives
    → Cinéma, musique, jeux vidéo, plateformes de streaming, économie de l’attention.

    Communication organisationnelle
    → Identité, marque, communication interne, RSE, transformation numérique des entreprises.

    Éducation aux médias et à l’information (EMI)
    → Littératie médiatique, compétences critiques, résistance à la manipulation.

    Méthodes de recherche :

    • Qualitatives : entretiens, ethnographie, analyse de discours, observation.
    • Quantitatives : enquêtes, analyses statistiques, data mining.
    • Sémiotiques / textuelles : analyse iconographique, narratologique, rhétorique.
    • Expérimentales : tests d’usabilité, eye-tracking, A/B testing (surtout en communication digitale).

    Enjeux actuels en SIC :

    • L’impact de l’IA générative sur la création et la vérification de l’information.
    • La fragmentation des espaces publics sous l’effet des algorithmes.
    • La résilience des modèles médiatiques face à la concentration technologique.
    • Les nouvelles formes de participation citoyenne (activisme numérique, fact-checking collaboratif).
    • Les questions d’éthique, de gouvernance des données et de souveraineté informationnelle.
  • Render

    Render est une plateforme PASS d’hébergement et de déploiement cloud moderne, adaptée aux équipes de développement cherchant simplicité, automatisation et conformité.

    Render.com

  • Architecte de l’information numérique

    Cartographe des savoirs, pas simple arboresceur de menus.

    Idées reçues fréquentes

    Il dessine des maquettes de navigation ou organise des rubriques dans un CMS, comme on range une armoire.

    Cette vision réductrice confond classement administratif et conception d’un écosystème de sens. Elle oublie que l’information, mal structurée, peut effacer, orienter ou manipuler.

    Ses missions

    L’architecte de l’information numérique conçoit la structure sémantique et fonctionnelle des systèmes d’information (sites web, plateformes documentaires, bases de connaissances, LMS, etc.) afin que les usagers puissent trouver, comprendre, utiliser et transmettre l’information de façon autonome.

    Il analyse les besoins des publics, modélise les contenus, choisit les taxonomies, métadonnées et schémas de données (JSON-LD, Schema.org, Dublin Core…), et veille à l’interopérabilité, à la découvrabilité (Google Dataset Search, Wikidata, HAL) et à l’accessibilité cognitive.

    Il travaille en amont du design et du développement, souvent avec des outils comme Omeka S, WordPress (structuré), ou des bases NoSQL orientées document.

    Le sens du métier

    Donner à l’information une forme juste, traversable et durable où chaque choix de classification, de lien ou de vocabulaire contribue à l’équité cognitive, à la résilience documentaire et à la transmission des savoirs, plutôt qu’à leur captation ou leur fragmentation.

    Champ d’action

    • Cartographier les besoins utilisateurs et les parcours d’information
    • Modéliser les contenus et les relations sémantiques (ontologies légères, schémas entité-relation)
    • Concevoir la navigation, les systèmes de recherche et les hiérarchies de contenus
    • Définir les métadonnées, vocabulaires contrôlés et politiques de classification éthique
    • Baliser sémantiquement les contenus (JSON-LD, RDFa) pour la découvrabilité machine
    • Collaborer avec designers, développeurs, bibliothécaires, éditeurs et équipes pédagogiques
    • Évaluer l’efficacité des structures via tests utilisateurs ou analytics sémantiques

    Outils et terrains

    Omeka S, WordPress (avec pods ou custom post types), Notion (pour la modélisation), Figma (wireframing sémantique), Protégé (ontologies simples), Google Structured Data Testing Tool, Wikidata, HAL, JSON Schema, Markdown + YAML pour les données ouvertes
    (Préférence pour les outils auto-hébergés, open source et orientés document : DDEV, LocalWP, NAS pour les archives)

    Confusions fréquentes

    Pas un webdesigner : il ne choisit pas les couleurs, mais la logique sous-jacente.

    Pas un référenceur technique (SEO) : il rend l’information découvrable par structure, pas par optimisation algorithmique aveugle.

    Pas un gestionnaire de contenu : il ne publie pas, il conçoit le champ dans lequel on publie.

    Rémunération indicative (France, brut annuel)

    – Junior (0–3 ans) : 35 000 € – 45 000 €
    – Confirmé·e (3–6 ans) : 45 000 € – 60 000 €
    – Senior / Lead (6+ ans, dans des projets complexes ou culturels) : 60 000 € – 80 000 €+
    (Les missions dans le patrimoine, l’éducation ou les institutions publiques peuvent valoriser l’expertise plus que le marché privé.)

    Où le rencontrer ?

    Musées, archives, bibliothèques, éditeurs numériques, plateformes éducatives, collectifs de documentation résiliente, startups de l’open knowledge, services publics numériques, projets de mémoire collective.

    Autres appellations

    Concepteur de systèmes d’information, Spécialiste en organisation de l’information, Information Designer (dans un sens structurel, non graphique), Chargé·e de structuration sémantique