Ollama

Ollama est un outil open-source conçu pour exécuter, gérer et interagir localement avec des modèles de langage de grande taille (LLM) comme Llama 2, Mistral, Phi-2 ou Gemma, directement sur votre machine, sans dépendre d’une connexion Internet ou de services cloud.

Une fois les modèles téléchargés (via ollama pull <nom-modèle>), vous pouvez les utiliser offline, sans aucune connexion.

Ollama permet aussi d’interagir avec des modèles Deepseek comme Deepseek-R1, Deepseek-Coder, ou d’autres variantes. Cela nécessite néanmoins une configuration spécifique car ces modèles ne sont pas inclus nativement dans la bibliothèque officielle d’Ollama.

Il simplifie le déploiement et l’expérimentation avec des LLM en offrant une interface simple (notamment en ligne de commande) et une bibliothèque de modèles pré-optimisés.

Il permet de tester des LLM sans dépendre d’API payantes (comme OpenAI).

Les données restent en local ce qui est idéal pour la confidentialité.

Ollama.com

Librairie Deepseek pour Ollama