Guide Ollama : Installer et utiliser des LLM localement
Mise à jour :
Ollama est un outil révolutionnaire qui vous permet d’exécuter des modèles d’intelligence artificielle directement sur votre ordinateur, sans utiliser d’API payante. Imaginez avoir votre propre ChatGPT personnel, gratuit et privé!
Dans ce guide complet, vous découvrirez comment installer Ollama et commencer à utiliser des modèles de langage (LLM) en quelques minutes seulement.
Qu’est-ce qu’Ollama ?
Ollama est une plateforme open source qui simplifie l’installation et l’utilisation de modèles de langage de grande taille (LLM) sur votre machine locale.
Pourquoi choisir Ollama ?
- 🚀 Installation simple : Une seule commande pour démarrer
- 💰 Gratuit : Aucun coût d’utilisation contrairement aux API payantes
- 🔒 Privé : Vos données restent sur votre machine
- 🌐 Hors ligne : Fonctionne sans connexion internet
- 🎯 Polyvalent : Support de nombreux modèles populaires
Que pouvez-vous faire avec Ollama ?
Ollama vous permettra de :
- Créer un assistant personnel pour vos projets
- Générer du code et des scripts
- Traduire des textes dans différentes langues
- Résumer des documents
- Analyser des données textuelles
- Et bien plus encore !
Comment installer Ollama ?
Avant de commencer, vérifiez que votre système répond aux exigences minimales :
Configuration recommandée
Pour faire fonctionner Ollama de manière optimale, voici la configuration recommandée :
- RAM : 8 GB minimum (16 GB recommandé)
- Espace disque : 5-50 GB selon les modèles
- Processeur : CPU moderne 64-bit
- GPU (optionnel) : NVIDIA avec CUDA pour de meilleures performances
- Systèmes supportés :
- ✅ Windows 10/11
- ✅ macOS 10.15+
- ✅ Linux (Ubuntu, Debian, CentOS, etc.)
Installation d’Ollama
L’installation d’Ollama varie selon votre système d’exploitation. Suivez la section correspondante.
Installation sur Linux
Pour Linux, l’installation se fait via un script automatique :
# Télécharger et installer Ollamacurl -fsSL https://ollama.com/install.sh | sh
Vérification de l’installation :
# Vérifier que Ollama est installéollama --version
Si la commande retourne un numéro de version, l’installation est réussie ! Sinon vérifiez le service.
# Vérifier le service Ollamasudo systemctl status ollamasudo journalctl -u ollama -f
Installation sur Windows
- Téléchargez le fichier d’installation depuis ollama.com/download ↗
- Exécutez le fichier
.exe
téléchargé - Suivez l’assistant d’installation
- Redémarrez votre ordinateur si nécessaire
Vérification via PowerShell :
# Ouvrir PowerShell et testerollama --version
Installation sur macOS
Pour macOS, téléchargez l’application depuis le site officiel :
- Rendez-vous sur ollama.com/download ↗
- Téléchargez le fichier
.pkg
pour macOS - Double-cliquez et suivez l’installation
- Ollama sera disponible dans le Terminal
Test d’installation :
# Dans le Terminalollama --version
Comment utiliser Ollama ?
Une fois Ollama installé, il est temps de télécharger votre premier modèle.
Téléchargement du premier modèle
Je vous recommande de commencer par Llama 3.2, un modèle performant et accessible.
# Télécharger et installer Llama 3.2 (3B paramètres)ollama pull llama3.2
Cette commande va :
- Télécharger le modèle (environ 2 GB)
- Configurer automatiquement l’environnement
- Préparer le modèle pour son utilisation
Le temps de téléchargement sera variable en fonction de votre connexion internet et de la taille du modèle.
Quelques modèles populaires pour débutants
Ollama propose une bibliothèque riche de modèles. Voici les plus adaptés aux débutants :
Modèle | Taille | Usage | Commande |
---|---|---|---|
Llama 3.2 | 2-3 GB | Usage général, débutant | ollama pull llama3.2 |
Mistral | 4 GB | Code et texte | ollama pull mistral |
CodeLlama | 4 GB | Spécialisé code | ollama pull codellama |
Gemma | 2 GB | Rapide et efficace | ollama pull gemma |
Choix selon vos besoins
- Débutant absolu →
llama3.2
(plus petit, rapide) - Développeur →
codellama
(optimisé pour le code) - Usage mixte →
mistral
(bon compromis) - Machine limitée →
gemma
(plus léger)
Utilisation basique d’Ollama
Maintenant que tout est installé, découvrons comment utiliser Ollama au quotidien.
Démarrer une conversation
# Lancer une session interactive avec Llama 3.2ollama run llama3.2
Vous verrez apparaître une invite de commande interactive. Tapez votre premier prompt :
>>> Bonjour ! Comment ça va ?Bonjour ! Je vais bien, merci pour ta question. C'est agréable de discuter avec toi. Comment vas-tu aujourd'hui ? Qu'est-ce que tu veux discuter ?
Le modèle vous répondra en temps réel !
Exemples de conversations
Voici quelques exemples pratiques pour tester votre installation :
Génération de code :
>>> Écris une fonction Python pour calculer la factorielle
Traduction :
>>> Traduis "Hello world" en espagnol et en allemand
Explication technique :
>>> Explique-moi ce qu'est Docker en termes simples
Pour quitter la session il suffit de taper :
>>> /bye
Commandes essentielles d’Ollama
Maîtrisez ces commandes fondamentales pour une utilisation efficace d’Ollama.
Gestion des modèles
Pour gérer vos modèles, utilisez les commandes suivantes :
# Lister tous les modèles installésollama list
# Télécharger un nouveau modèleollama pull [nom-du-modèle]
# Supprimer un modèleollama rm [nom-du-modèle]
# Voir les informations d'un modèleollama show [nom-du-modèle]
Utilisation avancée
Pour exécuter des commandes plus complexes, vous pouvez utiliser des options supplémentaires.
# Exécuter une commande unique (sans mode interactif)ollama run llama3.2 "Explique-moi l'IA en 3 phrases"
# Utiliser un modèle spécifiqueollama run mistral "Écris un poème sur les océans"
Si vous lancer la commande run
sans avoir au préalablement téléchargé le
modèle, Ollama le fera automatiquement.
Configuration avancée
Pour optimiser votre expérience Ollama, voici quelques configurations
utiles. Pour cela, vous devrez non pas lancer le service mais utiliser la
commande ollama serve
.
Variables d’environnement
# Changer le répertoire de stockage des modèlesexport OLLAMA_MODELS="/path/to/models"
Optimisation mémoire
Si vous avez des problèmes de mémoire :
# Limiter l'utilisation mémoireexport OLLAMA_MAX_LOADED_MODELS=1export OLLAMA_MAX_QUEUE=4
Utilisation de GPU
Ollama prend en charge l’accélération GPU pour des performances améliorées. Vous retrouverez les instructions détaillées dans la documentation officielle ↗.
Intégration avec d’autres outils
Ollama s’intègre facilement avec d’autres outils de développement.
Utiliser l’API Ollama
Ollama expose une API REST sur le port 11434 :
Exemple d’utilisation avec curl :
# Test de l'APIcurl http://localhost:11434/api/generate \ -d '{ "model": "llama3.2", "prompt": "Pourquoi le ciel est bleu ?", "stream": false }'
Vous retrouver les endpoint et la documentation complète de l’API ici ↗.
Intégration Python
Si vous souhaitez intégrer Ollama dans vos scripts Python, voici un
exemple simple utilisant la bibliothèque litellm
:
import litellm
# Même code pour tous les modèles - seul le nom change !response = litellm.completion( model="ollama/llama3.2", messages=[{"role": "user", "content": "C'est quoi Ansible !"}])print(response.choices[0].message['content'])
Dépannage des problèmes courants
Voici les solutions aux problèmes les plus fréquents avec Ollama.
Problème de mémoire insuffisante
Symptôme : Erreur “Out of memory” ou plantage
Solutions :
- Fermer les applications inutiles
- Choisir un modèle plus petit (
gemma
au lieu dellama3.2
) - Augmenter la mémoire virtuelle
# Vérifier l'utilisation mémoirefree -h
# Utiliser un modèle plus légerollama pull gemma:2b
Service non démarré
Symptôme : “Connection refused” ou “Service unavailable”
Solutions :
# Redémarrer le servicesudo systemctl restart ollama
# Vérifier les processusps aux | grep ollama
# Vérifier les logssudo journalctl -u ollama -f
Modèle non trouvé
Symptôme : “Model not found” lors de l’exécution
Solutions :
# Vérifier les modèles installésollama list
# Réinstaller le modèleollama pull llama3.2
# Utiliser le nom exact du modèleollama run llama3.2:latest
Problèmes de réseau
Symptôme : Échec de téléchargement des modèles
Solutions :
- Vérifier la connexion internet
- Configurer un proxy si nécessaire
- Retry le téléchargement
# Retry avec timeout plus longollama pull llama3.2 --timeout 300
Conflits de ports
Symptôme : Port 11434 déjà utilisé
Solutions :
# Changer le portexport OLLAMA_HOST="127.0.0.1:8080"ollama serve
# Vérifier les ports utilisésnetstat -tulpn | grep 11434
Cas d’usage pratiques
Découvrez des applications concrètes d’Ollama dans différents domaines.
- Assistant de programmation : Utilisez Ollama comme copilote de code :
ollama run codellama "Explique ce code Python et suggère des améliorations:def fibonacci(n): if n <= 1: return n return fibonacci(n-1) + fibonacci(n-2)"
- Traduction de documents : Automatisez vos traductions :
ollama run llama3.2 "Traduis ce texte anglais en français professionnel:'We are pleased to announce the launch of our new product'"
- Génération de contenu : Créez du contenu marketing :
ollama run mistral "Écris une description produit attrayante pour une application de fitness mobile"
- Analyse de données : Analysez vos données textuelles :
ollama run llama3.2 "Analyse le sentiment de ce commentaire client:'Le produit est correct mais la livraison était très lente'"
Conclusion
Félicitations ! Vous maîtrisez maintenant les bases d’Ollama. Cet outil puissant vous ouvre les portes de l’intelligence artificielle locale.
- Prochaines étapes :
- Expérimentez avec différents modèles
- Intégrez Ollama dans vos projets
- Explorez l’API REST pour des applications avancées
- Rejoignez la communauté pour partager vos expériences
Ollama transforme votre ordinateur en station IA personnelle. L’aventure ne fait que commencer !
Plus d’infos
Approfondissez vos connaissances avec ces ressources utiles.
- Site web : ollama.com ↗
- GitHub : github.com/ollama/ollama ↗