Aller au contenu

Guide Ollama : Installer et utiliser des LLM localement

Mise à jour :

logo ollama

Ollama est un outil révolutionnaire qui vous permet d’exécuter des modèles d’intelligence artificielle directement sur votre ordinateur, sans utiliser d’API payante. Imaginez avoir votre propre ChatGPT personnel, gratuit et privé!

Dans ce guide complet, vous découvrirez comment installer Ollama et commencer à utiliser des modèles de langage (LLM) en quelques minutes seulement.

Qu’est-ce qu’Ollama ?

Ollama est une plateforme open source qui simplifie l’installation et l’utilisation de modèles de langage de grande taille (LLM) sur votre machine locale.

Pourquoi choisir Ollama ?

  • 🚀 Installation simple : Une seule commande pour démarrer
  • 💰 Gratuit : Aucun coût d’utilisation contrairement aux API payantes
  • 🔒 Privé : Vos données restent sur votre machine
  • 🌐 Hors ligne : Fonctionne sans connexion internet
  • 🎯 Polyvalent : Support de nombreux modèles populaires

Que pouvez-vous faire avec Ollama ?

Ollama vous permettra de :

  • Créer un assistant personnel pour vos projets
  • Générer du code et des scripts
  • Traduire des textes dans différentes langues
  • Résumer des documents
  • Analyser des données textuelles
  • Et bien plus encore !

Comment installer Ollama ?

Avant de commencer, vérifiez que votre système répond aux exigences minimales :

Configuration recommandée

Pour faire fonctionner Ollama de manière optimale, voici la configuration recommandée :

  • RAM : 8 GB minimum (16 GB recommandé)
  • Espace disque : 5-50 GB selon les modèles
  • Processeur : CPU moderne 64-bit
  • GPU (optionnel) : NVIDIA avec CUDA pour de meilleures performances
  • Systèmes supportés :
    • Windows 10/11
    • macOS 10.15+
    • Linux (Ubuntu, Debian, CentOS, etc.)

Installation d’Ollama

L’installation d’Ollama varie selon votre système d’exploitation. Suivez la section correspondante.

Installation sur Linux

Pour Linux, l’installation se fait via un script automatique :

Terminal window
# Télécharger et installer Ollama
curl -fsSL https://ollama.com/install.sh | sh

Vérification de l’installation :

Terminal window
# Vérifier que Ollama est installé
ollama --version

Si la commande retourne un numéro de version, l’installation est réussie ! Sinon vérifiez le service.

Terminal window
# Vérifier le service Ollama
sudo systemctl status ollama
sudo journalctl -u ollama -f

Installation sur Windows

  1. Téléchargez le fichier d’installation depuis ollama.com/download
  2. Exécutez le fichier .exe téléchargé
  3. Suivez l’assistant d’installation
  4. Redémarrez votre ordinateur si nécessaire

Vérification via PowerShell :

Terminal window
# Ouvrir PowerShell et tester
ollama --version

Installation sur macOS

Pour macOS, téléchargez l’application depuis le site officiel :

  1. Rendez-vous sur ollama.com/download
  2. Téléchargez le fichier .pkg pour macOS
  3. Double-cliquez et suivez l’installation
  4. Ollama sera disponible dans le Terminal

Test d’installation :

Terminal window
# Dans le Terminal
ollama --version

Comment utiliser Ollama ?

Une fois Ollama installé, il est temps de télécharger votre premier modèle.

Téléchargement du premier modèle

Je vous recommande de commencer par Llama 3.2, un modèle performant et accessible.

Terminal window
# Télécharger et installer Llama 3.2 (3B paramètres)
ollama pull llama3.2

Cette commande va :

  • Télécharger le modèle (environ 2 GB)
  • Configurer automatiquement l’environnement
  • Préparer le modèle pour son utilisation

Le temps de téléchargement sera variable en fonction de votre connexion internet et de la taille du modèle.

Quelques modèles populaires pour débutants

Ollama propose une bibliothèque riche de modèles. Voici les plus adaptés aux débutants :

ModèleTailleUsageCommande
Llama 3.22-3 GBUsage général, débutantollama pull llama3.2
Mistral4 GBCode et texteollama pull mistral
CodeLlama4 GBSpécialisé codeollama pull codellama
Gemma2 GBRapide et efficaceollama pull gemma

Choix selon vos besoins

  • Débutant absolullama3.2 (plus petit, rapide)
  • Développeurcodellama (optimisé pour le code)
  • Usage mixtemistral (bon compromis)
  • Machine limitéegemma (plus léger)

Utilisation basique d’Ollama

Maintenant que tout est installé, découvrons comment utiliser Ollama au quotidien.

Démarrer une conversation

Terminal window
# Lancer une session interactive avec Llama 3.2
ollama run llama3.2

Vous verrez apparaître une invite de commande interactive. Tapez votre premier prompt :

>>> Bonjour ! Comment ça va ?
Bonjour ! Je vais bien, merci pour ta question. C'est agréable de discuter avec toi. Comment vas-tu aujourd'hui ? Qu'est-ce que tu veux discuter ?

Le modèle vous répondra en temps réel !

Exemples de conversations

Voici quelques exemples pratiques pour tester votre installation :

Génération de code :

>>> Écris une fonction Python pour calculer la factorielle

Traduction :

>>> Traduis "Hello world" en espagnol et en allemand

Explication technique :

>>> Explique-moi ce qu'est Docker en termes simples

Pour quitter la session il suffit de taper :

>>> /bye

Commandes essentielles d’Ollama

Maîtrisez ces commandes fondamentales pour une utilisation efficace d’Ollama.

Gestion des modèles

Pour gérer vos modèles, utilisez les commandes suivantes :

Terminal window
# Lister tous les modèles installés
ollama list
# Télécharger un nouveau modèle
ollama pull [nom-du-modèle]
# Supprimer un modèle
ollama rm [nom-du-modèle]
# Voir les informations d'un modèle
ollama show [nom-du-modèle]

Utilisation avancée

Pour exécuter des commandes plus complexes, vous pouvez utiliser des options supplémentaires.

Terminal window
# Exécuter une commande unique (sans mode interactif)
ollama run llama3.2 "Explique-moi l'IA en 3 phrases"
# Utiliser un modèle spécifique
ollama run mistral "Écris un poème sur les océans"

Si vous lancer la commande run sans avoir au préalablement téléchargé le modèle, Ollama le fera automatiquement.

Configuration avancée

Pour optimiser votre expérience Ollama, voici quelques configurations utiles. Pour cela, vous devrez non pas lancer le service mais utiliser la commande ollama serve.

Variables d’environnement

Terminal window
# Changer le répertoire de stockage des modèles
export OLLAMA_MODELS="/path/to/models"

Optimisation mémoire

Si vous avez des problèmes de mémoire :

Terminal window
# Limiter l'utilisation mémoire
export OLLAMA_MAX_LOADED_MODELS=1
export OLLAMA_MAX_QUEUE=4

Utilisation de GPU

Ollama prend en charge l’accélération GPU pour des performances améliorées. Vous retrouverez les instructions détaillées dans la documentation officielle.

Intégration avec d’autres outils

Ollama s’intègre facilement avec d’autres outils de développement.

Utiliser l’API Ollama

Ollama expose une API REST sur le port 11434 :

Exemple d’utilisation avec curl :

Terminal window
# Test de l'API
curl http://localhost:11434/api/generate \
-d '{
"model": "llama3.2",
"prompt": "Pourquoi le ciel est bleu ?",
"stream": false
}'

Vous retrouver les endpoint et la documentation complète de l’API ici.

Intégration Python

Si vous souhaitez intégrer Ollama dans vos scripts Python, voici un exemple simple utilisant la bibliothèque litellm :

import litellm
# Même code pour tous les modèles - seul le nom change !
response = litellm.completion(
model="ollama/llama3.2",
messages=[{"role": "user", "content": "C'est quoi Ansible !"}]
)
print(response.choices[0].message['content'])

Dépannage des problèmes courants

Voici les solutions aux problèmes les plus fréquents avec Ollama.

Problème de mémoire insuffisante

Symptôme : Erreur “Out of memory” ou plantage

Solutions :

  1. Fermer les applications inutiles
  2. Choisir un modèle plus petit (gemma au lieu de llama3.2)
  3. Augmenter la mémoire virtuelle
Terminal window
# Vérifier l'utilisation mémoire
free -h
# Utiliser un modèle plus léger
ollama pull gemma:2b

Service non démarré

Symptôme : “Connection refused” ou “Service unavailable”

Solutions :

Terminal window
# Redémarrer le service
sudo systemctl restart ollama
# Vérifier les processus
ps aux | grep ollama
# Vérifier les logs
sudo journalctl -u ollama -f

Modèle non trouvé

Symptôme : “Model not found” lors de l’exécution

Solutions :

Terminal window
# Vérifier les modèles installés
ollama list
# Réinstaller le modèle
ollama pull llama3.2
# Utiliser le nom exact du modèle
ollama run llama3.2:latest

Problèmes de réseau

Symptôme : Échec de téléchargement des modèles

Solutions :

  1. Vérifier la connexion internet
  2. Configurer un proxy si nécessaire
  3. Retry le téléchargement
Terminal window
# Retry avec timeout plus long
ollama pull llama3.2 --timeout 300

Conflits de ports

Symptôme : Port 11434 déjà utilisé

Solutions :

Terminal window
# Changer le port
export OLLAMA_HOST="127.0.0.1:8080"
ollama serve
# Vérifier les ports utilisés
netstat -tulpn | grep 11434

Cas d’usage pratiques

Découvrez des applications concrètes d’Ollama dans différents domaines.

  • Assistant de programmation : Utilisez Ollama comme copilote de code :
Terminal window
ollama run codellama "Explique ce code Python et suggère des améliorations:
def fibonacci(n):
if n <= 1:
return n
return fibonacci(n-1) + fibonacci(n-2)"
  • Traduction de documents : Automatisez vos traductions :
Terminal window
ollama run llama3.2 "Traduis ce texte anglais en français professionnel:
'We are pleased to announce the launch of our new product'"
  • Génération de contenu : Créez du contenu marketing :
Terminal window
ollama run mistral "Écris une description produit attrayante pour une application de fitness mobile"
  • Analyse de données : Analysez vos données textuelles :
Terminal window
ollama run llama3.2 "Analyse le sentiment de ce commentaire client:
'Le produit est correct mais la livraison était très lente'"

Conclusion

Félicitations ! Vous maîtrisez maintenant les bases d’Ollama. Cet outil puissant vous ouvre les portes de l’intelligence artificielle locale.

  • Prochaines étapes :
  1. Expérimentez avec différents modèles
  2. Intégrez Ollama dans vos projets
  3. Explorez l’API REST pour des applications avancées
  4. Rejoignez la communauté pour partager vos expériences

Ollama transforme votre ordinateur en station IA personnelle. L’aventure ne fait que commencer !

Plus d’infos

Approfondissez vos connaissances avec ces ressources utiles.