Aller au contenu

ExĂ©cutez vos LLMs localement avec Ollama 🚀 | Python & IA

Mise Ă  jour :

logo ollama

Ollama est un outil rĂ©volutionnaire qui vous permet d’exĂ©cuter des modĂšles d’intelligence artificielle directement sur votre ordinateur, sans utiliser d’API payante. Imaginez avoir votre propre ChatGPT personnel, gratuit et privĂ©!

Dans ce guide complet, vous découvrirez comment installer Ollama et commencer à utiliser des modÚles de langage (LLM) en quelques minutes seulement.

Qu’est-ce qu’Ollama ?

Ollama est une plateforme open source qui simplifie l’installation et l’utilisation de modùles de langage de grande taille (LLM) sur votre machine locale.

Pourquoi choisir Ollama ?

  • 🚀 Installation simple : Une seule commande pour dĂ©marrer
  • 💰 Gratuit : Aucun coĂ»t d’utilisation contrairement aux API payantes
  • 🔒 PrivĂ© : Vos donnĂ©es restent sur votre machine
  • 🌐 Hors ligne : Fonctionne sans connexion internet
  • 🎯 Polyvalent : Support de nombreux modĂšles populaires

Que pouvez-vous faire avec Ollama ?

Ollama vous permettra de :

  • CrĂ©er un assistant personnel pour vos projets
  • GĂ©nĂ©rer du code et des scripts
  • Traduire des textes dans diffĂ©rentes langues
  • RĂ©sumer des documents
  • Analyser des donnĂ©es textuelles
  • Et bien plus encore !

Comment installer Ollama ?

Avant de commencer, vérifiez que votre systÚme répond aux exigences minimales :

Configuration recommandée

Pour faire fonctionner Ollama de maniÚre optimale, voici la configuration recommandée :

  • RAM : 8 GB minimum (16 GB recommandĂ©)
  • Espace disque : 5-50 GB selon les modĂšles
  • Processeur : CPU moderne 64-bit
  • GPU (optionnel) : NVIDIA avec CUDA pour de meilleures performances
  • SystĂšmes supportĂ©s :
    • ✅ Windows 10/11
    • ✅ macOS 10.15+
    • ✅ Linux (Ubuntu, Debian, CentOS, etc.)

Installation d’Ollama

L’installation d’Ollama varie selon votre systùme d’exploitation. Suivez la section correspondante.

Installation sur Linux

Pour Linux, l’installation se fait via un script automatique :

Terminal window
# Télécharger et installer Ollama
curl -fsSL https://ollama.com/install.sh | sh

VĂ©rification de l’installation :

Terminal window
# Vérifier que Ollama est installé
ollama --version

Si la commande retourne un numĂ©ro de version, l’installation est rĂ©ussie ! Sinon vĂ©rifiez le service.

Terminal window
# Vérifier le service Ollama
sudo systemctl status ollama
sudo journalctl -u ollama -f

Installation sur Windows

  1. TĂ©lĂ©chargez le fichier d’installation depuis ollama.com/download ↗
  2. Exécutez le fichier .exe téléchargé
  3. Suivez l’assistant d’installation
  4. Redémarrez votre ordinateur si nécessaire

Vérification via PowerShell :

Terminal window
# Ouvrir PowerShell et tester
ollama --version

Installation sur macOS

Pour macOS, tĂ©lĂ©chargez l’application depuis le site officiel :

  1. Rendez-vous sur ollama.com/download ↗
  2. Téléchargez le fichier .pkg pour macOS
  3. Double-cliquez et suivez l’installation
  4. Ollama sera disponible dans le Terminal

Test d’installation :

Terminal window
# Dans le Terminal
ollama --version

Comment utiliser Ollama ?

Une fois Ollama installé, il est temps de télécharger votre premier modÚle.

Téléchargement du premier modÚle

Je vous recommande de commencer par Llama 3.2, un modĂšle performant et accessible.

Terminal window
# Télécharger et installer Llama 3.2 (3B paramÚtres)
ollama pull llama3.2

Cette commande va :

  • TĂ©lĂ©charger le modĂšle (environ 2 GB)
  • Configurer automatiquement l’environnement
  • PrĂ©parer le modĂšle pour son utilisation

Le temps de téléchargement sera variable en fonction de votre connexion internet et de la taille du modÚle.

Quelques modÚles populaires pour débutants

Ollama propose une bibliothÚque riche de modÚles. Voici les plus adaptés aux débutants :

ModĂšleTailleUsageCommande
Llama 3.22-3 GBUsage général, débutantollama pull llama3.2
Mistral4 GBCode et texteollama pull mistral
CodeLlama4 GBSpécialisé codeollama pull codellama
Gemma2 GBRapide et efficaceollama pull gemma

Choix selon vos besoins

  • DĂ©butant absolu → llama3.2 (plus petit, rapide)
  • DĂ©veloppeur → codellama (optimisĂ© pour le code)
  • Usage mixte → mistral (bon compromis)
  • Machine limitĂ©e → gemma (plus lĂ©ger)

Utilisation basique d’Ollama

Maintenant que tout est installé, découvrons comment utiliser Ollama au quotidien.

Démarrer une conversation

Terminal window
# Lancer une session interactive avec Llama 3.2
ollama run llama3.2

Vous verrez apparaĂźtre une invite de commande interactive. Tapez votre premier prompt :

>>> Bonjour ! Comment ça va ?
Bonjour ! Je vais bien, merci pour ta question. C'est agréable de discuter avec toi. Comment vas-tu aujourd'hui ? Qu'est-ce que tu veux discuter ?

Le modÚle vous répondra en temps réel !

Exemples de conversations

Voici quelques exemples pratiques pour tester votre installation :

Génération de code :

>>> Écris une fonction Python pour calculer la factorielle

Traduction :

>>> Traduis "Hello world" en espagnol et en allemand

Explication technique :

>>> Explique-moi ce qu'est Docker en termes simples

Pour quitter la session il suffit de taper :

>>> /bye

Commandes essentielles d’Ollama

Maütrisez ces commandes fondamentales pour une utilisation efficace d’Ollama.

Gestion des modĂšles

Pour gérer vos modÚles, utilisez les commandes suivantes :

Terminal window
# Lister tous les modÚles installés
ollama list
# Télécharger un nouveau modÚle
ollama pull [nom-du-modĂšle]
# Supprimer un modĂšle
ollama rm [nom-du-modĂšle]
# Voir les informations d'un modĂšle
ollama show [nom-du-modĂšle]

Utilisation avancée

Pour exécuter des commandes plus complexes, vous pouvez utiliser des options supplémentaires.

Terminal window
# Exécuter une commande unique (sans mode interactif)
ollama run llama3.2 "Explique-moi l'IA en 3 phrases"
# Utiliser un modÚle spécifique
ollama run mistral "Écris un poĂšme sur les ocĂ©ans"

Si vous lancer la commande run sans avoir au préalablement téléchargé le modÚle, Ollama le fera automatiquement.

Configuration avancée

Pour optimiser votre expérience Ollama, voici quelques configurations utiles. Pour cela, vous devrez non pas lancer le service mais utiliser la commande ollama serve.

Variables d’environnement

Terminal window
# Changer le répertoire de stockage des modÚles
export OLLAMA_MODELS="/path/to/models"

Optimisation mémoire

Si vous avez des problÚmes de mémoire :

Terminal window
# Limiter l'utilisation mémoire
export OLLAMA_MAX_LOADED_MODELS=1
export OLLAMA_MAX_QUEUE=4

Utilisation de GPU

Ollama prend en charge l’accĂ©lĂ©ration GPU pour des performances amĂ©liorĂ©es. Vous retrouverez les instructions dĂ©taillĂ©es dans la documentation officielle ↗.

IntĂ©gration avec d’autres outils

Ollama s’intĂšgre facilement avec d’autres outils de dĂ©veloppement.

Utiliser l’API Ollama

Ollama expose une API REST sur le port 11434 :

Exemple d’utilisation avec curl :

Terminal window
# Test de l'API
curl http://localhost:11434/api/generate \
-d '{
"model": "llama3.2",
"prompt": "Pourquoi le ciel est bleu ?",
"stream": false
}'

Vous retrouver les endpoint et la documentation complùte de l’API ici ↗.

Intégration Python

Si vous souhaitez intégrer Ollama dans vos scripts Python, voici un exemple simple utilisant la bibliothÚque litellm :

import litellm
# MĂȘme code pour tous les modĂšles - seul le nom change !
response = litellm.completion(
model="ollama/llama3.2",
messages=[{"role": "user", "content": "C'est quoi Ansible !"}]
)
print(response.choices[0].message['content'])

Dépannage des problÚmes courants

Voici les solutions aux problÚmes les plus fréquents avec Ollama.

ProblÚme de mémoire insuffisante

Symptîme : Erreur “Out of memory” ou plantage

Solutions :

  1. Fermer les applications inutiles
  2. Choisir un modĂšle plus petit (gemma au lieu de llama3.2)
  3. Augmenter la mémoire virtuelle
Terminal window
# Vérifier l'utilisation mémoire
free -h
# Utiliser un modÚle plus léger
ollama pull gemma:2b

Service non démarré

Symptîme : “Connection refused” ou “Service unavailable”

Solutions :

Terminal window
# Redémarrer le service
sudo systemctl restart ollama
# Vérifier les processus
ps aux | grep ollama
# Vérifier les logs
sudo journalctl -u ollama -f

ModÚle non trouvé

SymptĂŽme : “Model not found” lors de l’exĂ©cution

Solutions :

Terminal window
# Vérifier les modÚles installés
ollama list
# Réinstaller le modÚle
ollama pull llama3.2
# Utiliser le nom exact du modĂšle
ollama run llama3.2:latest

ProblÚmes de réseau

SymptĂŽme : Échec de tĂ©lĂ©chargement des modĂšles

Solutions :

  1. Vérifier la connexion internet
  2. Configurer un proxy si nécessaire
  3. Retry le téléchargement
Terminal window
# Retry avec timeout plus long
ollama pull llama3.2 --timeout 300

Conflits de ports

SymptÎme : Port 11434 déjà utilisé

Solutions :

Terminal window
# Changer le port
export OLLAMA_HOST="127.0.0.1:8080"
ollama serve
# Vérifier les ports utilisés
netstat -tulpn | grep 11434

Cas d’usage pratiques

DĂ©couvrez des applications concrĂštes d’Ollama dans diffĂ©rents domaines.

  • Assistant de programmation : Utilisez Ollama comme copilote de code :
Terminal window
ollama run codellama "Explique ce code Python et suggÚre des améliorations:
def fibonacci(n):
if n <= 1:
return n
return fibonacci(n-1) + fibonacci(n-2)"
  • Traduction de documents : Automatisez vos traductions :
Terminal window
ollama run llama3.2 "Traduis ce texte anglais en français professionnel:
'We are pleased to announce the launch of our new product'"
  • GĂ©nĂ©ration de contenu : CrĂ©ez du contenu marketing :
Terminal window
ollama run mistral "Écris une description produit attrayante pour une application de fitness mobile"
  • Analyse de donnĂ©es : Analysez vos donnĂ©es textuelles :
Terminal window
ollama run llama3.2 "Analyse le sentiment de ce commentaire client:
'Le produit est correct mais la livraison était trÚs lente'"

Conclusion

FĂ©licitations ! Vous maĂźtrisez maintenant les bases d’Ollama. Cet outil puissant vous ouvre les portes de l’intelligence artificielle locale.

  • Prochaines Ă©tapes :
  1. Expérimentez avec différents modÚles
  2. Intégrez Ollama dans vos projets
  3. Explorez l’API REST pour des applications avancĂ©es
  4. Rejoignez la communauté pour partager vos expériences

Ollama transforme votre ordinateur en station IA personnelle. L’aventure ne fait que commencer !

Plus d’infos

Approfondissez vos connaissances avec ces ressources utiles.