ExĂ©cutez vos LLMs localement avec Ollama đ | Python & IA
Mise Ă jour :
Ollama est un outil rĂ©volutionnaire qui vous permet dâexĂ©cuter des modĂšles dâintelligence artificielle directement sur votre ordinateur, sans utiliser dâAPI payante. Imaginez avoir votre propre ChatGPT personnel, gratuit et privĂ©!
Dans ce guide complet, vous découvrirez comment installer Ollama et commencer à utiliser des modÚles de langage (LLM) en quelques minutes seulement.
Quâest-ce quâOllama ?
Ollama est une plateforme open source qui simplifie lâinstallation et lâutilisation de modĂšles de langage de grande taille (LLM) sur votre machine locale.
Pourquoi choisir Ollama ?
- đ Installation simple : Une seule commande pour dĂ©marrer
- đ° Gratuit : Aucun coĂ»t dâutilisation contrairement aux API payantes
- đ PrivĂ© : Vos donnĂ©es restent sur votre machine
- đ Hors ligne : Fonctionne sans connexion internet
- đŻ Polyvalent : Support de nombreux modĂšles populaires
Que pouvez-vous faire avec Ollama ?
Ollama vous permettra de :
- Créer un assistant personnel pour vos projets
- Générer du code et des scripts
- Traduire des textes dans différentes langues
- Résumer des documents
- Analyser des données textuelles
- Et bien plus encore !
Comment installer Ollama ?
Avant de commencer, vérifiez que votre systÚme répond aux exigences minimales :
Configuration recommandée
Pour faire fonctionner Ollama de maniÚre optimale, voici la configuration recommandée :
- RAM : 8 GB minimum (16 GB recommandé)
- Espace disque : 5-50 GB selon les modĂšles
- Processeur : CPU moderne 64-bit
- GPU (optionnel) : NVIDIA avec CUDA pour de meilleures performances
- SystÚmes supportés :
- â Windows 10/11
- â macOS 10.15+
- â Linux (Ubuntu, Debian, CentOS, etc.)
Installation dâOllama
Lâinstallation dâOllama varie selon votre systĂšme dâexploitation. Suivez la section correspondante.
Installation sur Linux
Pour Linux, lâinstallation se fait via un script automatique :
# Télécharger et installer Ollamacurl -fsSL https://ollama.com/install.sh | sh
VĂ©rification de lâinstallation :
# Vérifier que Ollama est installéollama --version
Si la commande retourne un numĂ©ro de version, lâinstallation est rĂ©ussie ! Sinon vĂ©rifiez le service.
# Vérifier le service Ollamasudo systemctl status ollamasudo journalctl -u ollama -f
Installation sur Windows
- TĂ©lĂ©chargez le fichier dâinstallation depuis ollama.com/download â
- Exécutez le fichier
.exe
tĂ©lĂ©chargĂ© - Suivez lâassistant dâinstallation
- Redémarrez votre ordinateur si nécessaire
Vérification via PowerShell :
# Ouvrir PowerShell et testerollama --version
Installation sur macOS
Pour macOS, tĂ©lĂ©chargez lâapplication depuis le site officiel :
- Rendez-vous sur ollama.com/download â
- Téléchargez le fichier
.pkg
pour macOS - Double-cliquez et suivez lâinstallation
- Ollama sera disponible dans le Terminal
Test dâinstallation :
# Dans le Terminalollama --version
Comment utiliser Ollama ?
Une fois Ollama installé, il est temps de télécharger votre premier modÚle.
Téléchargement du premier modÚle
Je vous recommande de commencer par Llama 3.2, un modĂšle performant et accessible.
# Télécharger et installer Llama 3.2 (3B paramÚtres)ollama pull llama3.2
Cette commande va :
- Télécharger le modÚle (environ 2 GB)
- Configurer automatiquement lâenvironnement
- Préparer le modÚle pour son utilisation
Le temps de téléchargement sera variable en fonction de votre connexion internet et de la taille du modÚle.
Quelques modÚles populaires pour débutants
Ollama propose une bibliothÚque riche de modÚles. Voici les plus adaptés aux débutants :
ModĂšle | Taille | Usage | Commande |
---|---|---|---|
Llama 3.2 | 2-3 GB | Usage général, débutant | ollama pull llama3.2 |
Mistral | 4 GB | Code et texte | ollama pull mistral |
CodeLlama | 4 GB | Spécialisé code | ollama pull codellama |
Gemma | 2 GB | Rapide et efficace | ollama pull gemma |
Choix selon vos besoins
- DĂ©butant absolu â
llama3.2
(plus petit, rapide) - DĂ©veloppeur â
codellama
(optimisĂ© pour le code) - Usage mixte â
mistral
(bon compromis) - Machine limitĂ©e â
gemma
(plus léger)
Utilisation basique dâOllama
Maintenant que tout est installé, découvrons comment utiliser Ollama au quotidien.
Démarrer une conversation
# Lancer une session interactive avec Llama 3.2ollama run llama3.2
Vous verrez apparaĂźtre une invite de commande interactive. Tapez votre premier prompt :
>>> Bonjour ! Comment ça va ?Bonjour ! Je vais bien, merci pour ta question. C'est agréable de discuter avec toi. Comment vas-tu aujourd'hui ? Qu'est-ce que tu veux discuter ?
Le modÚle vous répondra en temps réel !
Exemples de conversations
Voici quelques exemples pratiques pour tester votre installation :
Génération de code :
>>> Ăcris une fonction Python pour calculer la factorielle
Traduction :
>>> Traduis "Hello world" en espagnol et en allemand
Explication technique :
>>> Explique-moi ce qu'est Docker en termes simples
Pour quitter la session il suffit de taper :
>>> /bye
Commandes essentielles dâOllama
MaĂźtrisez ces commandes fondamentales pour une utilisation efficace dâOllama.
Gestion des modĂšles
Pour gérer vos modÚles, utilisez les commandes suivantes :
# Lister tous les modÚles installésollama list
# Télécharger un nouveau modÚleollama pull [nom-du-modÚle]
# Supprimer un modĂšleollama rm [nom-du-modĂšle]
# Voir les informations d'un modĂšleollama show [nom-du-modĂšle]
Utilisation avancée
Pour exécuter des commandes plus complexes, vous pouvez utiliser des options supplémentaires.
# Exécuter une commande unique (sans mode interactif)ollama run llama3.2 "Explique-moi l'IA en 3 phrases"
# Utiliser un modĂšle spĂ©cifiqueollama run mistral "Ăcris un poĂšme sur les ocĂ©ans"
Si vous lancer la commande run
sans avoir au préalablement téléchargé le
modĂšle, Ollama le fera automatiquement.
Configuration avancée
Pour optimiser votre expérience Ollama, voici quelques configurations
utiles. Pour cela, vous devrez non pas lancer le service mais utiliser la
commande ollama serve
.
Variables dâenvironnement
# Changer le répertoire de stockage des modÚlesexport OLLAMA_MODELS="/path/to/models"
Optimisation mémoire
Si vous avez des problÚmes de mémoire :
# Limiter l'utilisation mémoireexport OLLAMA_MAX_LOADED_MODELS=1export OLLAMA_MAX_QUEUE=4
Utilisation de GPU
Ollama prend en charge lâaccĂ©lĂ©ration GPU pour des performances amĂ©liorĂ©es. Vous retrouverez les instructions dĂ©taillĂ©es dans la documentation officielle â.
IntĂ©gration avec dâautres outils
Ollama sâintĂšgre facilement avec dâautres outils de dĂ©veloppement.
Utiliser lâAPI Ollama
Ollama expose une API REST sur le port 11434 :
Exemple dâutilisation avec curl :
# Test de l'APIcurl http://localhost:11434/api/generate \ -d '{ "model": "llama3.2", "prompt": "Pourquoi le ciel est bleu ?", "stream": false }'
Vous retrouver les endpoint et la documentation complĂšte de lâAPI ici â.
Intégration Python
Si vous souhaitez intégrer Ollama dans vos scripts Python, voici un
exemple simple utilisant la bibliothĂšque litellm
:
import litellm
# MĂȘme code pour tous les modĂšles - seul le nom change !response = litellm.completion( model="ollama/llama3.2", messages=[{"role": "user", "content": "C'est quoi Ansible !"}])print(response.choices[0].message['content'])
Dépannage des problÚmes courants
Voici les solutions aux problÚmes les plus fréquents avec Ollama.
ProblÚme de mémoire insuffisante
SymptĂŽme : Erreur âOut of memoryâ ou plantage
Solutions :
- Fermer les applications inutiles
- Choisir un modĂšle plus petit (
gemma
au lieu dellama3.2
) - Augmenter la mémoire virtuelle
# Vérifier l'utilisation mémoirefree -h
# Utiliser un modÚle plus légerollama pull gemma:2b
Service non démarré
SymptĂŽme : âConnection refusedâ ou âService unavailableâ
Solutions :
# Redémarrer le servicesudo systemctl restart ollama
# Vérifier les processusps aux | grep ollama
# Vérifier les logssudo journalctl -u ollama -f
ModÚle non trouvé
SymptĂŽme : âModel not foundâ lors de lâexĂ©cution
Solutions :
# Vérifier les modÚles installésollama list
# Réinstaller le modÚleollama pull llama3.2
# Utiliser le nom exact du modĂšleollama run llama3.2:latest
ProblÚmes de réseau
SymptĂŽme : Ăchec de tĂ©lĂ©chargement des modĂšles
Solutions :
- Vérifier la connexion internet
- Configurer un proxy si nécessaire
- Retry le téléchargement
# Retry avec timeout plus longollama pull llama3.2 --timeout 300
Conflits de ports
SymptÎme : Port 11434 déjà utilisé
Solutions :
# Changer le portexport OLLAMA_HOST="127.0.0.1:8080"ollama serve
# Vérifier les ports utilisésnetstat -tulpn | grep 11434
Cas dâusage pratiques
DĂ©couvrez des applications concrĂštes dâOllama dans diffĂ©rents domaines.
- Assistant de programmation : Utilisez Ollama comme copilote de code :
ollama run codellama "Explique ce code Python et suggÚre des améliorations:def fibonacci(n): if n <= 1: return n return fibonacci(n-1) + fibonacci(n-2)"
- Traduction de documents : Automatisez vos traductions :
ollama run llama3.2 "Traduis ce texte anglais en français professionnel:'We are pleased to announce the launch of our new product'"
- Génération de contenu : Créez du contenu marketing :
ollama run mistral "Ăcris une description produit attrayante pour une application de fitness mobile"
- Analyse de données : Analysez vos données textuelles :
ollama run llama3.2 "Analyse le sentiment de ce commentaire client:'Le produit est correct mais la livraison était trÚs lente'"
Conclusion
FĂ©licitations ! Vous maĂźtrisez maintenant les bases dâOllama. Cet outil puissant vous ouvre les portes de lâintelligence artificielle locale.
- Prochaines étapes :
- Expérimentez avec différents modÚles
- Intégrez Ollama dans vos projets
- Explorez lâAPI REST pour des applications avancĂ©es
- Rejoignez la communauté pour partager vos expériences
Ollama transforme votre ordinateur en station IA personnelle. Lâaventure ne fait que commencer !
Plus dâinfos
Approfondissez vos connaissances avec ces ressources utiles.
- Site web : ollama.com â
- GitHub : github.com/ollama/ollama â