Installez Ollama et OpenWebUI pour une IA gratuite, locale et sans limite : guide complet de configuration d'une solution IA privée sur votre machine.
Introduction
Vous rêvez d'une solution IA gratuite, puissante et qui fonctionne entièrement en local ? Ollama + OpenWebUI est exactement ce qu'il vous faut. Cette combinaison offre une expérience ChatGPT-like sans frais d'abonnement, sans limite de requêtes, et surtout, vos données restent sur votre machine.
Qu'est-ce que Ollama ?
Ollama est un runtime léger conçu pour exécuter des modèles de langage (LLM) comme Llama 2, Mistral, Phi sur votre ordinateur. Il gère automatiquement :
- Le téléchargement et l'optimisation des modèles
- L'utilisation efficace du CPU ou GPU selon votre matériel
- Une API REST accessible en local
OpenWebUI est l'interface graphique moderne qui se connecte à cette API, offrant une expérience utilisateur intuitive similaire à ChatGPT.
Installation de Ollama
Prérequis : Un ordinateur avec au minimum 8 Go de RAM (16 Go recommandé pour une meilleure expérience).
Sur macOS / Linux
Ollama fournit des installateurs officiels :
- macOS : Téléchargez depuis
ollama.aiet installez le DMG - Linux : Utilisez la commande officielle (voir site ollama.ai)
Sur Windows
Téléchargez l'installateur Windows depuis ollama.ai/download et lancez l'installation classique. Ollama s'exécutera en arrière-plan après l'installation.
Vérifier l'installation
Ouvrez un terminal et lancez :
ollama --version
Vous devriez voir la version d'Ollama s'afficher.
Installation d'OpenWebUI
OpenWebUI est fourni sous forme de conteneur Docker. Si Docker n'est pas installé, téléchargez-le depuis docker.com.
Lancer OpenWebUI avec Docker
Exécutez cette commande dans votre terminal :
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
ghcr.io/open-webui/open-webui:latest
-d: Lance le conteneur en arrière-plan-p 3000:8080: Expose OpenWebUI surhttp://localhost:3000--add-host: Permet au conteneur d'accéder à Ollama sur l'hôte-v: Persiste les données between redémarrages
Accès à l'interface
Une fois le conteneur lancé, ouvrez votre navigateur et allez à http://localhost:3000. Vous verrez l'interface d'OpenWebUI.
Configuration et première utilisation
Configurer Ollama dans OpenWebUI
À votre première visite, créez un compte (local, aucune donnée n'est envoyée). Une fois connecté :
- Cliquez sur l'icône ⚙️ (paramètres) en bas à gauche
- Allez dans "Admin Settings" → "Connections"
- Vérifiez que "Ollama Base URL" est
http://host.docker.internal:11434 - Cliquez sur "Test Connection"
Télécharger et utiliser un modèle
Allez dans l'onglet "Settings" → "Models" et activez les modèles que vous souhaitez télécharger (ex: Llama 2, Mistral). OpenWebUI va les télécharger automatiquement via Ollama.
Modèles IA disponibles
Voici les modèles populaires compatibles avec Ollama :
| Modèle | Taille | Vitesse | Qualité | RAM recommandée |
|---|---|---|---|---|
| Neural-Chat-7B | 4 Go | ⚡⚡⚡ | ⭐⭐⭐ | 8 Go |
| Mistral-7B | 7 Go | ⚡⚡ | ⭐⭐⭐⭐ | 16 Go |
| Llama 2-13B | 8 Go | ⚡ | ⭐⭐⭐⭐ | 16 Go |
| Llama 2-70B | 39 Go | 🐢 | ⭐⭐⭐⭐⭐ | 64+ Go / GPU |
Vous pouvez télécharger plusieurs modèles et switcher entre eux directement depuis OpenWebUI.
Optimisation et performance
Utiliser le GPU (NVIDIA)
Si vous avez une carte NVIDIA, Ollama peut utiliser CUDA pour accélérer les inférences :
# Installer Ollama avec support CUDA
# Windows/macOS: Téléchargez le GPU variant depuis ollama.ai
# Vérifier l'utilisation GPU
ollama list # Voir les modèles chargés
Ajuster les paramètres de performance
Vous pouvez contrôler combien de RAM Ollama utilise en editant le fichier ~/.ollama/ollamarc :
OLLAMA_NUM_THREADS=8
OLLAMA_MAX_LOADED_MODELS=1
Conclusion
Avec Ollama et OpenWebUI, vous avez maintenant une solution IA complète, 100% gratuite, entièrement privée et sans limite. Parfait pour :
- Les développeurs qui veulent tester l'IA localement
- Les chercheurs et data scientists
- Ceux qui veulent éviter les restrictions des services cloud
- Les entreprises sensibles à la confidentialité des données
N'hésitez pas à explorer différents modèles et configurations selon vos besoins. L'écosystème Ollama grandit rapidement, avec de nouveaux modèles optimisés apparaissant régulièrement.