Ollama & OpenWebUI : IA gratuite en local

🏷️ Intelligence Artificielle 📅 10/04/2026 22:00:00 👤 Mezgani said
Ollama Openwebui Ai Gratuit Local
Ollama & OpenWebUI : IA gratuite en local

Installez Ollama et OpenWebUI pour une IA gratuite, locale et sans limite : guide complet de configuration d'une solution IA privée sur votre machine.

Introduction

Vous rêvez d'une solution IA gratuite, puissante et qui fonctionne entièrement en local ? Ollama + OpenWebUI est exactement ce qu'il vous faut. Cette combinaison offre une expérience ChatGPT-like sans frais d'abonnement, sans limite de requêtes, et surtout, vos données restent sur votre machine.

À retenir : Ollama execute des modèles IA localement, OpenWebUI fournit l'interface web. Ensemble, ils créent une solution d'IA privée complète.

Qu'est-ce que Ollama ?

Ollama est un runtime léger conçu pour exécuter des modèles de langage (LLM) comme Llama 2, Mistral, Phi sur votre ordinateur. Il gère automatiquement :

  • Le téléchargement et l'optimisation des modèles
  • L'utilisation efficace du CPU ou GPU selon votre matériel
  • Une API REST accessible en local

OpenWebUI est l'interface graphique moderne qui se connecte à cette API, offrant une expérience utilisateur intuitive similaire à ChatGPT.

Installation de Ollama

Prérequis : Un ordinateur avec au minimum 8 Go de RAM (16 Go recommandé pour une meilleure expérience).

Sur macOS / Linux

Ollama fournit des installateurs officiels :

  • macOS : Téléchargez depuis ollama.ai et installez le DMG
  • Linux : Utilisez la commande officielle (voir site ollama.ai)

Sur Windows

Téléchargez l'installateur Windows depuis ollama.ai/download et lancez l'installation classique. Ollama s'exécutera en arrière-plan après l'installation.

Note : Sous Windows, Ollama utilise WSL 2 (Windows Subsystem for Linux) en arrière-plan. Assurez-vous qu'il est installé.

Vérifier l'installation

Ouvrez un terminal et lancez :

ollama --version

Vous devriez voir la version d'Ollama s'afficher.

Installation d'OpenWebUI

OpenWebUI est fourni sous forme de conteneur Docker. Si Docker n'est pas installé, téléchargez-le depuis docker.com.

Lancer OpenWebUI avec Docker

Exécutez cette commande dans votre terminal :

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  ghcr.io/open-webui/open-webui:latest
Explication :
  • -d : Lance le conteneur en arrière-plan
  • -p 3000:8080 : Expose OpenWebUI sur http://localhost:3000
  • --add-host : Permet au conteneur d'accéder à Ollama sur l'hôte
  • -v : Persiste les données between redémarrages

Accès à l'interface

Une fois le conteneur lancé, ouvrez votre navigateur et allez à http://localhost:3000. Vous verrez l'interface d'OpenWebUI.

Configuration et première utilisation

Configurer Ollama dans OpenWebUI

À votre première visite, créez un compte (local, aucune donnée n'est envoyée). Une fois connecté :

  1. Cliquez sur l'icône ⚙️ (paramètres) en bas à gauche
  2. Allez dans "Admin Settings" → "Connections"
  3. Vérifiez que "Ollama Base URL" est http://host.docker.internal:11434
  4. Cliquez sur "Test Connection"

Télécharger et utiliser un modèle

Allez dans l'onglet "Settings" → "Models" et activez les modèles que vous souhaitez télécharger (ex: Llama 2, Mistral). OpenWebUI va les télécharger automatiquement via Ollama.

Conseil : Commencez avec Mistral-7B (7 Go) pour un bon équilibre vitesse/qualité, ou Neural-Chat (4 Go) si l'espace manque.

Modèles IA disponibles

Voici les modèles populaires compatibles avec Ollama :

Modèle Taille Vitesse Qualité RAM recommandée
Neural-Chat-7B 4 Go ⚡⚡⚡ ⭐⭐⭐ 8 Go
Mistral-7B 7 Go ⚡⚡ ⭐⭐⭐⭐ 16 Go
Llama 2-13B 8 Go ⭐⭐⭐⭐ 16 Go
Llama 2-70B 39 Go 🐢 ⭐⭐⭐⭐⭐ 64+ Go / GPU

Vous pouvez télécharger plusieurs modèles et switcher entre eux directement depuis OpenWebUI.

Optimisation et performance

Utiliser le GPU (NVIDIA)

Si vous avez une carte NVIDIA, Ollama peut utiliser CUDA pour accélérer les inférences :

# Installer Ollama avec support CUDA
# Windows/macOS: Téléchargez le GPU variant depuis ollama.ai

# Vérifier l'utilisation GPU
ollama list  # Voir les modèles chargés

Ajuster les paramètres de performance

Vous pouvez contrôler combien de RAM Ollama utilise en editant le fichier ~/.ollama/ollamarc :

OLLAMA_NUM_THREADS=8
OLLAMA_MAX_LOADED_MODELS=1
Conseil : Si votre PC ralentit, réduisez le nombre de threads ou diminuez la taille du modèle chargé.

Conclusion

Avec Ollama et OpenWebUI, vous avez maintenant une solution IA complète, 100% gratuite, entièrement privée et sans limite. Parfait pour :

  • Les développeurs qui veulent tester l'IA localement
  • Les chercheurs et data scientists
  • Ceux qui veulent éviter les restrictions des services cloud
  • Les entreprises sensibles à la confidentialité des données

N'hésitez pas à explorer différents modèles et configurations selon vos besoins. L'écosystème Ollama grandit rapidement, avec de nouveaux modèles optimisés apparaissant régulièrement.