Ollama vous permet d'exécuter des modèles de langage comme Llama 2, Mistral, et bien d'autres directement sur votre machine.
curl -fsSL https://ollama.com/install.sh | sh
⏱️ Installation en une ligne
La solution la plus simple pour exécuter des modèles IA localement
Vos données restent sur votre machine. Aucune API externe, aucun partage de données.
Fonctionne sur CPU, GPU Apple Silicon, NVIDIA et AMD. Des performances exceptionnelles.
Accédez à des centaines de modèles pré-entraînés : Llama, Mistral, Gemma, Phi et plus.
Intégrez facilement Ollama dans vos applications avec une API simple et documentée.
Utilisez la ligne de commande ou l'interface de chat intégrée pour interagir avec les modèles.
Créez et partagez vos propres modèles avec Ollama Modelfile.
Des centaines de modèles disponibles au téléchargement
3B / 11B paramètres
Meta7B paramètres
Mistral AI2B / 9B / 27B
Google7B / 13B / 34B
Meta3.8B / 7B / 14B
Microsoft8B / 13B / 70B
Nous ResearchCommencez à utiliser Ollama en quelques minutes
# Sur macOS et Linux
curl -fsSL https://ollama.com/install.sh | sh
# Sur Windows (WSL2 recommandé)
# Téléchargez l'installateur depuis le site officiel
# Démarrer Ollama
ollama serve
# Télécharger et exécuter un modèle
ollama run llama3.2
Rejoignez des milliers de développeurs qui utilisent Ollama au quotidien