Exécutez, créez et partagez des modèles IA localement

Ollama vous permet d'exécuter des modèles de langage comme Llama 2, Mistral, et bien d'autres directement sur votre machine.

curl -fsSL https://ollama.com/install.sh | sh

⏱️ Installation en une ligne

Pourquoi choisir Ollama ?

La solution la plus simple pour exécuter des modèles IA localement

100% Local & Privé

Vos données restent sur votre machine. Aucune API externe, aucun partage de données.

Optimisé pour tous

Fonctionne sur CPU, GPU Apple Silicon, NVIDIA et AMD. Des performances exceptionnelles.

Bibliothèque complète

Accédez à des centaines de modèles pré-entraînés : Llama, Mistral, Gemma, Phi et plus.

API RESTful

Intégrez facilement Ollama dans vos applications avec une API simple et documentée.

Interface CLI & Chat

Utilisez la ligne de commande ou l'interface de chat intégrée pour interagir avec les modèles.

Modèles personnalisés

Créez et partagez vos propres modèles avec Ollama Modelfile.

Modèles populaires

Des centaines de modèles disponibles au téléchargement

Llama 3.2

3B / 11B paramètres

Meta
Performances exceptionnelles pour la taille

Mistral

7B paramètres

Mistral AI
Rapide et efficace pour la plupart des tâches

Gemma 2

2B / 9B / 27B

Google
Nouveaux standards de performance

CodeLlama

7B / 13B / 34B

Meta
Spécialisé pour le code et la programmation

Phi-3

3.8B / 7B / 14B

Microsoft
Petit mais puissant pour le raisonnement

Nous Hermes

8B / 13B / 70B

Nous Research
Excellent pour les conversations naturelles

Installation rapide

Commencez à utiliser Ollama en quelques minutes

# Sur macOS et Linux
curl -fsSL https://ollama.com/install.sh | sh

# Sur Windows (WSL2 recommandé)
# Téléchargez l'installateur depuis le site officiel

# Démarrer Ollama
ollama serve

# Télécharger et exécuter un modèle
ollama run llama3.2
macOS
Apple Silicon & Intel
Windows
via WSL2 ou bientôt natif
Linux
Ubuntu, Debian, Fedora...
Docker
Image officielle disponible

Prêt à commencer ?

Rejoignez des milliers de développeurs qui utilisent Ollama au quotidien