Le Mans 1998 - 2026
Fédérer autour des logiciels libres

Promouvoir et utiliser LINUX et les logiciels libres en SARTHE

Exécuter « Claude Code » sans Claude
Article mis en ligne le 11 février 2026

par TG

On considère généralement Claude Code comme un produit propriétaire, inaccessible sans abonnement chez Anthropic. Pourtant, d’un point de vue architectural, il s’agit simplement d’une interface de ligne de commande Agentic (CLI) très aboutie, qui envoie des instructions à une API LLM (l’intelligence).

Jusqu’à présent, l’URL de cette API était codée en dur et pointait vers les serveurs d’Anthropic. Ollama v0.14 vient de modifier cette architecture.

La compatibilité totale avec l’API Anthropic Messages est désormais implémentée. Ceci crée un point de terminaison de remplacement direct. Vous pouvez maintenant faire croire à l’interface " ligne de commande " de Claude que votre machine locale est le cloud Anthropic.

L’avancée technique majeure : elle dissocie l’expérience utilisateur du calcul. Vous bénéficiez de l’expérience utilisateur exceptionnelle de Claude Code (édition de fichiers, commandes terminal, gestion des différences), avec la confidentialité et la gratuité des modèles open source.

La stack technologique :

1. L’interface (Claude Code)

Installez l’outil officiel Anthropic : curl -fsSL https://claude.ai/install.sh | bash

2. Le pont (Ollama v0.14+)
Vous redirigez le trafic à l’aide de variables d’environnement standard. Cela fonctionne car Ollama reproduit désormais le schéma JSON exact de l’API d’Anthropic (y compris l’utilisation des outils et la vision).

3. L’intelligence (modèles locaux)
Vous n’utilisez pas n’importe quel modèle. Vous utilisez des modèles optimisés pour l’utilisation des outils par Anthropic.

Recommandé : qwen3-coder (la solution de pointe actuelle pour le codage local).
Alternative : gpt-oss:20b ou deepseek-v3 (via Ollama).
Comment l’exécuter : claude --model qwen3-coder

Résultats :

Latence : Le processus de traitement des blocs « Thinking » s’exécute sur votre GPU (ou CPU) local, éliminant ainsi les allers-retours réseau. Confidentialité : Votre code propriétaire reste toujours en local.

Coût : Gratuit.

L’ère Linux est arrivée pour les agents IA. Les meilleurs outils ne sont plus tributaires des plus grands clouds.

Développez en local.

https://ollama.com/blog/claude


"Je peux expliquer le logiciel libre en 3 mots : Liberté, Égalité, Fraternité" [Richard Stallman, juin 2012]
puce

2023-2026 © Le Mans 1998 - 2026 - Tous droits réservés
Haut de page
Réalisé sous SPIP
Habillage ESCAL 5.5.9