COMMUNAUTÉ SELF-HOSTED FRANCE

Faites tourner votre IA à la maison.

Le guide complet pour installer votre intelligence artificielle locale — en moins de 30 minutes, sans dépendance cloud.

Déployer maintenant

À qui s'adresse ce guide ?

Aux profils techniques et non techniques qui souhaitent déployer un LLM en interne, sans connaissances préalables en IA. Vous avez besoin de savoir utiliser Linux en ligne de commande — c'est tout.

Vous avez besoin d'aide ?

Laissez-nous votre email et nous vous contacterons rapidement pour vous accompagner dans votre déploiement.

01

NOTRE MISSION

Pourquoi un LLM souverain ?

Vos données restent chez vous. Zéro abonnement. Zéro dépendance cloud.

🔒

Confidentialité totale

Aucune donnée client, RH ou stratégique n'est exposée à un tiers. Conformité RGPD native.

💶

Coût maîtrisé

Un investissement matériel unique vs. des abonnements SaaS à vie. ROI positif en 6–18 mois.

Disponibilité 24/7

Pas de panne externe, pas de latence réseau, pas de quota d'API à gérer.

🎛

Personnalisation

Fine-tuning sur vos données métier, intégration à vos outils internes.

02

BENCHMARK MATÉRIEL

Benchmark des configurations

Données réelles collectées auprès de la communauté r/LocalLLaMA — matériel testé, pas de théorie.

Comment lire ce tableau : Les TPS sont mesurés en génération simple utilisateur. En production multi-utilisateurs, divisez par le nombre de sessions simultanées.
ModèleMatérielQuant.Gen (t/s)Prix neuf
Qwen3.6-35B-A3BRTX 5080 16 GoQ4_K_M~74~1 800 €
Qwen3.6-35B-A3BMac M5 Pro 64 GoQ455–70~2 500 €
Qwen3.6-27BRTX 4080 16 GoQ8_060~1 200 €
Qwen3.6-35B-A3BRTX 4070S 12 Go + iGPUUD-IQ3_XXS50–55~800 €
Gemma 4 26B-A4BRTX 5070 12 GoIQ4_XS22~800 €
💡 Le sweet spot recommandé par otonome.org : RTX 4090 (24 Go VRAM) ou RTX 5070 Ti (16 Go) + 64 Go RAM DDR5 + Qwen3.6-35B-A3B en Q4_K_M. Ce trio offre le meilleur ratio performance/coût pour un usage professionnel de 5 à 20 utilisateurs.
03

ARCHITECTURE

Proxmox + Ollama

Un hyperviseur pour isoler, Ollama pour servir les modèles. Simple, robuste, maintenable.

Vue d'ensemble de la stack

LANUtilisateurs (navigateur / app interne)
↓ HTTP/HTTPS
REVERSENginx Reverse Proxy (VM ou LXC)
↓ :11434
SERVEUROllama Server — VM Ubuntu 24.04
↓ PCIe Passthrough
HARDWAREGPU physique (RTX 3090 / 4090)
HYPERVISEURProxmox VE — Hyperviseur bare-metal

ANNINAIRE DES APPLICATIONS

🏆 TOP 10 des apps que vous pouvez self-hoster

Les applications open-source les plus populaires de la communauté. Hébergez-les vous-même, gardez le contrôle.

Chargement des applications populaires...

Besoin d'aide pour self-hoster ?

Nous vous accompagnons dans votre déploiement. Laissez-nous votre email et nous vous contacterons rapidement.

Réponse garantie sous 24h.

Votre LLM souverain est opérationnel.

Vos utilisateurs accèdent à l'interface via leur navigateur. Aucune donnée ne sort de votre réseau. Le modèle tourne 24/7 sur votre matériel, sans abonnement, sans dépendance externe.

Lire le guide complet →