COMMUNAUTÉ SELF-HOSTED FRANCE
Faites tourner votre IA à la maison.
Le guide complet pour installer votre intelligence artificielle locale — en moins de 30 minutes, sans dépendance cloud.
Déployer maintenant →ℹ À qui s'adresse ce guide ?
Aux profils techniques et non techniques qui souhaitent déployer un LLM en interne, sans connaissances préalables en IA. Vous avez besoin de savoir utiliser Linux en ligne de commande — c'est tout.
Vous avez besoin d'aide ?
Laissez-nous votre email et nous vous contacterons rapidement pour vous accompagner dans votre déploiement.
NOTRE MISSION
Pourquoi un LLM souverain ?
Vos données restent chez vous. Zéro abonnement. Zéro dépendance cloud.
Confidentialité totale
Aucune donnée client, RH ou stratégique n'est exposée à un tiers. Conformité RGPD native.
Coût maîtrisé
Un investissement matériel unique vs. des abonnements SaaS à vie. ROI positif en 6–18 mois.
Disponibilité 24/7
Pas de panne externe, pas de latence réseau, pas de quota d'API à gérer.
Personnalisation
Fine-tuning sur vos données métier, intégration à vos outils internes.
BENCHMARK MATÉRIEL
Benchmark des configurations
Données réelles collectées auprès de la communauté r/LocalLLaMA — matériel testé, pas de théorie.
| Modèle | Matériel | Quant. | Gen (t/s) | Prix neuf |
|---|---|---|---|---|
| Qwen3.6-35B-A3B | RTX 5070 Ti 16 Go | UD-Q4_K_M | 79–96 | ~1 200 € |
| Qwen3.6-35B-A3B | RTX 5080 16 Go | Q4_K_M | ~74 | ~1 800 € |
| Qwen3.6-35B-A3B | Mac M5 Pro 64 Go | Q4 | 55–70 | ~2 500 € |
| Qwen3.6-27B | RTX 4080 16 Go | Q8_0 | 60 | ~1 200 € |
| Qwen3.6-35B-A3B | RTX 4090 24 Go | FP8 | 45–100 | ~1 600 € |
| Qwen3.6-35B-A3B | RTX 4070S 12 Go + iGPU | UD-IQ3_XXS | 50–55 | ~800 € |
| Gemma 4 26B-A4B | RTX 5070 12 Go | IQ4_XS | 22 | ~800 € |
ARCHITECTURE
Proxmox + Ollama
Un hyperviseur pour isoler, Ollama pour servir les modèles. Simple, robuste, maintenable.
Vue d'ensemble de la stack
ANNINAIRE DES APPLICATIONS
🏆 TOP 10 des apps que vous pouvez self-hoster
Les applications open-source les plus populaires de la communauté. Hébergez-les vous-même, gardez le contrôle.
Chargement des applications populaires...
Besoin d'aide pour self-hoster ?
Nous vous accompagnons dans votre déploiement. Laissez-nous votre email et nous vous contacterons rapidement.
Votre LLM souverain est opérationnel.
Vos utilisateurs accèdent à l'interface via leur navigateur. Aucune donnée ne sort de votre réseau. Le modèle tourne 24/7 sur votre matériel, sans abonnement, sans dépendance externe.
Lire le guide complet →