Void est un éditeur de code AI open source basé sur VS Code qui se connecte directement à n'importe quel LLM sans intermédiaire. Pas de verrouillage fournisseur, pas de problèmes de données – vous contrôlez complètement vos données. Supporte Agent Mode avec n'importe quel modèle, Checkpoints pour le contrôle de version et déploiement local via Ollama.




Tu as peut-être déjà connu cette frustration : ton code part vers un serveur tiers, et tu n'as aucun contrôle sur ce qu'il devient. Ou pire, tu es coincé avec un seul fournisseur d'IA, sans possibilité de changer de modèle selon tes besoins. Ces deux problèmes, nous les avons identifiés chez des milliers de développeurs.
Void naît précisément de ces préoccupations. C'est un éditeur de code AI open source, construit directement sur un fork de VS Code, qui te permet de te connecter à n'importe quel LLM sans aucun intermédiaire. Tes messages vont directement au fournisseur de ton choix — OpenAI, Anthropic, Google, DeepSeek, ou même des modèles locaux comme Ollama. Aucune donnée ne transite par un serveur privé. Tu gardes le contrôle total.
Notre communauté grandit vite : 28 300 étoiles sur GitHub, plus de 2 300 forks, 46 contributeurs actifs, et près de 2 800 commits. Des développeurs du monde entier ont adopté Void pour sa philosophie d'ouverture et sa flexibilité sans pareille.
⚠️ Information importante : Void a suspendu son développement pour explorer de nouvelles idées. L'éditeur continuera à fonctionner, mais sans maintenance active, certaines fonctionnalités pourraient cesser de fonctionner avec le temps.
Ce qui distingue Void, c'est sa capacité à s'adapter à ton workflow plutôt que l'inverse. Nous avons conçu chaque fonctionnalité pour qu'elle soit intuitive et puissante à la fois.
Tu tapes ton code et tu appuies sur Tab pour accepter les suggestions IA. Le système utilise des modèles FIM (Fill-in-the-Middle) personnalisés pour des prédictions pertinentes, directement intégrées à ton flux de travail.
选中一段代码,然后按 Ctrl+K. Un assistant IA apparaît pour modifier cette sélection précise. L'historique des éditions est géré automatiquement, tu peux revenir en arrière facilement.
Le panneau de chat propose trois approches distinctes. En mode Chat classique, tu poses des questions sur ton code. Le mode Agent donne à l'IA les mains libres pour chercher, créer, éditer ou supprimer des fichiers — un vrai partenaire de travail. Le mode Gather est plus restreint, idéal pour explorer un projet sans le modifier.
Tu peux référencer des fichiers avec @file ou @folder, et le système inclut des liens vers les symboles de ton projet pour des réponses plus précises.
C'est ici que Void révèle son vrai potentiel. L'IA agit comme un agent complet avec accès au terminal, aux outils MCP, et peut corriger les erreurs de lint automatiquement. Le point fort : n'importe quel modèle peut exécuter ce mode, même ceux qui ne supportent pas nativement le tool calling — comme DeepSeek R1, Gemma 3, ou GPT 4.1.
Chaque édition faite par l'IA est sauvegardée avec un diff visuel. Tu peux naviguer dans l'historique, comparer les versions, et revenir à un état précédent en un clic. Fini les manipulations hasardeuses de Ctrl+Z.
Depuis la version 1.4.1, Void intègre le Model Context Protocol. Tu peux connecter des outils externes directement dans ton workflow — services de données, APIs internes, ou tout ce que la communauté MCP développe.
Quand tu dois modifier un fichier de 1000 lignes, pas le temps pour les résumés intermédiaires. Fast Apply sort directement les blocs Search/Replace, pour des opérations massives ultra-rapides.
Void s'adresse à des profils très différents, united par un besoin commun : le contrôle. Voici comment notre communauté l'utilise au quotidien.
Tu n'as pas envie que ton code propriétaire parte vers des serveurs externes ? Nous aussi. Void connecte directement ton LLM sans aucun intermédiaire, et si tu veux aller plus loin, Ollama permet de faire tourner tout localement. Tes données ne quittent jamais ta machine. C'est particulièrement appréciable pour le code sensibles ou les projets confidentiels.
Tu utilises DeepSeek pour le coût, Claude pour la rédaction, Gemini pour la vitesse — et tu veux choisir selon la tâche ? Void te permet de basculer d'un modèle à l'autre en quelques secondes. Plus de verrouillage fournisseur.
Tu maîtrises ton éditeur sur le bout des doigts, et l'idée d'apprendre un nouveau logiciel te rebute ? Void résout ça élégamment. Puisque c'est un fork de VS Code, tes thèmes, tes extensions, tes raccourcis clavier, tout ça migre instantanément. Tu retrouves ton environnement exactement comme avant, avec l'IA en plus.
Les modèles open source comme Llama, Qwen ou Mistral sont économiques et adaptables. Mais la plupart ne supportent pas le tool calling, ce qui limite leur usage en développement. Void contourne cette limitation : n'importe quel modèle peut tourner en Agent Mode, même sans support natif. Tu obtiens un environnement IA local et pas cher.
Audit de sécurité, conformité RGPD, politiques internes — les entreprises ont des exigences strictes. Void répond : code 100% open source auditable, possibilité d'auto-hébergement avec Ollama ou vLLM, aucune donnée qui transite vers l'extérieur.
Pour une confidentialité maximale, configure Void avec Ollama en local. Pour une puissance maximale sur des tâches complexes, utilise les API cloud (Claude 3.7 ou GPT-4.1 recommandés pour démarrer).
Installer Void et le faire tourner prend moins de dix minutes. Voici comment.
Rends-toi sur voideditor.com/download-beta et choisis ta plateforme — nous supportons macOS (Intel et Apple Silicon), Windows (x64 et ARM), et Linux. Télécharge, installe, et lance l'application.
Tu as besoin de deux choses :
Au premier lancement, rends-toi dans Settings → Models. Ajoute ta clé API ou configure la connexion Ollama. Le système détecte automatiquement les modèles disponibles.
Pour découvrir toutes les capacités, commence par tester Agent Mode avec Claude 3.7 ou GPT-4.1. Ces modèles excellent dans la compréhension du contexte et la génération de code de qualité.
Void repose sur une architecture solide et transparence totale.
L'éditeur fork directement le code de VS Code v1.99.0, ce qui garantit une stabilité exceptionnelle et une compatibilité immédiate avec l'écosystème existant. Le code est écrit à 95.3% en TypeScript, avec des composants en Rust (0.7%) pour les performances critiques. Tout est distribué sous licence Apache 2.0, te permettant de audit, modifier et redistribuer à ta guise.
La version 1.4.1 (Beta Patch #7, juin 2025) inclut le support MCP, la génération de commits IA, et les diffs visuels pour l'outil Edit.
Nous avons développé plusieurs fonctionnalités originales :
En local : Ollama (Llama, Qwen, Mistral), DeepSeek V3, Gemma, vLLM
Via API : OpenAI (o3, o4-mini), Anthropic (Claude 3.7, 4), Google (Gemini 2.5), xAI (Grok 3)
Void lui-même est entièrement gratuit et open source. Cependant, pour utiliser les fonctionnalités IA, tu dois fournir ta propre clé API (OpenAI, Anthropic, Google) ou faire tourner un modèle en local avec Ollama — ce qui implique des coûts d'infrastructure.
Cursor est un produit commercial fermé. Void se distingue par trois points essentiels : il est 100% open source (code auditable), il te connecte directement à n'importe quel LLM sans intermédiaire, et tu maîtrises complètement tes données — rien ne transite par nos serveurs.
Le logiciel lui-même est gratuit. En revanche, appeler les API des fournisseurs LLM (OpenAI, Anthropic, Google) te sera facturé par ces derniers. Si tu utilises Ollama en local, le coût se limite à ton infrastructure (électricité, matériel).
Absolument. Void supporte Ollama et vLLM pour une exécution 100% locale. Tes données ne quittent jamais ta machine, et tu peux travailler sans connexion internet.
Tous. C'est l'une des forces de Void — même les modèles open source qui ne supportent pas nativement le tool calling (comme DeepSeek R1, Gemma 3) peuvent fonctionner en Agent Mode.
⚠️ Void a suspendu son développement pour explorer de nouvelles idées. L'éditeur continuera à fonctionner, mais sans maintenance active. Les issues et pull requests ne sont plus examinées de manière proactive, bien que les maintainers répondent aux emails.
Nous accueillons les contributions via GitHub. Soumets une pull request et notre processus de review évaluera ton apport. Le projet est sous licence Apache 2.0, donc tout contribution est la bienvenue.
Découvrez les derniers outils IA et boostez votre productivité dès aujourd'hui.
Parcourir tous les outilsVoid est un éditeur de code AI open source basé sur VS Code qui se connecte directement à n'importe quel LLM sans intermédiaire. Pas de verrouillage fournisseur, pas de problèmes de données – vous contrôlez complètement vos données. Supporte Agent Mode avec n'importe quel modèle, Checkpoints pour le contrôle de version et déploiement local via Ollama.
Outil d'essai virtuel et photographie de bijoux alimenté par IA
Plateforme de génération et d'édition SVG alimentée par IA
Photos de rencontre IA qui vous procurent réellement des matches
Plateforme complète de génération vidéo par IA
Plus de 1000 modèles sans code sélectionnés en un seul endroit
Nous avons testé plus de 30 outils d'IA pour le code et sélectionné les 12 meilleurs de 2026. Comparez fonctionnalités, prix et performances réelles de Cursor, GitHub Copilot, Windsurf et plus.
Nous avons testé les meilleurs outils d'écriture IA pour blogs et trouvé les 5 meilleurs pour le SEO. Comparez Jasper, Frase, Copy.ai, Surfer SEO et Writesonic — avec tarifs, fonctionnalités et avis honnêtes.