Auteur: Siu-Ho Fung
May 12, 2025
Wilt u een betere coding experience met lokale modellen? Probeer Continue - een code-assistent extensie voor Visual Studio Code. In combinatie met Ollama en geavanceerde modellen zoals Devstral / DeepSeek Coder krijgt u codevoorstellen, bewerkingen en chatfunctionaliteit, zonder dat uw broncode online wordt verstuurd.
Persoonlijke noot:
Voor wie op zoek is naar een robuust gratis alternatief voor Cursor, gebruik ik zelf een combinatie van Continue, Ollama en Devstral 24B / DeepSeek Coder 33B. Ik vind dat DeepSeek Coder capabeler is en betere resultaten oplevert. Deze setup werkt voor mij uitstekend in mijn dagelijkse ontwikkelwerkzaamheden.
Alles draait lokaal, dus uw code blijft privé en veilig - geen afhankelijkheid van de cloud.
Het brengt Cursor-achtige functies naar uw bestaande VS Code-installatie.
Of u nu werkt in Python, C++, JavaScript of PHP - deze setup biedt slimme suggesties, codebewerkingen en AI-assistentie via chat, volledig lokaal en offline.
Kenmerk | Roo Code | Continue |
---|---|---|
VS Code-extensie | ✅ Ja | ✅ Ja |
Ondersteuning voor lokale modellen | ✅ Ja (via Ollama of lokale API’s) | ✅ Ja (via Ollama) |
Ondersteuning voor cloudmodellen | ✅ Ja (bijv. OpenAI, Anthropic, DeepSeek) | ✅ Ja (bijv. OpenAI, Anthropic DeepSeek) |
Chatinterface | ✅ Ja | ✅ Ja |
Autocomplete-integratie | ✅ Ja | ✅ Ja (nauw geïntegreerd) |
Suggesties voor codebewerkingen | ✅ Ja | ✅ Ja |
Meerdere modellen configureren | ✅ Ja (aangepaste prompt-modi) | ✅ Ja (`continue.config.yaml`) |
Toegang tot bestandssysteem | ✅ Ja | ✅ Ja |
Terminalcommando's uitvoeren | ✅ Ja | ✅ Ja |
Browserautomatisering | ✅ Ja | ❌ Nee |
Offline gebruik | ✅ Volledig ondersteund | ✅ Volledig ondersteund |
Open source | ✅ Ja | ✅ Ja |
Eenvoudige installatie | ✅ Ja (via VS Code Marketplace) | ✅ Ja (via VS Code Marketplace) |
Aanpasbaarheid | ✅ Hoog (modi, commando’s, routing) | ✅ Hoog (YAML-configuratie voor modellen en rollen) |
Community-grootte | 🟡 Gemiddeld (in opbouw) | 🟢 Groot (volwassen VS Code-ecosysteem) |
Voordelen
Nadelen
Voordelen
continue.config.yaml
.Nadelen
💡 Advies: Gebruik Continue als u op zoek bent naar een snelle, efficiënte AI-assistent voor code, nauw geïntegreerd met VS Code en met uitstekende ondersteuning voor lokale modellen.
Kies Roo Code als u liever een uitgebreide assistent gebruikt die ook browseropdrachten kan uitvoeren, terminaltaken kan aansturen en flexibel inzetbaar is in verschillende workflows.
Ctrl+Shift+X
of Cmd+Shift+X
).Continue
en installeer de versie van Continue Dev.Of gebruik de terminal:
code --install-extension Continue.continue
Ollama is een lokale model-runner die naadloos samenwerkt met Continue.
ollama run llama3
brew install ollama
ollama run llama3
Ollama ondersteunt veel krachtige open-source modellen. Om Devstral 24B op te halen en uit te voeren:
ollama pull devstral:24b-small-2505-q4_K_M
ollama pull deepseek-coder:6.7b
Daarna testen:
ollama run devstral:24b-small-2505-q4_K_M
⚠️ Systeemvereisten: Voor het uitvoeren van dit model is een GPU met minimaal 24 GB VRAM aanbevolen, zoals een NVIDIA RTX 3090 of hoger. Gebruit u een modelvariant met minder parameters of kwantisatie, dan kan 16 GB VRAM in sommige gevallen voldoende zijn.
Dit model is bijzonder geschikt voor chat, codebewerkingen en langere prompts dankzij het uitgebreide contextvenster.
continue.config.yaml
Voor diepere integratie en ondersteuning voor meerdere modellen kunt u een eigen configuratiebestand aanmaken. Hiermee kunt u:
chat
, edit
of autocomplete
nomic-embed-text
continue.config.yaml
Sla dit op in de root van uw projectmap of in een .continue/
-map:
name: Local Assistant
version: 1.0.0
schema: v1models:
- name: Devstral Small 24B (Q4_K_M)
provider: ollama
model: devstral:24b-small-2505-q4_K_M
maxTokens: 131072 # explicitly set
contextLength: 128000 # if supported by Continue
roles:
- chat
- edit
- apply- name: DeepSeek-Coder 6.7B
provider: ollama
model: deepseek-coder:6.7b
maxTokens: 16384
contextLength: 16384
roles:
- autocomplete- name: Nomic Embed
provider: ollama
model: nomic-embed-text:latest
roles:
- embedcontext:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase
📌 Tip: Na het aanpassen van de configuratie, herstart de Continue-extensie of herlaad VS Code.
✅ Lokaal-first: Geen cloud nodig
✅ Ondersteuning voor meerdere modellen: Gebruik gespecialiseerde modellen voor specifieke taken
✅ Snel: Geoptimaliseerd voor real-time ontwikkelwerk
✅ Aanpasbaar: YAML-gebaseerde configuratie
✅ Offline: Ideaal voor beveiligde omgevingen
Door Continue te combineren met Ollama en krachtige open-source modellen zoals Devstral en Qwen3, krijgt u een AI-codeerervaring van het hoogste niveau - volledig binnen VS Code en op uw eigen machine.
Hoewel Roo Code en Continue elk hun eigen sterke punten hebben, kunt u ze ook samen gebruiken voor een krachtige en flexibele AI-codeeromgeving.
Door beide tools parallel te installeren in Visual Studio Code profiteert u van:
💡 Let op: zorg ervoor dat u configuratiebestanden (zoals
continue.config.yaml
en Roo’s instellingen) elkaar niet overschrijven. Beide tools draaien onafhankelijk van elkaar en kunnen naast elkaar functioneren. In sommige gevallen is het noodzakelijk om de toetsencombinaties aan te passen vanwege conflicten.
Modelnaam | Precieze Modelnaam | Opmerkingen |
---|---|---|
DevStral 7B | devstral:7b | |
DeepSeek Coder 6.7B | deepseek-coder:6.7b | |
DeepSeek Coder 33B Q4 | deepseek-coder:33b-instruct-q4_K_M | Persoonlijke favoriet |
CodeLlama 13B Instruct | codellama:13b-instruct | |
CodeLlama 34B Instruct | codellama:34b-instruct | Vereist veel VRAM; mogelijk met quantization |
Phind-CodeLlama-34B-v2 | phind-codellama:34b-v2 | |
WizardCoder 34B | wizardcoder:34b | Aanbevolen met Q4 of Q5 quantization |
Mixtral 8x7B Instruct | mixtral:8x7b-instruct | |
StarCoder 15B | starcoder:15b | Handmatige installatie vereist |
aiXcoder 7B | aixcoder:7b | Handmatige installatie vereist |
Begin vandaag nog met slimmer, sneller en veiliger ontwikkelen, rechtstreeks vanuit uw editor.