Select your language

Live Chat Scroll naar beneden

Lokale AI-codeeromgeving: Continue, Ollama & Devstral / DeepSeek Coder

Lokale AI-codeeromgeving: Continue, Ollama & Devstral / DeepSeek Coder

Auteur: Siu-Ho Fung

May 12, 2025

Wilt u een betere coding experience met lokale modellen? Probeer Continue - een code-assistent extensie voor Visual Studio Code. In combinatie met Ollama en geavanceerde modellen zoals Devstral / DeepSeek Coder krijgt u codevoorstellen, bewerkingen en chatfunctionaliteit, zonder dat uw broncode online wordt verstuurd.

Persoonlijke noot:
Voor wie op zoek is naar een robuust gratis alternatief voor Cursor, gebruik ik zelf een combinatie van Continue, Ollama en Devstral 24B / DeepSeek Coder 33B. Ik vind dat DeepSeek Coder capabeler is en betere resultaten oplevert. Deze setup werkt voor mij uitstekend in mijn dagelijkse ontwikkelwerkzaamheden.

Alles draait lokaal, dus uw code blijft privé en veilig - geen afhankelijkheid van de cloud.

Het brengt Cursor-achtige functies naar uw bestaande VS Code-installatie.

Of u nu werkt in Python, C++, JavaScript of PHP - deze setup biedt slimme suggesties, codebewerkingen en AI-assistentie via chat, volledig lokaal en offline.


📊 Roo Code vs. Continue – Functieoverzicht

KenmerkRoo CodeContinue
VS Code-extensie✅ Ja✅ Ja
Ondersteuning voor lokale modellen✅ Ja (via Ollama of lokale API’s)✅ Ja (via Ollama)
Ondersteuning voor cloudmodellen✅ Ja (bijv. OpenAI, Anthropic, DeepSeek)✅ Ja (bijv. OpenAI, Anthropic DeepSeek)
Chatinterface✅ Ja✅ Ja
Autocomplete-integratie✅ Ja✅ Ja (nauw geïntegreerd)
Suggesties voor codebewerkingen✅ Ja✅ Ja
Meerdere modellen configureren✅ Ja (aangepaste prompt-modi)✅ Ja (`continue.config.yaml`)
Toegang tot bestandssysteem✅ Ja✅ Ja
Terminalcommando's uitvoeren✅ Ja✅ Ja
Browserautomatisering✅ Ja❌ Nee
Offline gebruik✅ Volledig ondersteund✅ Volledig ondersteund
Open source✅ Ja✅ Ja
Eenvoudige installatie✅ Ja (via VS Code Marketplace)✅ Ja (via VS Code Marketplace)
Aanpasbaarheid✅ Hoog (modi, commando’s, routing)✅ Hoog (YAML-configuratie voor modellen en rollen)
Community-grootte🟡 Gemiddeld (in opbouw)🟢 Groot (volwassen VS Code-ecosysteem)

✅ Roo Code – Voordelen en Nadelen

Voordelen

  • Werkt met zowel lokale als cloudgebaseerde LLM’s.
  • Ondersteunt browserautomatisering en aangepaste AI-commando’s.
  • Zeer aanpasbare modi (zoals Debug, Code, Architect).
  • Terminal- en bestandsinteractie mogelijk.
  • Overzichtelijke interface binnen VS Code met multitabs voor chat.

Nadelen

  • Iets zwaarder qua gebruik dan Continue.
  • Sommige functies (zoals agents) zijn complex voor basistaken.
  • Kleinere community en minder documentatie dan Continue.

✅ Continue – Voordelen en Nadelen

Voordelen

  • Lichtgewicht en strak geïntegreerd in de VS Code-interface.
  • Naadloze ervaring voor autocomplete, chat en codebewerking.
  • Geoptimaliseerd voor gebruik met lokale modellen via continue.config.yaml.
  • Grotere community en goede documentatie.
  • Supersnelle installatie via Marketplace + Ollama.

Nadelen

  • Geen browserautomatisering of multimodale tools.
  • Geen ingebouwde agent-functies voor autonome taken.
  • Voor gevorderde multi-model workflows is handmatige configuratie nodig.

💡 Advies: Gebruik Continue als u op zoek bent naar een snelle, efficiënte AI-assistent voor code, nauw geïntegreerd met VS Code en met uitstekende ondersteuning voor lokale modellen.
Kies Roo Code als u liever een uitgebreide assistent gebruikt die ook browseropdrachten kan uitvoeren, terminaltaken kan aansturen en flexibel inzetbaar is in verschillende workflows.


🛠️ Hoe installeer u Continue in VS Code

1. Installeer de Continue-extensie

  1. Open VS Code.
  2. Ga naar het Extensies-overzicht (Ctrl+Shift+X of Cmd+Shift+X).
  3. Zoek op Continue en installeer de versie van Continue Dev.

Of gebruik de terminal:

code --install-extension Continue.continue

2. Installeer Ollama

Ollama is een lokale model-runner die naadloos samenwerkt met Continue.

🪟 Op Windows

  1. Download de installer via https://ollama.com
  2. Volg de installatie-instructies
  3. Open een terminal en voer uit:
    ollama run llama3

🍎 Op macOS

brew install ollama
ollama run llama3

3. Gebruik "betere" modellen (bijv. Devstral)

Ollama ondersteunt veel krachtige open-source modellen. Om Devstral 24B op te halen en uit te voeren:

ollama pull devstral:24b-small-2505-q4_K_M
ollama pull deepseek-coder:6.7b

Daarna testen:

ollama run devstral:24b-small-2505-q4_K_M

⚠️ Systeemvereisten: Voor het uitvoeren van dit model is een GPU met minimaal 24 GB VRAM aanbevolen, zoals een NVIDIA RTX 3090 of hoger. Gebruit u een modelvariant met minder parameters of kwantisatie, dan kan 16 GB VRAM in sommige gevallen voldoende zijn.

Dit model is bijzonder geschikt voor chat, codebewerkingen en langere prompts dankzij het uitgebreide contextvenster.


⚙️ Optioneel: Geavanceerde configuratie met continue.config.yaml

Voor diepere integratie en ondersteuning voor meerdere modellen kunt u een eigen configuratiebestand aanmaken. Hiermee kunt u:

  • Specifieke modellen toewijzen aan taken zoals chat, edit of autocomplete
  • Tokenlimieten verhogen voor modellen met lange context
  • Semantisch zoeken en embeddings toevoegen met modellen zoals nomic-embed-text

📄 Voorbeeld continue.config.yaml

Sla dit op in de root van uw projectmap of in een .continue/-map:

name: Local Assistant
version: 1.0.0
schema: v1models:
- name: Devstral Small 24B (Q4_K_M)
provider: ollama
model: devstral:24b-small-2505-q4_K_M
maxTokens: 131072 # explicitly set
contextLength: 128000 # if supported by Continue
roles:
- chat
- edit
- apply- name: DeepSeek-Coder 6.7B
provider: ollama
model: deepseek-coder:6.7b
maxTokens: 16384
contextLength: 16384
roles:
- autocomplete- name: Nomic Embed
provider: ollama
model: nomic-embed-text:latest
roles:
- embedcontext:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase

📌 Tip: Na het aanpassen van de configuratie, herstart de Continue-extensie of herlaad VS Code.


🚀 Voordelen van Continue + Ollama

Lokaal-first: Geen cloud nodig
Ondersteuning voor meerdere modellen: Gebruik gespecialiseerde modellen voor specifieke taken
Snel: Geoptimaliseerd voor real-time ontwikkelwerk
Aanpasbaar: YAML-gebaseerde configuratie
Offline: Ideaal voor beveiligde omgevingen


Door Continue te combineren met Ollama en krachtige open-source modellen zoals Devstral en Qwen3, krijgt u een AI-codeerervaring van het hoogste niveau - volledig binnen VS Code en op uw eigen machine.


🤝 Roo Code en Continue combineren

Hoewel Roo Code en Continue elk hun eigen sterke punten hebben, kunt u ze ook samen gebruiken voor een krachtige en flexibele AI-codeeromgeving.

  • Gebruik Continue voor diep geïntegreerde autocomplete, inline bewerkingen en multi-model rollen binnen VS Code.
  • Gebruik Roo Code als aanvulling voor taken zoals browserautomatisering, terminalcommando’s en gestructureerde prompts via aangepaste modi.

Door beide tools parallel te installeren in Visual Studio Code profiteert u van:

  • Het beste van snelle, contextuele code-assistentie (Continue)
  • Geavanceerde AI-agentfunctionaliteit en automatisering (Roo Code)

💡 Let op: zorg ervoor dat u configuratiebestanden (zoals continue.config.yaml en Roo’s instellingen) elkaar niet overschrijven. Beide tools draaien onafhankelijk van elkaar en kunnen naast elkaar functioneren. In sommige gevallen is het noodzakelijk om de toetsencombinaties aan te passen vanwege conflicten.


10 Codeer-Modellen voor Lokaal Gebruik met Ollama (mei 2025)

ModelnaamPrecieze ModelnaamOpmerkingen
DevStral 7Bdevstral:7b
DeepSeek Coder 6.7Bdeepseek-coder:6.7b
DeepSeek Coder 33B Q4deepseek-coder:33b-instruct-q4_K_MPersoonlijke favoriet
CodeLlama 13B Instructcodellama:13b-instruct
CodeLlama 34B Instructcodellama:34b-instructVereist veel VRAM; mogelijk met quantization
Phind-CodeLlama-34B-v2phind-codellama:34b-v2
WizardCoder 34Bwizardcoder:34bAanbevolen met Q4 of Q5 quantization
Mixtral 8x7B Instructmixtral:8x7b-instruct
StarCoder 15Bstarcoder:15bHandmatige installatie vereist
aiXcoder 7Baixcoder:7bHandmatige installatie vereist

Begin vandaag nog met slimmer, sneller en veiliger ontwikkelen, rechtstreeks vanuit uw editor.

15+ jaar ervaring Preferred partner van Dell, HPE & Supermicro en meer Advies op maat binnen 1 werkdag Snelle levering & installatie Wereldwijde 24/7 onsite support Laagste prijsgarantie