Spring naar inhoud
VrijLevenVrijLeven

Decision guide

Welk AI-model voor welke klus?

Claude, GPT, Gemini en open-source Llama — allemaal goed, maar voor verschillende dingen. Dit is hoe wij kiezen in onze eigen producten, en waarom vendor-lock-in onverstandig is.

Claude Sonnet 4.5

Anthropic

Cloud

Onze go-to voor productie-code en analyses met context

Context

200k tokens

Input

€3 / mln

Output

€15 / mln

Sterk in

  • Beste in lange documenten doornemen (200k tokens context)
  • Schrijft genuanceerde Nederlandse tekst
  • Erg goed in code-refactors en architectuur-redeneren
  • Minder hallucinaties bij feitelijke vragen

Minder in

  • Duurder dan Gemini voor simpele taken
  • Geen native image-generatie
  • API-latentie iets hoger dan GPT

Wij zetten dit in voor

Jaarverslag-analyse (Inzicht)Klantdossier samenvattenOfferte-opmaak op basis van specsCode-review en architectuur

GPT-4o / o1

OpenAI

Cloud

Veelzijdig, sterk ecosysteem, goed voor chat-ervaringen

Context

128k tokens

Input

€2,50 / mln

Output

€10 / mln

Sterk in

  • Snelle responses, goed voor realtime chat
  • Native multimodaal (tekst, audio, image)
  • Groot ecosysteem (plugins, Azure, custom GPTs)
  • o1-modellen: extra redeneerkracht voor puzzels

Minder in

  • Kortere context dan Claude
  • Soms overijverig — zegt te snel 'ik mag dat niet'
  • US-hosted by default (Azure biedt EU-regio)

Wij zetten dit in voor

Klantenservice-chatbotsImage-analyse in workflowsSnelle FAQ-antwoordenTranscriptie + samenvatting (Whisper + GPT)

Gemini 2.0 Flash

Google

Cloud

Snel en goedkoop, sterk in multimodal en grote documenten

Context

1M tokens

Input

€0,15 / mln

Output

€0,60 / mln

Sterk in

  • Extreem snel (ideaal voor real-time)
  • Gigantisch context-window (1M+ tokens)
  • Goedkoop per token
  • Sterk in video- en image-analyse

Minder in

  • Tekstkwaliteit soms iets minder dan Claude/GPT
  • Nederlandse output minder vloeiend
  • Veiligheidsfilters soms te streng

Wij zetten dit in voor

OCR op grote PDF-batches (Inzicht gebruikt dit)Data-extractie uit spreadsheetsVideo-analyseGoedkope bulk-taken

Llama 3.3 / Qwen 2.5

Meta / Alibaba (open)

Open sourceSelf-hosted

Draai het op eigen servers — volledige controle en GDPR-veilig

Context

128k tokens

Input

Hardware-kosten

Output

Hardware-kosten

Sterk in

  • Volledig open source (eigen hosting mogelijk)
  • Geen data naar derden
  • Geen per-token kosten — alleen hardware
  • Fine-tunen op eigen data

Minder in

  • Tekstkwaliteit ~70-80% van top cloud-modellen
  • Inferentie-infra opzetten kost tijd/geld
  • Kleiner context-window
  • Updates komen later dan commerciële modellen

Wij zetten dit in voor

On-premise installaties (overheid/zorg)Strikt GDPR-gevoelige dataHoog-volume taken waar cloud-kosten oplopenKlassificatie + embeddings in eigen stack

Welk model voor welke klus

Scenario's uit de praktijk

Vraag

Ik wil een chatbot voor mijn klantenservice

GPT-4o of Claude Haiku

Snelle responses, goed in natuurlijke dialoog, betaalbaar per gesprek. Voor een eigen kennisbank koppelen we er vector-search (pgvector of Qdrant) aan.

Vraag

Ik heb lange PDF's/jaarverslagen die geanalyseerd moeten worden

Claude Sonnet + Gemini Flash

Gemini doet de goedkope OCR en eerste-pass, Claude doet de diepere analyse en genereert het eindrapport. Dit is de pipeline achter Inzicht.

Vraag

Ik wil AI in mijn product maar klanten mogen geen data naar US

Llama 3.3 self-hosted, of Claude via EU-regio

Voor strikte GDPR draaien we open-source modellen op eigen/EU-servers. Voor minder strenge cases werkt Anthropic's EU-endpoint prima met DPA.

Vraag

Ik wil image-herkenning in mijn workflow

GPT-4o of Gemini 2.0 Pro

Beiden doen native multimodaal. Gemini is goedkoper voor bulk, GPT heeft iets betere fijnzinnige herkenning.

Vraag

Ik heb één specifieke taak en wil hem zo goedkoop mogelijk doen

Gemini Flash of Claude Haiku

De 'kleine' modellen kosten 10-50x minder dan de grote zussen en zijn voor afgebakende taken (classificatie, extractie) meer dan goed genoeg.

Onze aanpak

Vendor-agnostisch bouwen

Wij bouwen onze AI-integraties zo dat we binnen een dag kunnen wisselen van provider. Een fatsoenlijke abstractielaag (Vercel AI SDK, LangChain, of een eigen dunne wrapper) zorgt dat je niet vastzit aan één leverancier.

Dat betekent: kostenbesparing als een model duurder wordt, kwaliteitswinst als een ander model beter blijkt, en privacy-flexibiliteit als regelgeving verandert.

In Inzicht draaien bijvoorbeeld Claude, GPT én Gemini door elkaar — elk voor hun sterkste stap in de pipeline.

Welk model past bij jouw case?

We denken graag mee. 30 minuten, gratis, zonder sales-praatje.