Editie 01 — Lente 2026
Het Europese magazine over private AI
Technologie

Fine-tuning: hoe bedrijven een AI-model kunnen trainen op eigen data (en wanneer het loont)

Een bedrijfshandleiding voor LLM fine-tuning. Wat het is, wanneer u het nodig heeft, welke resultaten het oplevert en waarom het de stap is die een generiek LLM omzet in een echt werkinstrument.

fine-tuningLLMLoRApost-trainingAI-modellenon-premise

Het probleem: een generiek LLM kent uw bedrijf niet

ChatGPT, Claude en Gemini zijn krachtige modellen, maar generiek. Ze weten alles over alles — en niets over uw bedrijf. Ze kennen uw terminologie, procedures, communicatietoon of documentstructuur niet. Het resultaat? Benaderende antwoorden die voortdurende correcties vereisen.

Fine-tuning lost dit bij de wortel op: in plaats van elke keer uit te leggen wat te doen, leert u het model hoe — eens en voor altijd.

Wat is fine-tuning (eenvoudig uitgelegd)

Een AI-model als Llama of Mistral wordt geboren in twee fasen: pre-training (het model leest miljarden teksten en leert zinnen aan te vullen) en post-training (het model wordt getraind op instructie-antwoordparen). Fine-tuning is een derde stap, specifiek voor uw bedrijf: u neemt het reeds getrainde model en hertraineert het op uw data.

Wanneer fine-tuning nodig is (en wanneer niet)

Begin met prompt engineering en RAG. Stap over naar fine-tuning wanneer u de responstoon en -format wilt wijzigen, domeinspecifieke kennis wilt toevoegen, kosten en latentie wilt verlagen, of de outputkwaliteit op repetitieve taken wilt verhogen. In de praktijk: als RAG u 80% geeft en u 95% nodig heeft, is fine-tuning de volgende stap.

De technieken: van Full Fine-Tuning tot LoRA

Moderne technieken passen een LLM aan met toegankelijke middelen: Full Fine-Tuning hertraineert alle parameters (maximale kwaliteit), LoRA voegt kleine trainbare matrices toe zonder originele gewichten aan te raken (snel, efficient), QLoRA combineert LoRA met 4-bit compressie (werkt op beperkte hardware). Met QLoRA kan een 7-miljard parameter model worden fine-tuned op een enkele GPU met 16 GB VRAM.

Fine-tuning on-premise: waarom data niet mag vertrekken

Om fine-tuning uit te voeren moet het model bedrijfsdata zien. Het versturen naar OpenAI of Google betekent het overdragen van gevoelige data naar buitenlandse servers. Met PRISMA van HT-X vindt fine-tuning volledig on-premise plaats: data blijft in de bedrijfsinfrastructuur, het resulterende model is bedrijfseigendom en er is geen cloudproviderafhankelijkheid.

Veelgestelde vragen

Fine-tuning is het proces van het hertrainen van een AI-model op bedrijfsspecifieke data — interne documenten, brancheterminologie, operationele procedures — om precieze, contextbewuste antwoorden te krijgen. In tegenstelling tot ChatGPT, waar u een prompt schrijft en hoopt op het beste, weet een fine-tuned model al hoe het zich moet gedragen omdat het leerde van uw data.

Voor taakspecifieke fine-tuning zijn 10.000 tot 100.000 kwaliteitsvoorbeelden voldoende. Volume is niet alles: datakwaliteit en diversiteit zijn belangrijker. Een nauwkeurige, diverse dataset met niet-triviale taken levert betere resultaten op dan miljoenen middelmatige voorbeelden.

Ja. Dankzij technieken als LoRA en QLoRA is fine-tuning van open-source modellen (Llama, Mistral, DeepSeek) mogelijk op bedrijfshardware met een enkele GPU. Data blijft volledig binnen de bedrijfsinfrastructuur, wat AVG-conformiteit garandeert.

Op zoek naar een private ChatGPT voor uw bedrijf?

ORCA is het on-premise AI-platform van HT-X (Human Technology eXcellence): uw data blijft van u, AVG- en AI Act-conform.

Ontdek ORCA