Guide
Hur du koer din egen AI istaellet foer ChatGPT (Guide foer egenvaerderad AI 2026)
Koer ChatGPT-nivaa AI paa dina egna servrar med open-source-modeller. Alternativ, haardvarukrav och steg-foer-steg installationsguide.
Du kan koera en stor spraakmodell lika kapabel som ChatGPT paa en server paa ditt kontor — eller i ett europeiskt datacenter du kontrollerar. Modellvikterna aer gratis. Inferensmjukvaran aer gratis. Dina data roer aldrig naaagon annans infrastruktur.
Varfoer sjaelvhosta AI
Tre krafter driver europeiska foeretag mot sjaelvhaanterad AI: datasuveraenitet aer icke-foerhandlingsbar, Shadow AI finns redan i ditt foeretag (77% av anstoellda anvaender icke-godkaenda AI-verktyg) och kostnadsfoeruts aegbarhet (fasta infrastrukturkostnader mot per-saete-priser).
Modellerna: vad du ska koera 2026
De toppval: Llama 3.3 70B foer baesta balans mellan kapacitet och resurskrav, DeepSeek R1 67B foer kod och komplex analys, och Mistral 7B eller Gemma 9B foer en mindre, snabbare modell paa modest haardvara. Nyckelfoeridelen med sjaelvhosting: du aer inte laast till en enda modell.
Verktygen: hur du serverar modeller
Ollama aer den enklaste vaegen. vLLM aer den produktionsklara inferensmotorn. Hugging Face TGI erbjuder avancerade serveringsfunktioner. ORCA aer inte en verktygslada utan en komplett plattform.
Haardvarukrav
Minimum: 16 GB RAM, GPU rekommenderas, 7B-13B modeller. Produktion (10-50 anvaendare): NVIDIA A100 40GB, 70B modeller, budget EUR 10 000-25 000. Enterprise (50-200+ anvaendare): 2-4x NVIDIA A100 80GB, budget EUR 50 000-150 000.
Naer sjaelvhosting inte raecker
Om du saknar ML-ingenjoeerskapacitet, behoever garanterade SLA:er eller vill fokusera paa att anvaenda AI snarare aen att driva den — daa oeverbryggar en hanterad on-premise-loesning klyftan. ORCA fraan HT-X aer byggd foer exakt detta scenario.
Vanliga fraagor
On-premise LLM (Large Language Models) aer AI-modeller installerade direkt paa foeretagets servrar, istaellet foer att anvaendas via molntjaenster. Detta saekerstaealler att data aldrig laemnar foeretagsinfrastrukturen, vilket ger total integritet och GDPR-efterlevnad.
De ledande open-source-modellerna 2026 aer: Llama 3 (Meta) foer allmaent bruk, Mistral foer effektivitet och europeiska spraakprestanda, DeepSeek foer avancerat resonemang, Qwen 3.5 (Alibaba) foer multimodala och flerspraakiga uppgifter. ORCA stoedjer alla dessa modeller.
Det beror paa modellen och antalet anvaendare. Foer ett SMF med 10-50 anvaendare raecker en server med NVIDIA A100 GPU eller motsvarande foer 7-13B parametermodeller. Foer stoerre modeller (70B+) kraevs multi-GPU-konfigurationer.
Foer komplicerat att sjaelvhosta?
ORCA ger dig privat AI utan infrastrukturhantering. Samma open-source-modeller, samma datasuveraenitet — men HT-X hanterar installation, uppdateringar och support.
Begoer en pilot