N. 01 — Primavera 2026
Il magazine europeo sull'AI privata

Guida

Directory strumenti AI privati — 50+ soluzioni GDPR-compliant per le aziende europee

Trova lo strumento AI privato giusto per la tua azienda. Filtra per tipologia, hosting e conformita. 50+ soluzioni a confronto: piattaforme gestite, toolkit open-source, app desktop e opzioni cloud EU.

Scegliere uno strumento AI privato nel 2026 significa navigare un panorama che due anni fa quasi non esisteva. I modelli open-source hanno raggiunto la qualita per la produzione. Le piattaforme gestite europee sono maturate. I provider cloud hanno aggiunto opzioni di data residency nell’UE. Le opzioni sono reali — ma lo e anche la complessita di confrontarle.

Questa directory taglia il rumore. Abbiamo catalogato oltre 50 strumenti e piattaforme che permettono alle aziende europee di usare l’AI generativa senza inviare dati a server che non controllano. Ogni voce e valutata sugli stessi criteri: modello di deployment, residenza dei dati, conformita GDPR, compatibilita AI Act e idoneita pratica per l’uso aziendale.

Come usare questa directory: Trova la tua categoria qui sotto, confronta le opzioni e seleziona gli strumenti che corrispondono alle tue capacita tecniche e ai tuoi requisiti di conformita. Ogni voce include le informazioni necessarie per una prima valutazione. Per analisi piu approfondite su soluzioni specifiche, segui i link alle nostre recensioni e guide dedicate.

Riferimento rapido — categorie di strumenti

Categoria Ideale per Strumenti esempio
Piattaforme gestite Aziende senza team ML che necessitano di AI privata chiavi in mano ORCA, Aleph Alpha, Dust
Toolkit open-source Team tecnici che vogliono il massimo controllo e personalizzazione Ollama, vLLM, llama.cpp, LocalAI
App desktop Utenti singoli o piccoli team, nessun server richiesto LM Studio, GPT4All, Jan
Cloud con residenza UE Aziende che necessitano di modelli proprietari con garanzie di data residency UE Azure OpenAI (UE), Amazon Bedrock (Francoforte), OVHcloud AI
Strumenti RAG e documenti Team focalizzati sull’interrogazione di documenti interni PrivateGPT, AnythingLLM, Danswer, Quivr

Piattaforme AI private gestite

Le piattaforme gestite si installano sulla tua infrastruttura (on-premise o cloud privato) ma il fornitore si occupa di deployment, configurazione, aggiornamenti e supporto. Ottieni l’AI privata senza costruire lo stack da solo.

ORCA di HT-X

Tipo Piattaforma gestita on-premise
Hosting I tuoi server o cloud privato europeo
Modelli Llama 3, Mistral, DeepSeek, Qwen 3.5 e altri
GDPR Conforme per architettura — i dati non lasciano mai la tua infrastruttura
AI Act I modelli open-source garantiscono piena trasparenza e verificabilita
Lingue Interfaccia in italiano, inglese, tedesco; i modelli supportano 20+ lingue
Ideale per PMI e medie imprese europee che necessitano di AI privata pronta per la produzione
Sito web ht-x.com/orca/

ORCA e una piattaforma AI chiavi in mano che gira interamente sulla tua infrastruttura. Offre un’interfaccia simile a ChatGPT per chat, analisi documenti e interrogazione della knowledge base aziendale, con supporto multi-modello per scegliere il modello migliore per ogni attivita. Il RAG (Retrieval-Augmented Generation) permette agli utenti di interrogare i documenti aziendali — contratti, manuali, wiki interne — senza che i dati escano mai dal perimetro. Audit trail e controlli di accesso sono integrati.

Nota di trasparenza: ORCA e sviluppato da HT-X S.r.l., l’azienda dietro Private AI Europe. Lo includiamo perche e rilevante per questa directory, ma segnaliamo la relazione per trasparenza. {#disclosure}

Aleph Alpha (PhariaAI)

Tipo Cloud gestito / on-premise
Hosting Data center tedeschi; opzione on-premise disponibile
Modelli Pharia (proprietario), piu supporto modelli open-source
GDPR Conforme — azienda tedesca, hosting UE
Ideale per Grandi imprese, pubblica amministrazione, settori regolamentati
Sito web aleph-alpha.com

Azienda AI tedesca focalizzata sull’AI sovrana per enterprise e pubblica amministrazione. Forte nel mercato DACH, con clienti nella difesa, PA e servizi finanziari. Fascia di prezzo superiore alla maggior parte delle alternative, rivolta a deployment enterprise.

Dust

Tipo Piattaforma gestita (cloud)
Hosting Data center UE
Modelli Multi-modello (GPT-4, Claude, Mistral)
GDPR DPA disponibile; hosting UE
Ideale per Team che necessitano di assistenti AI collegati agli strumenti interni (Slack, Notion, Google Drive)
Sito web dust.tt

Azienda francese che crea assistenti AI integrati nei workflow aziendali. Si collega a Slack, Notion, Google Drive e altri strumenti di lavoro. Utilizza piu modelli via API. Elaborazione dati nell’UE, ma si appoggia a provider di modelli terzi.

Mistral AI (La Plateforme)

Tipo API cloud / modelli self-hosted
Hosting Data center francesi/UE (cloud); opzione self-hosted con modelli open-weight
Modelli Mistral Large, Mistral Medium, Mistral Small, Codestral, varianti open-weight
GDPR Conforme — azienda francese, infrastruttura UE
Ideale per Aziende che cercano un’alternativa europea all’API di OpenAI, o self-hosting dei modelli Mistral
Sito web mistral.ai

Laboratorio AI parigino che offre sia accesso API commerciale sia modelli open-weight da eseguire in autonomia. L’API gira su infrastruttura UE. I modelli open-weight (Mistral 7B, Mixtral, Mistral Small) possono essere distribuiti on-premise per la piena sovranita dei dati. Eccellente performance multilingue, specialmente per le lingue europee.

Toolkit di inferenza open-source

Questi strumenti permettono di eseguire LLM sul tuo hardware. Scarichi il modello, installi il software e servi l’inferenza localmente. Massimo controllo, ma tutta la gestione operativa spetta a te.

Ollama

Tipo Motore di inferenza open-source
Hosting Self-hosted (il tuo hardware)
Modelli Llama 3, Mistral, DeepSeek, Qwen, Gemma, Phi, 100+ altri
GDPR Si — gira interamente sulla tua infrastruttura
Ideale per Sviluppatori e piccoli team che iniziano con gli LLM locali
Sito web ollama.com

Il modo piu semplice per eseguire LLM localmente. Installazione con un comando, libreria con oltre 100 modelli pre-configurati, API REST per l’integrazione. Gira su macOS, Linux e Windows. Punto di partenza ideale, ma funzionalita enterprise limitate (nessuna gestione utenti, audit trail o RAG integrato).

vLLM

Tipo Motore di inferenza open-source
Hosting Self-hosted (server GPU)
Modelli La maggior parte dei modelli Hugging Face
GDPR Si — gira sulla tua infrastruttura
Ideale per Deployment produttivi che richiedono alto throughput e concorrenza multi-utente
Sito web vllm.ai

Motore di inferenza ad alte prestazioni ottimizzato per il throughput. La tecnologia PagedAttention permette una gestione efficiente della memoria, supportando piu utenti concorrenti per GPU. API compatibile con OpenAI per sostituzione diretta degli endpoint. La scelta d’elezione per deployment produttivi seri — richiede hardware GPU e competenze DevOps.

llama.cpp

Tipo Libreria di inferenza open-source
Hosting Self-hosted (gira su CPU e GPU)
Modelli Modelli in formato GGUF (Llama, Mistral e molti altri)
GDPR Si — completamente locale
Ideale per Eseguire modelli su hardware consumer, deployment edge, server solo CPU
Sito web github.com/ggml-org/llama.cpp

Implementazione C/C++ che esegue LLM in modo efficiente su CPU — nessuna GPU necessaria, anche se l’accelerazione GPU e supportata. Permette di eseguire modelli su hardware che altrimenti sarebbe troppo limitato. Motore alla base di molte app desktop (LM Studio, Jan, GPT4All).

LocalAI

Tipo Server API open-source
Hosting Self-hosted
Modelli LLM, generazione immagini, audio, embeddings
GDPR Si — completamente locale
Ideale per Team che vogliono un’API locale compatibile con OpenAI per piu tipi di modelli
Sito web localai.io

Server compatibile con l’API di OpenAI che gira localmente. Supporta non solo la generazione di testo ma anche generazione di immagini, speech-to-text ed embeddings. Utile come sostituto locale drop-in per l’API OpenAI nelle applicazioni esistenti.

Applicazioni AI desktop

Nessun server necessario. Queste app eseguono LLM direttamente su un laptop o una workstation. Ideali per utenti singoli o piccoli team.

LM Studio

Tipo Applicazione desktop
Hosting Gira localmente sul tuo computer
Modelli Migliaia di modelli da Hugging Face
GDPR Si — completamente offline
Ideale per Utenti non tecnici che vogliono un’esperienza AI locale di qualita
Sito web lmstudio.ai

L’applicazione desktop LLM piu user-friendly. Scarica modelli con un click, chatta attraverso un’interfaccia pulita, e opzionalmente esponi un’API locale. Gira su macOS, Windows e Linux. Nessuna riga di comando necessaria.

GPT4All

Tipo Applicazione desktop
Hosting Gira localmente
Modelli Libreria curata di modelli ottimizzati
GDPR Si — completamente offline
Ideale per Utenti che vogliono il setup piu semplice possibile per AI locale
Sito web gpt4all.io

Di Nomic AI. Installazione con un click, gira su hardware consumer incluse macchine senza GPU. Libreria di modelli curata, focalizzata su modelli che funzionano bene su laptop standard. La funzione LocalDocs permette di chattare con i propri file.

Jan

Tipo Applicazione desktop (open-source)
Hosting Gira localmente
Modelli Modelli Hugging Face, compatibile API OpenAI
GDPR Si — completamente offline
Ideale per Utenti attenti alla privacy che cercano un’alternativa open-source a LM Studio
Sito web jan.ai

Applicazione AI desktop open-source. Interfaccia pulita, gestione locale dei modelli e possibilita di connettersi ad API remote quando necessario. Completamente offline per impostazione predefinita. Comunita open-source attiva.

Cloud AI con data residency nell’UE

Questi servizi eseguono modelli proprietari (GPT-4, Claude) attraverso data center fisicamente situati nell’Unione Europea. I dati restano in Europa, ma girano sull’infrastruttura condivisa del provider.

Azure OpenAI Service (regioni UE)

Tipo API cloud
Hosting Data center Microsoft in West Europe (Paesi Bassi), France Central, Sweden Central
Modelli GPT-4o, GPT-4, GPT-3.5, DALL-E, Whisper
GDPR DPA disponibile; dati trattati nell’UE; nessun addestramento sui dati del cliente
Ideale per Aziende che necessitano di GPT-4 con garanzie di data residency UE
Sito web azure.microsoft.com/products/ai-services/openai-service

Esegui modelli OpenAI attraverso i data center europei di Microsoft. I dati non lasciano l’UE e Microsoft si impegna contrattualmente a non addestrare sui tuoi dati. SLA enterprise-grade, integrazione con l’ecosistema Azure. Tuttavia, i dati risiedono comunque sull’infrastruttura di Microsoft — non sulla tua.

Amazon Bedrock (regione Francoforte)

Tipo API cloud
Hosting AWS eu-central-1 (Francoforte)
Modelli Claude (Anthropic), Llama 3, Mistral, Titan, Cohere
GDPR DPA disponibile; data residency UE; nessun addestramento sui dati del cliente
Ideale per Aziende gia su AWS che vogliono accesso multi-modello con hosting UE
Sito web aws.amazon.com/bedrock

Il servizio AI gestito di Amazon. Accesso a piu modelli tramite un’unica API, con dati elaborati nella regione di Francoforte. Stessa avvertenza di Azure: data residency UE su infrastruttura condivisa, non sovranita on-premise.

OVHcloud AI Endpoints

Tipo API cloud
Hosting Data center OVHcloud (Francia)
Modelli Mistral, Llama e altri modelli open-source
GDPR Conforme — azienda francese, infrastruttura francese
Ideale per Aziende che vogliono uno stack AI cloud completamente europeo
Sito web ovhcloud.com/it/public-cloud/ai-endpoints

Provider cloud francese che offre inferenza AI su infrastruttura europea. Catena di fornitura completamente europea — nessuna dipendenza da hyperscaler americani. Catalogo di modelli in crescita, prezzi competitivi. Una scelta solida per le aziende che vogliono evitare completamente i provider cloud statunitensi.

Strumenti RAG e AI per documenti

Questi strumenti sono specializzati nel Retrieval-Augmented Generation — collegano un LLM ai documenti aziendali cosi da poter rispondere a domande basate sui dati reali dell’azienda.

PrivateGPT

Tipo Piattaforma RAG open-source
Hosting Self-hosted
Modelli Funziona con qualsiasi LLM locale (via llama.cpp, Ollama, ecc.)
GDPR Si — completamente locale, nessun dato esce dalla tua macchina
Ideale per Team che necessitano di Q&A documentale con privacy completa
Sito web privategpt.dev

Importa documenti (PDF, DOCX, TXT e altri), costruisci un indice vettoriale locale e fai domande a cui risponde un LLM basandosi sui tuoi dati. Completamente offline. API e interfaccia utente incluse. Uno dei primi strumenti costruiti specificamente per l’AI documentale privata.

AnythingLLM

Tipo Piattaforma AI documentale open-source
Hosting Self-hosted o desktop
Modelli Funziona con modelli locali (Ollama, LM Studio) o API cloud
GDPR Si, quando usato con modelli locali
Ideale per Team che vogliono un workspace documentale completo con backend di modelli flessibili
Sito web anythingllm.com

Workspace all-in-one per l’AI documentale. Carica documenti, crea workspace, chatta con i tuoi dati. Supporta piu backend di modelli — locali o cloud. Gestione utenti e permessi integrati. App desktop disponibile per uso individuale.

Danswer

Tipo Ricerca enterprise open-source + AI
Hosting Self-hosted
Modelli Funziona con LLM locali o cloud
GDPR Si, quando self-hosted con modelli locali
Ideale per Aziende che vogliono ricerca AI attraverso gli strumenti interni (Slack, Confluence, Google Drive, ecc.)
Sito web danswer.ai

Ricerca enterprise AI-powered che si collega a Slack, Confluence, Google Drive, Jira, Notion e dozzine di altre fonti dati. Fai una domanda in linguaggio naturale, ottieni una risposta con citazioni dalla tua knowledge interna. Self-hosted per la sovranita dei dati.

Quivr

Tipo Assistente knowledge open-source
Hosting Self-hosted o cloud
Modelli Funziona con piu provider LLM
GDPR Si, quando self-hosted
Ideale per Team che vogliono un secondo cervello per la conoscenza aziendale
Sito web quivr.com

Carica documenti e URL per costruire una knowledge base privata, poi chatta con essa. Supporta piu formati di file e fonti dati. Opzione self-hosted per la privacy completa. Sviluppo attivo e comunita in crescita.

Come valutare gli strumenti AI privati

Con oltre 50 opzioni disponibili, restringere il campo richiede un approccio strutturato. Ecco i cinque criteri piu importanti per le aziende europee:

1. Sovranita dei dati. Dove finiscono i dati quando invii un prompt? Gli strumenti on-premise e self-hosted ottengono il punteggio piu alto — i dati non lasciano mai la tua infrastruttura. I servizi cloud UE sono una via di mezzo. Qualsiasi strumento che instrada i dati fuori dall’UE senza garanzie contrattuali esplicite dovrebbe essere escluso per i casi d’uso sensibili.

2. Conformita normativa. La conformita GDPR e il requisito minimo. La conformita all’AI Act sta diventando altrettanto importante. Cerca: audit trail, documentazione sulla trasparenza, capacita di spiegare gli output del modello e supporto per la supervisione umana. Le piattaforme gestite tipicamente includono queste funzionalita; gli strumenti self-hosted richiedono di costruirle da soli.

3. Requisiti tecnici. Gli strumenti self-hosted richiedono hardware GPU, competenze DevOps e capacita di manutenzione continua. Le app desktop richiedono hardware moderno ma nessuna infrastruttura server. Le piattaforme gestite e i servizi cloud hanno la barriera tecnica piu bassa. Sii onesto sulle capacita del tuo team.

4. Flessibilita di modello. Evita il lock-in su un singolo modello. I migliori strumenti supportano piu modelli cosi puoi cambiare man mano che il panorama evolve. Il miglior modello di oggi potrebbe non essere quello di domani. Piattaforme come ORCA e toolkit come Ollama ti danno questa flessibilita. Le API cloud possono vincolarti alla famiglia di modelli di un singolo provider.

5. Costo totale di possesso. Il software gratuito non e gratuito da operare. Includi nel calcolo hardware, elettricita, tempo di ingegneria e costo-opportunita. Il SaaS per utente e prevedibile ma scala linearmente. Le soluzioni on-premise a costo fisso hanno costi iniziali piu alti ma un’economia migliore a scala. Modella il tuo scenario specifico su 3 anni, non solo sul primo mese.

Il panorama si muove velocemente

Questa directory riflette lo stato del mercato a inizio 2026. Nuovi strumenti appaiono ogni mese, quelli esistenti aggiungono funzionalita e alcuni non sopravviveranno. Aggiorniamo regolarmente questa pagina per mantenerla accurata.

Se abbiamo tralasciato uno strumento che dovrebbe essere qui, o se le informazioni su uno strumento elencato sono obsolete, faccelo sapere.

Cio che non cambiera e il bisogno sottostante: le aziende europee necessitano di strumenti AI che rispettino i loro dati, le loro normative e la loro sovranita. Gli strumenti elencati qui lo rendono possibile.

Domande frequenti

Parti da tre domande: (1) Quali dati trattera l'AI — dati personali, segreti industriali, dati finanziari? Questo determina il livello di conformita necessario. (2) Hai competenze ML/DevOps interne? Se no, una piattaforma gestita e piu sicura del fai-da-te open-source. (3) Quanti utenti lo useranno? Le licenze per utente favoriscono i team piccoli; le soluzioni on-premise a costo fisso diventano piu economiche sopra i 20-30 utenti. Incrocia queste risposte con le categorie nella nostra directory.

Strumenti open-source come Ollama, llama.cpp o PrivateGPT non sono di per se conformi o non conformi al GDPR — la conformita dipende da come e dove li distribuisci. Se li esegui sui tuoi server nell'UE e implementi controlli di accesso, logging e procedure corrette di gestione dei dati, possono essere pienamente GDPR-compliant. Il software e solo uno strumento; la tua architettura di distribuzione e le procedure operative determinano la conformita.

Con l'open-source self-hosted (es. Ollama + Open WebUI) scarichi, installi, configuri e mantieni tutto da solo. Hai il massimo controllo ma ti assumi tutta la responsabilita operativa. Una piattaforma gestita (es. ORCA) si installa sulla tua infrastruttura ma il fornitore si occupa di setup, aggiornamenti, gestione modelli e supporto. Ottieni la stessa sovranita sui dati con molto meno effort ingegneristico.

Non on-premise — OpenAI e Anthropic non offrono versioni self-hosted dei loro modelli principali. Tuttavia, Azure OpenAI Service offre GPT-4 tramite data center UE (West Europe, France Central), e Amazon Bedrock offre Claude tramite la regione di Francoforte. I dati restano nell'UE, ma girano sull'infrastruttura condivisa del provider. Per un vero deployment on-premise, modelli open-source come Llama 3, Mistral e DeepSeek offrono prestazioni comparabili per la maggior parte dei task aziendali.

ChatGPT Enterprise costa circa 50-60 USD per utente al mese. Per 50 utenti sono circa 30.000-36.000 USD/anno — e il costo scala linearmente. L'open-source self-hosted e gratuito come software ma richiede hardware (un server GPU parte da circa 5.000-15.000 EUR) e tempo di ingegneria dedicato (0,5-1 FTE). Le piattaforme on-premise gestite come ORCA hanno un prezzo fisso indipendente dal numero di utenti, diventando tipicamente piu convenienti dei modelli per-seat sopra i 20-30 utenti.

Non trovi quello che cerchi?

ORCA e una piattaforma AI privata gestita, progettata per le aziende europee. Supporto multi-modello, conforme GDPR e AI Act by design.

Scopri ORCA