Guida
Directory strumenti AI privati — 50+ soluzioni GDPR-compliant per le aziende europee
Trova lo strumento AI privato giusto per la tua azienda. Filtra per tipologia, hosting e conformita. 50+ soluzioni a confronto: piattaforme gestite, toolkit open-source, app desktop e opzioni cloud EU.
Scegliere uno strumento AI privato nel 2026 significa navigare un panorama che due anni fa quasi non esisteva. I modelli open-source hanno raggiunto la qualita per la produzione. Le piattaforme gestite europee sono maturate. I provider cloud hanno aggiunto opzioni di data residency nell’UE. Le opzioni sono reali — ma lo e anche la complessita di confrontarle.
Questa directory taglia il rumore. Abbiamo catalogato oltre 50 strumenti e piattaforme che permettono alle aziende europee di usare l’AI generativa senza inviare dati a server che non controllano. Ogni voce e valutata sugli stessi criteri: modello di deployment, residenza dei dati, conformita GDPR, compatibilita AI Act e idoneita pratica per l’uso aziendale.
Come usare questa directory: Trova la tua categoria qui sotto, confronta le opzioni e seleziona gli strumenti che corrispondono alle tue capacita tecniche e ai tuoi requisiti di conformita. Ogni voce include le informazioni necessarie per una prima valutazione. Per analisi piu approfondite su soluzioni specifiche, segui i link alle nostre recensioni e guide dedicate.
Riferimento rapido — categorie di strumenti
| Categoria | Ideale per | Strumenti esempio |
|---|---|---|
| Piattaforme gestite | Aziende senza team ML che necessitano di AI privata chiavi in mano | ORCA, Aleph Alpha, Dust |
| Toolkit open-source | Team tecnici che vogliono il massimo controllo e personalizzazione | Ollama, vLLM, llama.cpp, LocalAI |
| App desktop | Utenti singoli o piccoli team, nessun server richiesto | LM Studio, GPT4All, Jan |
| Cloud con residenza UE | Aziende che necessitano di modelli proprietari con garanzie di data residency UE | Azure OpenAI (UE), Amazon Bedrock (Francoforte), OVHcloud AI |
| Strumenti RAG e documenti | Team focalizzati sull’interrogazione di documenti interni | PrivateGPT, AnythingLLM, Danswer, Quivr |
Piattaforme AI private gestite
Le piattaforme gestite si installano sulla tua infrastruttura (on-premise o cloud privato) ma il fornitore si occupa di deployment, configurazione, aggiornamenti e supporto. Ottieni l’AI privata senza costruire lo stack da solo.
ORCA di HT-X
| Tipo | Piattaforma gestita on-premise |
| Hosting | I tuoi server o cloud privato europeo |
| Modelli | Llama 3, Mistral, DeepSeek, Qwen 3.5 e altri |
| GDPR | Conforme per architettura — i dati non lasciano mai la tua infrastruttura |
| AI Act | I modelli open-source garantiscono piena trasparenza e verificabilita |
| Lingue | Interfaccia in italiano, inglese, tedesco; i modelli supportano 20+ lingue |
| Ideale per | PMI e medie imprese europee che necessitano di AI privata pronta per la produzione |
| Sito web | ht-x.com/orca/ |
ORCA e una piattaforma AI chiavi in mano che gira interamente sulla tua infrastruttura. Offre un’interfaccia simile a ChatGPT per chat, analisi documenti e interrogazione della knowledge base aziendale, con supporto multi-modello per scegliere il modello migliore per ogni attivita. Il RAG (Retrieval-Augmented Generation) permette agli utenti di interrogare i documenti aziendali — contratti, manuali, wiki interne — senza che i dati escano mai dal perimetro. Audit trail e controlli di accesso sono integrati.
Nota di trasparenza: ORCA e sviluppato da HT-X S.r.l., l’azienda dietro Private AI Europe. Lo includiamo perche e rilevante per questa directory, ma segnaliamo la relazione per trasparenza. {#disclosure}
Aleph Alpha (PhariaAI)
| Tipo | Cloud gestito / on-premise |
| Hosting | Data center tedeschi; opzione on-premise disponibile |
| Modelli | Pharia (proprietario), piu supporto modelli open-source |
| GDPR | Conforme — azienda tedesca, hosting UE |
| Ideale per | Grandi imprese, pubblica amministrazione, settori regolamentati |
| Sito web | aleph-alpha.com |
Azienda AI tedesca focalizzata sull’AI sovrana per enterprise e pubblica amministrazione. Forte nel mercato DACH, con clienti nella difesa, PA e servizi finanziari. Fascia di prezzo superiore alla maggior parte delle alternative, rivolta a deployment enterprise.
Dust
| Tipo | Piattaforma gestita (cloud) |
| Hosting | Data center UE |
| Modelli | Multi-modello (GPT-4, Claude, Mistral) |
| GDPR | DPA disponibile; hosting UE |
| Ideale per | Team che necessitano di assistenti AI collegati agli strumenti interni (Slack, Notion, Google Drive) |
| Sito web | dust.tt |
Azienda francese che crea assistenti AI integrati nei workflow aziendali. Si collega a Slack, Notion, Google Drive e altri strumenti di lavoro. Utilizza piu modelli via API. Elaborazione dati nell’UE, ma si appoggia a provider di modelli terzi.
Mistral AI (La Plateforme)
| Tipo | API cloud / modelli self-hosted |
| Hosting | Data center francesi/UE (cloud); opzione self-hosted con modelli open-weight |
| Modelli | Mistral Large, Mistral Medium, Mistral Small, Codestral, varianti open-weight |
| GDPR | Conforme — azienda francese, infrastruttura UE |
| Ideale per | Aziende che cercano un’alternativa europea all’API di OpenAI, o self-hosting dei modelli Mistral |
| Sito web | mistral.ai |
Laboratorio AI parigino che offre sia accesso API commerciale sia modelli open-weight da eseguire in autonomia. L’API gira su infrastruttura UE. I modelli open-weight (Mistral 7B, Mixtral, Mistral Small) possono essere distribuiti on-premise per la piena sovranita dei dati. Eccellente performance multilingue, specialmente per le lingue europee.
Toolkit di inferenza open-source
Questi strumenti permettono di eseguire LLM sul tuo hardware. Scarichi il modello, installi il software e servi l’inferenza localmente. Massimo controllo, ma tutta la gestione operativa spetta a te.
Ollama
| Tipo | Motore di inferenza open-source |
| Hosting | Self-hosted (il tuo hardware) |
| Modelli | Llama 3, Mistral, DeepSeek, Qwen, Gemma, Phi, 100+ altri |
| GDPR | Si — gira interamente sulla tua infrastruttura |
| Ideale per | Sviluppatori e piccoli team che iniziano con gli LLM locali |
| Sito web | ollama.com |
Il modo piu semplice per eseguire LLM localmente. Installazione con un comando, libreria con oltre 100 modelli pre-configurati, API REST per l’integrazione. Gira su macOS, Linux e Windows. Punto di partenza ideale, ma funzionalita enterprise limitate (nessuna gestione utenti, audit trail o RAG integrato).
vLLM
| Tipo | Motore di inferenza open-source |
| Hosting | Self-hosted (server GPU) |
| Modelli | La maggior parte dei modelli Hugging Face |
| GDPR | Si — gira sulla tua infrastruttura |
| Ideale per | Deployment produttivi che richiedono alto throughput e concorrenza multi-utente |
| Sito web | vllm.ai |
Motore di inferenza ad alte prestazioni ottimizzato per il throughput. La tecnologia PagedAttention permette una gestione efficiente della memoria, supportando piu utenti concorrenti per GPU. API compatibile con OpenAI per sostituzione diretta degli endpoint. La scelta d’elezione per deployment produttivi seri — richiede hardware GPU e competenze DevOps.
llama.cpp
| Tipo | Libreria di inferenza open-source |
| Hosting | Self-hosted (gira su CPU e GPU) |
| Modelli | Modelli in formato GGUF (Llama, Mistral e molti altri) |
| GDPR | Si — completamente locale |
| Ideale per | Eseguire modelli su hardware consumer, deployment edge, server solo CPU |
| Sito web | github.com/ggml-org/llama.cpp |
Implementazione C/C++ che esegue LLM in modo efficiente su CPU — nessuna GPU necessaria, anche se l’accelerazione GPU e supportata. Permette di eseguire modelli su hardware che altrimenti sarebbe troppo limitato. Motore alla base di molte app desktop (LM Studio, Jan, GPT4All).
LocalAI
| Tipo | Server API open-source |
| Hosting | Self-hosted |
| Modelli | LLM, generazione immagini, audio, embeddings |
| GDPR | Si — completamente locale |
| Ideale per | Team che vogliono un’API locale compatibile con OpenAI per piu tipi di modelli |
| Sito web | localai.io |
Server compatibile con l’API di OpenAI che gira localmente. Supporta non solo la generazione di testo ma anche generazione di immagini, speech-to-text ed embeddings. Utile come sostituto locale drop-in per l’API OpenAI nelle applicazioni esistenti.
Applicazioni AI desktop
Nessun server necessario. Queste app eseguono LLM direttamente su un laptop o una workstation. Ideali per utenti singoli o piccoli team.
LM Studio
| Tipo | Applicazione desktop |
| Hosting | Gira localmente sul tuo computer |
| Modelli | Migliaia di modelli da Hugging Face |
| GDPR | Si — completamente offline |
| Ideale per | Utenti non tecnici che vogliono un’esperienza AI locale di qualita |
| Sito web | lmstudio.ai |
L’applicazione desktop LLM piu user-friendly. Scarica modelli con un click, chatta attraverso un’interfaccia pulita, e opzionalmente esponi un’API locale. Gira su macOS, Windows e Linux. Nessuna riga di comando necessaria.
GPT4All
| Tipo | Applicazione desktop |
| Hosting | Gira localmente |
| Modelli | Libreria curata di modelli ottimizzati |
| GDPR | Si — completamente offline |
| Ideale per | Utenti che vogliono il setup piu semplice possibile per AI locale |
| Sito web | gpt4all.io |
Di Nomic AI. Installazione con un click, gira su hardware consumer incluse macchine senza GPU. Libreria di modelli curata, focalizzata su modelli che funzionano bene su laptop standard. La funzione LocalDocs permette di chattare con i propri file.
Jan
| Tipo | Applicazione desktop (open-source) |
| Hosting | Gira localmente |
| Modelli | Modelli Hugging Face, compatibile API OpenAI |
| GDPR | Si — completamente offline |
| Ideale per | Utenti attenti alla privacy che cercano un’alternativa open-source a LM Studio |
| Sito web | jan.ai |
Applicazione AI desktop open-source. Interfaccia pulita, gestione locale dei modelli e possibilita di connettersi ad API remote quando necessario. Completamente offline per impostazione predefinita. Comunita open-source attiva.
Cloud AI con data residency nell’UE
Questi servizi eseguono modelli proprietari (GPT-4, Claude) attraverso data center fisicamente situati nell’Unione Europea. I dati restano in Europa, ma girano sull’infrastruttura condivisa del provider.
Azure OpenAI Service (regioni UE)
| Tipo | API cloud |
| Hosting | Data center Microsoft in West Europe (Paesi Bassi), France Central, Sweden Central |
| Modelli | GPT-4o, GPT-4, GPT-3.5, DALL-E, Whisper |
| GDPR | DPA disponibile; dati trattati nell’UE; nessun addestramento sui dati del cliente |
| Ideale per | Aziende che necessitano di GPT-4 con garanzie di data residency UE |
| Sito web | azure.microsoft.com/products/ai-services/openai-service |
Esegui modelli OpenAI attraverso i data center europei di Microsoft. I dati non lasciano l’UE e Microsoft si impegna contrattualmente a non addestrare sui tuoi dati. SLA enterprise-grade, integrazione con l’ecosistema Azure. Tuttavia, i dati risiedono comunque sull’infrastruttura di Microsoft — non sulla tua.
Amazon Bedrock (regione Francoforte)
| Tipo | API cloud |
| Hosting | AWS eu-central-1 (Francoforte) |
| Modelli | Claude (Anthropic), Llama 3, Mistral, Titan, Cohere |
| GDPR | DPA disponibile; data residency UE; nessun addestramento sui dati del cliente |
| Ideale per | Aziende gia su AWS che vogliono accesso multi-modello con hosting UE |
| Sito web | aws.amazon.com/bedrock |
Il servizio AI gestito di Amazon. Accesso a piu modelli tramite un’unica API, con dati elaborati nella regione di Francoforte. Stessa avvertenza di Azure: data residency UE su infrastruttura condivisa, non sovranita on-premise.
OVHcloud AI Endpoints
| Tipo | API cloud |
| Hosting | Data center OVHcloud (Francia) |
| Modelli | Mistral, Llama e altri modelli open-source |
| GDPR | Conforme — azienda francese, infrastruttura francese |
| Ideale per | Aziende che vogliono uno stack AI cloud completamente europeo |
| Sito web | ovhcloud.com/it/public-cloud/ai-endpoints |
Provider cloud francese che offre inferenza AI su infrastruttura europea. Catena di fornitura completamente europea — nessuna dipendenza da hyperscaler americani. Catalogo di modelli in crescita, prezzi competitivi. Una scelta solida per le aziende che vogliono evitare completamente i provider cloud statunitensi.
Strumenti RAG e AI per documenti
Questi strumenti sono specializzati nel Retrieval-Augmented Generation — collegano un LLM ai documenti aziendali cosi da poter rispondere a domande basate sui dati reali dell’azienda.
PrivateGPT
| Tipo | Piattaforma RAG open-source |
| Hosting | Self-hosted |
| Modelli | Funziona con qualsiasi LLM locale (via llama.cpp, Ollama, ecc.) |
| GDPR | Si — completamente locale, nessun dato esce dalla tua macchina |
| Ideale per | Team che necessitano di Q&A documentale con privacy completa |
| Sito web | privategpt.dev |
Importa documenti (PDF, DOCX, TXT e altri), costruisci un indice vettoriale locale e fai domande a cui risponde un LLM basandosi sui tuoi dati. Completamente offline. API e interfaccia utente incluse. Uno dei primi strumenti costruiti specificamente per l’AI documentale privata.
AnythingLLM
| Tipo | Piattaforma AI documentale open-source |
| Hosting | Self-hosted o desktop |
| Modelli | Funziona con modelli locali (Ollama, LM Studio) o API cloud |
| GDPR | Si, quando usato con modelli locali |
| Ideale per | Team che vogliono un workspace documentale completo con backend di modelli flessibili |
| Sito web | anythingllm.com |
Workspace all-in-one per l’AI documentale. Carica documenti, crea workspace, chatta con i tuoi dati. Supporta piu backend di modelli — locali o cloud. Gestione utenti e permessi integrati. App desktop disponibile per uso individuale.
Danswer
| Tipo | Ricerca enterprise open-source + AI |
| Hosting | Self-hosted |
| Modelli | Funziona con LLM locali o cloud |
| GDPR | Si, quando self-hosted con modelli locali |
| Ideale per | Aziende che vogliono ricerca AI attraverso gli strumenti interni (Slack, Confluence, Google Drive, ecc.) |
| Sito web | danswer.ai |
Ricerca enterprise AI-powered che si collega a Slack, Confluence, Google Drive, Jira, Notion e dozzine di altre fonti dati. Fai una domanda in linguaggio naturale, ottieni una risposta con citazioni dalla tua knowledge interna. Self-hosted per la sovranita dei dati.
Quivr
| Tipo | Assistente knowledge open-source |
| Hosting | Self-hosted o cloud |
| Modelli | Funziona con piu provider LLM |
| GDPR | Si, quando self-hosted |
| Ideale per | Team che vogliono un secondo cervello per la conoscenza aziendale |
| Sito web | quivr.com |
Carica documenti e URL per costruire una knowledge base privata, poi chatta con essa. Supporta piu formati di file e fonti dati. Opzione self-hosted per la privacy completa. Sviluppo attivo e comunita in crescita.
Come valutare gli strumenti AI privati
Con oltre 50 opzioni disponibili, restringere il campo richiede un approccio strutturato. Ecco i cinque criteri piu importanti per le aziende europee:
1. Sovranita dei dati. Dove finiscono i dati quando invii un prompt? Gli strumenti on-premise e self-hosted ottengono il punteggio piu alto — i dati non lasciano mai la tua infrastruttura. I servizi cloud UE sono una via di mezzo. Qualsiasi strumento che instrada i dati fuori dall’UE senza garanzie contrattuali esplicite dovrebbe essere escluso per i casi d’uso sensibili.
2. Conformita normativa. La conformita GDPR e il requisito minimo. La conformita all’AI Act sta diventando altrettanto importante. Cerca: audit trail, documentazione sulla trasparenza, capacita di spiegare gli output del modello e supporto per la supervisione umana. Le piattaforme gestite tipicamente includono queste funzionalita; gli strumenti self-hosted richiedono di costruirle da soli.
3. Requisiti tecnici. Gli strumenti self-hosted richiedono hardware GPU, competenze DevOps e capacita di manutenzione continua. Le app desktop richiedono hardware moderno ma nessuna infrastruttura server. Le piattaforme gestite e i servizi cloud hanno la barriera tecnica piu bassa. Sii onesto sulle capacita del tuo team.
4. Flessibilita di modello. Evita il lock-in su un singolo modello. I migliori strumenti supportano piu modelli cosi puoi cambiare man mano che il panorama evolve. Il miglior modello di oggi potrebbe non essere quello di domani. Piattaforme come ORCA e toolkit come Ollama ti danno questa flessibilita. Le API cloud possono vincolarti alla famiglia di modelli di un singolo provider.
5. Costo totale di possesso. Il software gratuito non e gratuito da operare. Includi nel calcolo hardware, elettricita, tempo di ingegneria e costo-opportunita. Il SaaS per utente e prevedibile ma scala linearmente. Le soluzioni on-premise a costo fisso hanno costi iniziali piu alti ma un’economia migliore a scala. Modella il tuo scenario specifico su 3 anni, non solo sul primo mese.
Il panorama si muove velocemente
Questa directory riflette lo stato del mercato a inizio 2026. Nuovi strumenti appaiono ogni mese, quelli esistenti aggiungono funzionalita e alcuni non sopravviveranno. Aggiorniamo regolarmente questa pagina per mantenerla accurata.
Se abbiamo tralasciato uno strumento che dovrebbe essere qui, o se le informazioni su uno strumento elencato sono obsolete, faccelo sapere.
Cio che non cambiera e il bisogno sottostante: le aziende europee necessitano di strumenti AI che rispettino i loro dati, le loro normative e la loro sovranita. Gli strumenti elencati qui lo rendono possibile.
Domande frequenti
Parti da tre domande: (1) Quali dati trattera l'AI — dati personali, segreti industriali, dati finanziari? Questo determina il livello di conformita necessario. (2) Hai competenze ML/DevOps interne? Se no, una piattaforma gestita e piu sicura del fai-da-te open-source. (3) Quanti utenti lo useranno? Le licenze per utente favoriscono i team piccoli; le soluzioni on-premise a costo fisso diventano piu economiche sopra i 20-30 utenti. Incrocia queste risposte con le categorie nella nostra directory.
Strumenti open-source come Ollama, llama.cpp o PrivateGPT non sono di per se conformi o non conformi al GDPR — la conformita dipende da come e dove li distribuisci. Se li esegui sui tuoi server nell'UE e implementi controlli di accesso, logging e procedure corrette di gestione dei dati, possono essere pienamente GDPR-compliant. Il software e solo uno strumento; la tua architettura di distribuzione e le procedure operative determinano la conformita.
Con l'open-source self-hosted (es. Ollama + Open WebUI) scarichi, installi, configuri e mantieni tutto da solo. Hai il massimo controllo ma ti assumi tutta la responsabilita operativa. Una piattaforma gestita (es. ORCA) si installa sulla tua infrastruttura ma il fornitore si occupa di setup, aggiornamenti, gestione modelli e supporto. Ottieni la stessa sovranita sui dati con molto meno effort ingegneristico.
Non on-premise — OpenAI e Anthropic non offrono versioni self-hosted dei loro modelli principali. Tuttavia, Azure OpenAI Service offre GPT-4 tramite data center UE (West Europe, France Central), e Amazon Bedrock offre Claude tramite la regione di Francoforte. I dati restano nell'UE, ma girano sull'infrastruttura condivisa del provider. Per un vero deployment on-premise, modelli open-source come Llama 3, Mistral e DeepSeek offrono prestazioni comparabili per la maggior parte dei task aziendali.
ChatGPT Enterprise costa circa 50-60 USD per utente al mese. Per 50 utenti sono circa 30.000-36.000 USD/anno — e il costo scala linearmente. L'open-source self-hosted e gratuito come software ma richiede hardware (un server GPU parte da circa 5.000-15.000 EUR) e tempo di ingegneria dedicato (0,5-1 FTE). Le piattaforme on-premise gestite come ORCA hanno un prezzo fisso indipendente dal numero di utenti, diventando tipicamente piu convenienti dei modelli per-seat sopra i 20-30 utenti.
Non trovi quello che cerchi?
ORCA e una piattaforma AI privata gestita, progettata per le aziende europee. Supporto multi-modello, conforme GDPR e AI Act by design.
Scopri ORCA