N° 01 — Printemps 2026
Le magazine européen sur l'IA privée

Guide

Repertoire des outils d'IA privee — 50+ solutions conformes au RGPD pour les entreprises europeennes

Trouvez le bon outil d'IA privee pour votre entreprise. Filtrez par type, hebergement et conformite. 50+ solutions comparees : plateformes gerees, toolkits open-source, applications de bureau et options cloud UE.

Choisir un outil d’IA privee en 2026, c’est naviguer dans un paysage qui existait a peine il y a deux ans. Les modeles open-source ont atteint une qualite de production. Les plateformes gerees europeennes ont muri. Les fournisseurs cloud ont ajoute des options de residence des donnees dans l’UE. Les options sont reelles — mais la complexite de les comparer l’est aussi.

Ce repertoire coupe a travers le bruit. Nous avons catalogue plus de 50 outils et plateformes qui permettent aux entreprises europeennes d’utiliser l’IA generative sans envoyer de donnees a des serveurs qu’elles ne controlent pas. Chaque entree est evaluee selon les memes criteres : modele de deploiement, residence des donnees, conformite RGPD, compatibilite AI Act et adequation pratique pour l’usage professionnel.

Comment utiliser ce repertoire : Trouvez votre categorie ci-dessous, comparez les options et etablissez une liste restreinte des outils qui correspondent a vos capacites techniques et a vos exigences de conformite. Chaque entree contient les informations necessaires pour une premiere evaluation. Pour des analyses plus approfondies de solutions specifiques, suivez les liens vers nos revues et guides dedies.

Reference rapide — categories d’outils

Categorie Ideal pour Outils exemples
Plateformes gerees Entreprises sans equipe ML qui ont besoin d’IA privee cle en main ORCA, Aleph Alpha, Dust
Toolkits open-source Equipes techniques voulant un controle et une personnalisation maximaux Ollama, vLLM, llama.cpp, LocalAI
Applications de bureau Utilisateurs individuels ou petites equipes, aucun serveur requis LM Studio, GPT4All, Jan
Cloud avec residence UE Entreprises necessitant des modeles proprietaires avec garanties de donnees UE Azure OpenAI (UE), Amazon Bedrock (Francfort), OVHcloud AI
Outils RAG et documents Equipes axees sur l’interrogation de documents internes PrivateGPT, AnythingLLM, Danswer, Quivr

Plateformes d’IA privee gerees

Les plateformes gerees s’installent sur votre infrastructure (on-premise ou cloud prive) mais le fournisseur gere le deploiement, la configuration, les mises a jour et le support. Vous obtenez l’IA privee sans construire la pile technique vous-meme.

ORCA par HT-X

Type Plateforme geree on-premise
Hebergement Vos serveurs ou cloud prive europeen
Modeles Llama 3, Mistral, DeepSeek, Qwen 3.5 et autres
RGPD Conforme par architecture — les donnees ne quittent jamais votre infrastructure
AI Act Les modeles open-source garantissent une transparence et une auditabilite completes
Langues Interface en italien, anglais, allemand ; les modeles supportent 20+ langues
Ideal pour PME et ETI europeennes qui ont besoin d’IA privee prete pour la production
Site web ht-x.com/orca/

ORCA est une plateforme d’IA cle en main qui fonctionne entierement sur votre infrastructure. Elle offre une interface de type ChatGPT pour le chat, l’analyse de documents et les requetes sur la base de connaissances de l’entreprise, avec un support multi-modele pour choisir le meilleur modele pour chaque tache. Le RAG (Retrieval-Augmented Generation) permet aux utilisateurs d’interroger les documents de l’entreprise — contrats, manuels, wikis internes — sans que les donnees ne quittent jamais le perimetre. Le journal d’audit et les controles d’acces sont integres.

Note de transparence : ORCA est developpe par HT-X S.r.l., l’entreprise derriere Private AI Europe. Nous l’incluons car il est pertinent pour ce repertoire, mais nous signalons la relation pour que vous puissiez en tenir compte. {#disclosure}

Aleph Alpha (PhariaAI)

Type Cloud gere / on-premise
Hebergement Centres de donnees allemands ; option on-premise disponible
Modeles Pharia (proprietaire), plus support de modeles open-source
RGPD Conforme — entreprise allemande, hebergement UE
Ideal pour Grandes entreprises, secteur public, industries reglementees
Site web aleph-alpha.com

Entreprise d’IA allemande specialisee dans l’IA souveraine pour les entreprises et l’administration publique. Forte presence sur le marche DACH, avec des clients dans la defense, l’administration publique et les services financiers. Gamme de prix superieure a la plupart des alternatives, destinee aux deploiements de niveau entreprise.

Dust

Type Plateforme geree (cloud)
Hebergement Centres de donnees UE
Modeles Multi-modele (GPT-4, Claude, Mistral)
RGPD DPA disponible ; hebergement UE
Ideal pour Equipes ayant besoin d’assistants IA connectes aux outils internes (Slack, Notion, Google Drive)
Site web dust.tt

Entreprise francaise developpant des assistants IA integres aux flux de travail de l’entreprise. Se connecte a Slack, Notion, Google Drive et d’autres outils de travail. Utilise plusieurs modeles via API. Traitement des donnees dans l’UE, mais dependance vis-a-vis de fournisseurs de modeles tiers.

Mistral AI (La Plateforme)

Type API cloud / modeles auto-heberges
Hebergement Centres de donnees francais/UE (cloud) ; option auto-hebergee avec modeles open-weight
Modeles Mistral Large, Mistral Medium, Mistral Small, Codestral, variantes open-weight
RGPD Conforme — entreprise francaise, infrastructure UE
Ideal pour Entreprises cherchant une alternative europeenne a l’API d’OpenAI, ou auto-hebergement des modeles Mistral
Site web mistral.ai

Laboratoire d’IA parisien proposant a la fois un acces API commercial et des modeles open-weight a executer soi-meme. L’API fonctionne sur une infrastructure UE. Les modeles open-weight (Mistral 7B, Mixtral, Mistral Small) peuvent etre deployes on-premise pour une souverainete totale des donnees. Excellente performance multilingue, en particulier pour les langues europeennes.

Toolkits d’inference open-source

Ces outils vous permettent d’executer des LLM sur votre propre materiel. Vous telechargez le modele, installez le logiciel et servez l’inference localement. Controle maximal, mais vous gerez toute la pile operationnelle.

Ollama

Type Moteur d’inference open-source
Hebergement Auto-heberge (votre materiel)
Modeles Llama 3, Mistral, DeepSeek, Qwen, Gemma, Phi, 100+ autres
RGPD Oui — fonctionne entierement sur votre infrastructure
Ideal pour Developpeurs et petites equipes debutant avec les LLM locaux
Site web ollama.com

Le moyen le plus simple d’executer des LLM localement. Installation en une commande, bibliotheque de modeles avec plus de 100 modeles preconfigures, API REST pour l’integration. Fonctionne sur macOS, Linux et Windows. Point de depart ideal, mais fonctionnalites entreprise limitees (pas de gestion d’utilisateurs, de journal d’audit ou de RAG integre).

vLLM

Type Moteur d’inference open-source
Hebergement Auto-heberge (serveur GPU)
Modeles La plupart des modeles Hugging Face
RGPD Oui — fonctionne sur votre infrastructure
Ideal pour Deploiements de production necessitant un debit eleve et une concurrence multi-utilisateurs
Site web vllm.ai

Moteur d’inference haute performance optimise pour le debit. La technologie PagedAttention permet une gestion efficace de la memoire, supportant plus d’utilisateurs simultanes par GPU. API compatible OpenAI comme remplacement direct des endpoints OpenAI. Le choix de reference pour les deploiements de production serieux — necessite cependant du materiel GPU et une expertise DevOps.

llama.cpp

Type Bibliotheque d’inference open-source
Hebergement Auto-heberge (fonctionne sur CPU et GPU)
Modeles Modeles au format GGUF (Llama, Mistral et bien d’autres)
RGPD Oui — entierement local
Ideal pour Executer des modeles sur du materiel grand public, deploiements edge, serveurs CPU uniquement
Site web github.com/ggml-org/llama.cpp

Implementation C/C++ qui execute des LLM efficacement sur CPU — aucun GPU requis, bien que l’acceleration GPU soit supportee. Permet d’executer des modeles sur du materiel qui serait autrement trop limite. Moteur central derriere de nombreuses applications de bureau (LM Studio, Jan, GPT4All).

LocalAI

Type Serveur API open-source
Hebergement Auto-heberge
Modeles LLM, generation d’images, audio, embeddings
RGPD Oui — entierement local
Ideal pour Equipes souhaitant une API locale compatible OpenAI pour plusieurs types de modeles
Site web localai.io

Serveur compatible avec l’API OpenAI qui fonctionne localement. Supporte non seulement la generation de texte mais aussi la generation d’images, le speech-to-text et les embeddings. Utile comme remplacement local drop-in de l’API OpenAI dans les applications existantes.

Applications d’IA de bureau

Aucun serveur requis. Ces applications executent des LLM directement sur un ordinateur portable ou un poste de travail. Ideales pour les utilisateurs individuels ou les petites equipes.

LM Studio

Type Application de bureau
Hebergement Fonctionne localement sur votre ordinateur
Modeles Des milliers de modeles depuis Hugging Face
RGPD Oui — entierement hors ligne
Ideal pour Utilisateurs non techniques souhaitant une experience d’IA locale soignee
Site web lmstudio.ai

L’application de bureau LLM la plus conviviale. Telechargez des modeles en un clic, chattez via une interface epuree, et exposez optionnellement une API locale. Fonctionne sur macOS, Windows et Linux. Aucune ligne de commande requise.

GPT4All

Type Application de bureau
Hebergement Fonctionne localement
Modeles Bibliotheque curatee de modeles optimises
RGPD Oui — entierement hors ligne
Ideal pour Utilisateurs souhaitant la configuration la plus simple possible pour l’IA locale
Site web gpt4all.io

Par Nomic AI. Installation en un clic, fonctionne sur du materiel grand public y compris les machines sans GPU. Bibliotheque de modeles curatee, axee sur les modeles qui fonctionnent bien sur les ordinateurs portables standard. La fonctionnalite LocalDocs permet de discuter avec vos fichiers.

Jan

Type Application de bureau (open-source)
Hebergement Fonctionne localement
Modeles Modeles Hugging Face, compatible API OpenAI
RGPD Oui — entierement hors ligne
Ideal pour Utilisateurs soucieux de leur vie privee cherchant une alternative open-source a LM Studio
Site web jan.ai

Application d’IA de bureau open-source. Interface epuree, gestion locale des modeles et possibilite de se connecter a des API distantes si necessaire. Entierement hors ligne par defaut. Communaute open-source active.

IA cloud avec residence des donnees dans l’UE

Ces services executent des modeles proprietaires (GPT-4, Claude) via des centres de donnees physiquement situes dans l’Union europeenne. Les donnees restent en Europe, mais elles tournent sur l’infrastructure partagee du fournisseur.

Azure OpenAI Service (regions UE)

Type API cloud
Hebergement Centres de donnees Microsoft en West Europe (Pays-Bas), France Central, Sweden Central
Modeles GPT-4o, GPT-4, GPT-3.5, DALL-E, Whisper
RGPD DPA disponible ; donnees traitees dans l’UE ; pas d’entrainement sur les donnees client
Ideal pour Entreprises necessitant GPT-4 avec des garanties de residence des donnees UE
Site web azure.microsoft.com/products/ai-services/openai-service

Executez les modeles OpenAI via les centres de donnees europeens de Microsoft. Les donnees ne quittent pas l’UE, et Microsoft s’engage contractuellement a ne pas s’entrainer sur vos donnees. SLA de niveau entreprise, integration avec l’ecosysteme Azure. Cependant, les donnees resident toujours sur l’infrastructure de Microsoft — pas sur la votre.

Amazon Bedrock (region Francfort)

Type API cloud
Hebergement AWS eu-central-1 (Francfort)
Modeles Claude (Anthropic), Llama 3, Mistral, Titan, Cohere
RGPD DPA disponible ; residence des donnees UE ; pas d’entrainement sur les donnees client
Ideal pour Entreprises deja sur AWS souhaitant un acces multi-modele avec hebergement UE
Site web aws.amazon.com/bedrock

Le service d’IA geree d’Amazon. Acces a plusieurs modeles via une seule API, avec des donnees traitees dans la region de Francfort. Meme reserve qu’Azure : residence des donnees UE sur une infrastructure partagee, pas de souverainete on-premise.

OVHcloud AI Endpoints

Type API cloud
Hebergement Centres de donnees OVHcloud (France)
Modeles Mistral, Llama et d’autres modeles open-source
RGPD Conforme — entreprise francaise, infrastructure francaise
Ideal pour Entreprises souhaitant une pile IA cloud entierement europeenne
Site web ovhcloud.com/fr/public-cloud/ai-endpoints

Fournisseur cloud francais offrant l’inference d’IA sur une infrastructure europeenne. Chaine d’approvisionnement entierement europeenne — aucune dependance vis-a-vis des hyperscalers americains. Catalogue de modeles en croissance, tarification competitive. Un choix solide pour les entreprises qui souhaitent eviter completement les fournisseurs cloud americains.

Outils RAG et IA documentaire

Ces outils sont specialises dans le Retrieval-Augmented Generation — ils connectent un LLM aux documents de votre entreprise pour qu’il puisse repondre aux questions en se basant sur vos donnees reelles.

PrivateGPT

Type Plateforme RAG open-source
Hebergement Auto-heberge
Modeles Fonctionne avec tout LLM local (via llama.cpp, Ollama, etc.)
RGPD Oui — entierement local, aucune donnee ne quitte votre machine
Ideal pour Equipes ayant besoin de Q&R documentaire avec confidentialite complete
Site web privategpt.dev

Importez des documents (PDF, DOCX, TXT et plus), construisez un index vectoriel local et posez des questions auxquelles un LLM repond en se basant sur vos donnees. Entierement hors ligne. API et interface utilisateur incluses. L’un des premiers outils construits specifiquement pour l’IA documentaire privee.

AnythingLLM

Type Plateforme d’IA documentaire open-source
Hebergement Auto-heberge ou bureau
Modeles Fonctionne avec des modeles locaux (Ollama, LM Studio) ou des API cloud
RGPD Oui, utilise avec des modeles locaux
Ideal pour Equipes souhaitant un espace de travail documentaire complet avec des backends de modeles flexibles
Site web anythingllm.com

Espace de travail tout-en-un pour l’IA documentaire. Chargez des documents, creez des espaces de travail, chattez avec vos donnees. Supporte plusieurs backends de modeles — locaux ou cloud. Gestion des utilisateurs et permissions integrees. Application de bureau disponible pour usage individuel.

Danswer

Type Recherche entreprise open-source + IA
Hebergement Auto-heberge
Modeles Fonctionne avec des LLM locaux ou cloud
RGPD Oui, auto-heberge avec des modeles locaux
Ideal pour Entreprises souhaitant une recherche IA a travers les outils internes (Slack, Confluence, Google Drive, etc.)
Site web danswer.ai

Recherche d’entreprise alimentee par l’IA qui se connecte a Slack, Confluence, Google Drive, Jira, Notion et des dizaines d’autres sources de donnees. Posez une question en langage naturel, obtenez une reponse avec des citations provenant de votre base de connaissances interne. Auto-heberge pour la souverainete des donnees.

Quivr

Type Assistant de connaissances open-source
Hebergement Auto-heberge ou cloud
Modeles Fonctionne avec plusieurs fournisseurs de LLM
RGPD Oui, auto-heberge
Ideal pour Equipes souhaitant un second cerveau pour les connaissances de l’entreprise
Site web quivr.com

Chargez des documents et des URL pour construire une base de connaissances privee, puis discutez avec elle. Supporte plusieurs formats de fichiers et sources de donnees. Option d’auto-hebergement pour une confidentialite complete. Developpement actif et communaute croissante.

Comment evaluer les outils d’IA privee

Avec plus de 50 options disponibles, reduire le champ necessite une approche structuree. Voici les cinq criteres les plus importants pour les entreprises europeennes :

1. Souverainete des donnees. Ou vont les donnees quand vous envoyez un prompt ? Les outils on-premise et auto-heberges obtiennent le meilleur score — les donnees ne quittent jamais votre infrastructure. Les services cloud UE sont un compromis. Tout outil qui achemine les donnees hors de l’UE sans garanties contractuelles explicites devrait etre ecarte pour les cas d’usage sensibles.

2. Conformite reglementaire. La conformite RGPD est le minimum. La conformite a l’AI Act devient tout aussi importante. Recherchez : les journaux d’audit, la documentation de transparence, la capacite d’expliquer les sorties du modele et le support pour la supervision humaine. Les plateformes gerees incluent generalement ces fonctionnalites ; les outils auto-heberges necessitent de les construire soi-meme.

3. Exigences techniques. Les outils auto-heberges necessitent du materiel GPU, une expertise DevOps et une capacite de maintenance continue. Les applications de bureau necessitent du materiel moderne mais aucune infrastructure serveur. Les plateformes gerees et les services cloud ont la barriere technique la plus basse. Soyez honnete sur les capacites de votre equipe.

4. Flexibilite des modeles. Evitez le verrouillage sur un seul modele. Les meilleurs outils supportent plusieurs modeles pour que vous puissiez changer au fur et a mesure que le paysage evolue. Le meilleur modele d’aujourd’hui n’est peut-etre pas celui de demain. Les plateformes comme ORCA et les toolkits comme Ollama vous donnent cette flexibilite. Les API cloud peuvent vous enfermer dans la famille de modeles d’un seul fournisseur.

5. Cout total de possession. Un logiciel gratuit n’est pas gratuit a exploiter. Prenez en compte le materiel, l’electricite, le temps d’ingenierie et le cout d’opportunite. Le SaaS par utilisateur est previsible mais evolue lineairement. Les solutions on-premise a cout fixe ont des couts initiaux plus eleves mais une meilleure economie a l’echelle. Modelisez votre scenario specifique sur 3 ans, pas seulement le premier mois.

Le paysage evolue rapidement

Ce repertoire reflete l’etat du marche debut 2026. De nouveaux outils apparaissent chaque mois, ceux existants ajoutent des fonctionnalites et certains ne survivront pas. Nous mettons regulierement a jour cette page pour la maintenir precise.

Si nous avons oublie un outil qui devrait figurer ici, ou si les informations sur un outil repertorie sont obsoletes, faites-le nous savoir.

Ce qui ne changera pas, c’est le besoin fondamental : les entreprises europeennes ont besoin d’outils d’IA qui respectent leurs donnees, leurs reglementations et leur souverainete. Les outils repertories ici rendent cela possible.

Questions fréquentes

Commencez par trois questions : (1) Quelles donnees l'IA traitera-t-elle — donnees personnelles, secrets industriels, donnees financieres ? Cela determine le niveau de conformite requis. (2) Avez-vous des competences ML/DevOps en interne ? Si non, une plateforme geree est plus sure que l'open-source en autonomie. (3) Combien d'utilisateurs y accederont ? Les licences par utilisateur favorisent les petites equipes ; les solutions on-premise a cout fixe deviennent plus economiques au-dela de 20-30 utilisateurs. Croisez ces reponses avec les categories de notre repertoire.

Les outils open-source comme Ollama, llama.cpp ou PrivateGPT ne sont pas intrinsequement conformes ou non conformes au RGPD — la conformite depend de comment et ou vous les deployez. Si vous les executez sur vos propres serveurs dans l'UE et implementez des controles d'acces, une journalisation et des procedures de traitement des donnees appropriees, ils peuvent etre pleinement conformes au RGPD. Le logiciel n'est qu'un outil ; c'est votre architecture de deploiement et vos procedures operationnelles qui determinent la conformite.

Avec l'open-source auto-heberge (ex. Ollama + Open WebUI), vous telechargez, installez, configurez et maintenez tout vous-meme. Vous obtenez un controle maximal mais assumez toute la responsabilite operationnelle. Une plateforme geree (ex. ORCA) s'installe sur votre infrastructure, mais le fournisseur gere la mise en place, les mises a jour, la gestion des modeles et le support. Vous obtenez la meme souverainete des donnees avec nettement moins d'effort d'ingenierie.

Pas en on-premise — OpenAI et Anthropic ne proposent pas de versions auto-hebergees de leurs modeles phares. Cependant, Azure OpenAI Service propose GPT-4 via des centres de donnees UE (West Europe, France Central), et Amazon Bedrock propose Claude via la region de Francfort. Les donnees restent dans l'UE, mais elles tournent sur l'infrastructure partagee du fournisseur. Pour un vrai deploiement on-premise, les modeles open-source comme Llama 3, Mistral et DeepSeek offrent des performances comparables pour la plupart des taches professionnelles.

ChatGPT Enterprise coute environ 50-60 USD par utilisateur et par mois. Pour 50 utilisateurs, cela represente environ 30 000-36 000 USD/an — et le cout evolue lineairement. L'open-source auto-heberge est gratuit cote logiciel mais necessite du materiel (un serveur GPU debute a environ 5 000-15 000 EUR) et du temps d'ingenierie continu (0,5-1 ETP). Les plateformes on-premise gerees comme ORCA ont un prix fixe independant du nombre d'utilisateurs, devenant generalement plus avantageuses que les modeles par siege au-dela de 20-30 utilisateurs.

Vous ne trouvez pas ce qu'il vous faut ?

ORCA est une plateforme d'IA privee geree, concue pour les entreprises europeennes. Support multi-modele, conforme RGPD et AI Act by design.

Decouvrir ORCA