Un embedding est une représentation mathématique (vecteur numérique) d'un texte, d'une image ou d'un autre type de données, permettant à l'IA de mesurer la similarité sémantique entre des contenus.
Un embedding est la transformation d'une donnée (texte, image, audio) en un vecteur de nombres réels de haute dimension. Deux éléments sémantiquement proches (ex: 'chien' et 'canin') ont des vecteurs proches dans l'espace d'embedding, même si leurs mots sont différents. C'est ce qui permet à l'IA de comprendre le sens plutôt que de faire de la simple correspondance de mots-clés.
Dans le contexte du RAG et de la recherche sémantique, les embeddings sont essentiels : les documents sont transformés en vecteurs et stockés dans une base vectorielle (Pinecone, Weaviate, pgvector). Quand un utilisateur pose une question, elle est également transformée en vecteur et la base vectorielle retourne les documents les plus similaires sémantiquement.
Les modèles d'embedding les plus utilisés sont text-embedding-ada-002 d'OpenAI, les modèles de Sentence-Transformers, et E5 de Microsoft. Pour les applications multilingues, des modèles comme multilingual-e5 sont particulièrement performants.
Les embeddings permettent à un moteur de recherche de retourner 'sneakers running femme' quand un client tape 'chaussures jogging pour femmes', car les vecteurs sont proches sémantiquement.
Les embeddings permettent de retrouver des clauses contractuelles similaires même si la formulation exacte diffère, facilitant la recherche de précédents et de clauses analogues.
Les embeddings permettent de matcher des CVs avec des offres d'emploi selon le sens de l'expérience et des compétences, et non plus juste selon des mots-clés exacts.
Les embeddings indexent les comptes-rendus médicaux et permettent aux médecins de retrouver des cas cliniques similaires même décrits avec un vocabulaire différent, facilitant le diagnostic par analogie.
Les embeddings indexent toutes les résolutions de tickets passés. Quand un nouveau ticket arrive, le système trouve automatiquement les cas similaires déjà résolus et propose la solution au technicien.
| Modèle | Éditeur | Multilangue | Dimensions | Coût |
|---|---|---|---|---|
| text-embedding-3-large | OpenAI | Oui | 3072 | 0,13$/M tokens |
| multilingual-e5-large | Microsoft (open-source) | Excellent | 1024 | Gratuit (self-hosted) |
| Cohere Embed v3 | Cohere | Oui | 1024 | 0,10$/M tokens |
| BGE-M3 | BAAI (open-source) | Excellent | 1024 | Gratuit (self-hosted) |
| CamemBERT embeddings | INRIA (open-source) | Français optimisé | 768 | Gratuit (self-hosted) |
La recherche par mots-clés cherche des correspondances exactes de termes. La recherche sémantique (basée sur les embeddings) cherche des correspondances de sens : elle retourne des résultats pertinents même si les mots utilisés sont différents.
Oui, les modèles d'embedding multilingues modernes (multilingual-e5, CamemBERT embeddings) gèrent le français avec d'excellentes performances. Les modèles monolingues français sont encore plus précis.
Les coûts sont très faibles : embedding d'un million de tokens coûte environ 0,10$ avec OpenAI. Pour un corpus de 10 000 documents de 1 000 mots, le coût d'embedding initial est de l'ordre de quelques dollars.
Oui, quand de nouveaux documents sont ajoutés à votre base. La bonne nouvelle est que l'update est incrémental : seuls les nouveaux documents sont à embedder, pas toute la base.
Pour les PME, pgvector (extension PostgreSQL) est idéal car il s'intègre à votre base existante. Pour de grands volumes, Pinecone (cloud managé) ou Weaviate (open-source) offrent de meilleures performances. Chez Propulse, nous utilisons souvent pgvector avec Supabase pour sa simplicité et son coût maîtrisé.
Oui, les modèles multimodaux comme CLIP (OpenAI) créent des embeddings d'images et de texte dans le même espace vectoriel. Cela permet de rechercher une image par description textuelle ou inversement. Pour l'audio, on transcrit d'abord en texte puis on génère les embeddings.
On part de votre situation concrète : vos outils, vos processus, vos données. Pas de jargon — des résultats.