Le fine-tuning consiste à entraîner un modèle de langage existant sur vos données spécifiques pour l'adapter à votre domaine, votre style et vos cas d'usage.
Le fine-tuning (ou ajustement fin) est une technique d'apprentissage automatique qui part d'un LLM pré-entraîné (GPT, Llama, Mistral) et l'entraîne sur un jeu de données spécifique à votre entreprise. Le modèle résultant combine la compétence générale du modèle de base avec une expertise spécialisée sur votre domaine.
Contrairement au RAG qui récupère de l'information externe au moment de la réponse, le fine-tuning incorpore la connaissance directement dans les poids du modèle. Cela le rend plus rapide, plus consistent dans le style, et capable de maîtriser des termes très spécifiques sans références externes.
Le fine-tuning est particulièrement pertinent pour : adapter le ton et le style d'écriture de la marque, maîtriser un vocabulaire technique très spécifique (médical, juridique, industriel), améliorer les performances sur des tâches très spécialisées (classification, extraction d'entités).
Un modèle fine-tuné sur des milliers de comptes-rendus médicaux d'un CHU génère des comptes-rendus dans le style exact de l'établissement, avec le bon vocabulaire clinique et le bon formatage.
Un modèle fine-tuné sur 10 ans de contrats d'un cabinet rédige des clauses dans le style exact du cabinet et avec sa doctrine contractuelle habituelle.
Un modèle fine-tuné sur les fiches produit d'une marque génère des descriptions cohérentes avec l'identité de la marque, sans prompts élaborés à chaque fois.
Un modèle fine-tuné sur 5 ans de courriers de gestion de sinistres rédige automatiquement les réponses aux assurés dans le style, le vocabulaire réglementaire et le ton exact utilisés par l'entreprise.
Un modèle fine-tuné sur les rapports d'inspection qualité d'un site industriel génère des comptes-rendus conformes aux normes ISO 9001 avec le jargon technique spécifique au secteur.
| Critère | Fine-tuning | RAG |
|---|---|---|
| Coût initial | Élevé (entraînement) | Faible à moyen |
| Mise à jour des données | Réentraînement nécessaire | Facile (ajout de documents) |
| Sources citées | Non | Oui |
| Style/ton | Excellent | Correct |
| Vocabulaire spécifique | Excellent | Bon |
| Données récentes | Nécessite réentraînement | Temps réel |
Cela dépend de la tâche. Pour un ajustement de style, quelques centaines d'exemples suffisent. Pour une spécialisation métier poussée, plusieurs milliers à dizaines de milliers d'exemples sont recommandés.
Oui, l'entraînement nécessite des GPUs puissants. On utilise généralement des clouds comme AWS, Google Cloud ou Azure, ou des services spécialisés comme OpenAI Fine-tuning API ou Together AI.
De 5 000€ à 50 000€+ selon la taille du modèle, le volume de données et le nombre d'itérations nécessaires. Les coûts d'inférence (utilisation) sont ensuite beaucoup plus faibles qu'avec un modèle de base généraliste.
Chez Propulse, nous privilégions le fine-tuning sur des modèles open-source (Llama, Mistral) déployés dans votre infrastructure, garantissant que vos données ne quittent jamais votre environnement.
Le fine-tuning est recommandé quand vous avez besoin d'adapter le style d'écriture, le ton ou un vocabulaire très spécifique. Le RAG est préférable pour l'accès à une base documentaire évolutive. En pratique, combiner les deux (fine-tuning + RAG) offre les meilleurs résultats pour les cas d'usage exigeants.
Comptez 4 à 12 semaines selon la complexité : 2 semaines de préparation des données, 1 à 4 semaines d'entraînement et itérations, puis 2 à 6 semaines de tests et mise en production. La phase de préparation des données est souvent la plus longue car la qualité des données conditionne les résultats.
On part de votre situation concrète : vos outils, vos processus, vos données. Pas de jargon — des résultats.