En quelques années seulement, les agents conversationnels comme ChatGPT ont radicalement transformé notre manière de rechercher des informations, d'écrire un courrier, ou de rédiger un article de blog.
Mais avez-vous déjà imaginé qu’un assistant virtuel soit aussi efficace que ChatGPT pour :
- fournir à vos clients des informations détaillées sur votre catalogue produit ?
- répondre instantanément aux questions de vos employés concernant les procédures internes ?
- analyser vos données financières et en tirer des insights ?
Bienvenue dans le monde du RAG (Retrieval-Augmented Generation), une solution technique innovante permettant de combiner la puissance LLM (Large Language Models) tels que ChatGPT, avec les contenus de votre entreprise, et en faire de redoutables outils de productivité.
Sommaire
Qu’est-ce qu’un LLM ?
💡 Principe de base
- Un LLM (Large Language Model), est un modèle d'intelligence artificielle entraîné sur d'énormes quantités de données textuelles pour comprendre et générer du langage naturel.
- Ces modèles utilisent des techniques de traitement du langage naturel (NLP) et des algorithmes complexes (réseaux de neurones) pour comprendre et générer du langage naturel
⚙️Fonctionnement
- Apprentissage : le LLM est pré-entraîné sur de vastes corpus de texte pour apprendre les structures, les significations et les relations entre les mots et les phrases.
- Génération : le LLM génère du texte en se basant uniquement sur les informations apprises durant l'entraînement, sans accès à des données externes ni en temps réel.
Les LLM les plus populaires à ce jour
A ce jour, les LLM sont édités par une poignée d'éditeurs, parmi lesquels :
- ChatGPT d’OpenAI,
- Gemini de Google,
- Copilot de Microsoft,
- Mistral Chat de Mistral AI,
- etc.
Qu’est-ce qu’un RAG ?
Les RAG (Retrieval-Augmented Generation) sont un type d’intelligence artificielle conçue pour augmenter les capacités des LLM :
- d’une part en ajoutant des sources factuelles spécialisées (celles de votre entreprise),
- et d’autre part en y ajoutant l’accès à des outils (à Outlook ou à un tableur par exemple) pour rendre l’IA plus interactive.
💡 Principe de base
Le RAG combine les capacités d'un LLM avec un système de récupération (retrieval) d'informations. En pratique, les informations "récupérées" sont des corpus de texte spécialisés (ceux de votre entreprise ou de votre domaine d'expertise : procédures internes, textes de lois, articles scientifiques, etc.)
Il s'agit d'une approche hybride qui enrichit la génération de texte avec des informations externes pertinentes.
Ainsi, on augmente la capacité d'un LLM standard, en lui permettant de donner des réponses pertinentes dans le contexte bien précis de votre entreprise et besoins.
⚙️Fonctionnement
- Récupération (retrieval) : Lorsqu'une question ou une requête est posée, le système RAG recherche des passages de texte pertinents à partir d'une base de données ou d'un corpus spécifique.
- Génération : Les passages récupérés sont utilisés comme contexte pour le LLM, qui génère ensuite une réponse informée et contextuelle.
Les différents composants d'un modèle RAG
Schéma de synthèse et exemple concret
L'encodage (ou vectorisation)
Avant d'être traitées par un LLM, les données textuelles doivent d'abord être encodées, c'est-à-dire traduites sous une forme que les algorithmes peuvent comprendre et manipuler.
Cet encodage est aussi appelé vectorisation, car il consiste à assigner des coordonnées à chaque mot, phrase ou document, selon leur sémantique. Ainsi les sources traitant d’un même sujet seront "proches" dans cet espace de vecteurs.
Prenons l’exemple d’une entreprise spécialisée dans le service client en ligne : les mots “utilisateur”, “fournisseur”, “contact”, “service”, “support” seront des mots proches de “client” dans l’espace vectoriel, car ils sont souvent employés dans des contextes similaires.
L’encodeur accède aux dossiers auxquels vous lui avez donné accès. Il peut traiter :
- tout type de fichiers : PDF, mail, Excel, page web, etc. ;
- tout type de contenu : comptabilité, mail, catalogue, code civil, formulaire, etc.
La récupération (retrieval)
Pour construire un RAG, on place en amont du LLM un “File Retriever”. Celui-ci a pour fonction de rechercher parmi vos sources celles qui sont pertinentes pour répondre aux questions que vous poserez, et de les soumettre au LLM.
Pour cela, le File Retriever "place" la question dans l’espace vectoriel des sources à l’aide de l’encodeur puis récupère les sources les plus proches dans l’espace (les sources les plus pertinentes donc).
En pratique, le File Retriever est un module qu’il est possible de programmer en Python, ou qui peut être programmé via des interfaces low code comme Microsoft Power Apps ou Power Automate.
Lors de la création d’un RAG, les données confidentielles d’une entreprise transitent par un LLM. Il est donc important d'être au clair sur les politiques de confidentialité de ces LLM, qui peuvent différer lors de leur utilisation en RAG, avant de se lancer dans cette solution. Ces politiques diffèrent selon les fournisseurs et l’abonnement auquel vous souscrivez. Par exemple, les comptes “entreprises” garantissent généralement une meilleure protection de vos données. Pour en savoir plus sur les différentes politiques de traitement de données confidentielles, retrouvez notre article : comparateur des 4 LLMs leaders du marché.
La génération de texte
A partir de l'expertise "acquise" sur les sources spécifiques qui lui ont été soumises, le LLM ainsi augmenté par vos sources est capable de générer du texte : réponses à des questions, capacité à synthétiser de l'information, etc.
Les points d’attention
Les RAG restent une solution est relativement récente, et en plein développement. Toutefois, on constate que les RAG présentent un risque plus élevé “d’hallucinations” – c’est-à-dire un risque de produire des réponses sémantiquement correctes mais absurdes ou erronées. Ces hallucinations sont souvent dues à des résultats récupérés (retrieved) qui ne sont pas pertinents pour répondre aux questions posées. Un des principaux enjeux dans le développement des RAG réside dans la meilleure évaluation des sources récupérées (retrieval).
Des exemples de personnalisation d'IA générative dans différents contextes
L’adaptabilité des RAG en fait un réel atout permettant des gains de productivité et une optimisation des coûts dans de nombreux secteurs. Cependant, de récentes études indiquent que la performance des RAG reste inégale d’un secteur à l’autre et dénotent une meilleure performance dans certains domaines tels que le cinéma.
Pour plus d’informations, lire l'article publié par des chercheurs affiliés à Meta et à l'Université des sciences et technologies de Hong Kong (HKUST), comparant les performances des RAG par domaines.
Exemple d’un cas d’usage d’un RAG basé sur des données internes
- Julien : “Quelle tenue porter pour le cocktail de bienvenue du 6 juin ?”
- File Retriever :
- Source 1 : Règlement intérieur de la société X,
”Règle n°1 : les hommes doivent venir en costume cravate. Les femmes en tailleur. - Règle n°2 : interdiction de se teindre les cheveux.
- Règle n°3 : pas de chewing gum.
…“ - Source 2 : Invitation au cocktail de bienvenue,
” …. La société X à le plaisir de vous convié à un cocktail de bienvenue en l’honneur des nouveaux collaborateurs.
La réception aura lieu le mardi 6 juin 2024 aux salons Louis, seront mises à l’honneur les Années Folles. … "
- Source 1 : Règlement intérieur de la société X,
Voici quelques exemples d’utilisation de RAG dans deux industries différentes :
Entreprise de développement de logiciels :
- Demande au RAG : "Comment pouvons-nous améliorer l'intégration de notre API pour les nouveaux clients ?"
- La phase de récupération peut s’appuyer sur la FAQ du site de l’entreprise, des documents internes ainsi que des guides de développement
Agence de voyage :
- Demande au RAG : "Quelles sont les meilleures destinations pour des vacances en famille en été 2024 pour un budget de 1 500€ ?"
- Le système RAG récupère des brochures de voyage, des articles de blogs, des avis clients, et des offres spéciales provenant de documents internes.
Bénéficier de l'accompagnement d’une équipe experte
Choisir le bon partenaire pour développer votre RAG est essentiel pour la réussite de votre projet.
Solstice Lab se positionne comme le partenaire idéal pour réaliser vos ambitions en matière de personalisation d’IA. Solstice Lab est un cabinet de conseil à taille humaine, alliant stratégie et expertise Data, IA et Data science. Contactez-nous dès aujourd'hui pour discuter de la manière dont nous pouvons vous aider à réaliser vos projets RAG et à transformer votre entreprise.