Ce qui se passe vraiment quand vous cliquez sur « générer »
« Agent IA », « propulsé par l'IA » — ces termes circulent partout, mais ils recouvrent des réalités très différentes. Envoyer un prompt à un LLM et afficher la réponse, c'est déjà de l'IA. Construire un système qui raisonne, vérifie, itère et s'améliore, c'en est aussi — mais ce n'est pas du tout la même chose.
On a construit un système d'agent IA pour l'orientation professionnelle. Et aujourd'hui, on ouvre le capot — composant par composant, sans jargon inutile mais sans simplification excessive.
L'objectif est double.
Montrer concrètement ce qu'on a construit, et donner les clés pour comprendre ce que signifie vraiment un système d'agent IA en production.
Le problème qu'on résout (et pourquoi l'IA seule ne suffit pas)
Un bilan de compétences, c'est un processus structuré. Un bénéficiaire passe des tests psychométriques (personnalité, valeurs, intérêts professionnels), répond à des questionnaires sur son parcours, ses aspirations, ses contraintes, puis reçoit des propositions d'orientation personnalisées.
Traditionnellement, c'est un conseiller humain qui analyse manuellement l'ensemble de ces données pour formuler des recommandations. Ce processus est long, subjectif, et dépend énormément de l'expérience individuelle du conseiller et de sa connaissance — forcément limitée — du marché de l'emploi.
Métiers dans le référentiel
Aucun humain ne les connaît tous
Dimensions psychométriques
RIASEC + OCEAN + SVS croisés
Champs de profil analysés
Parcours, contraintes, préférences
C'est exactement le type de tâche où l'IA excelle — à condition de ne pas la laisser seule.
Parce qu'un LLM livré à lui-même, sans structure, sans données vérifiées, sans pré-filtrage, c'est un oracle qui hallucine avec assurance. La puissance du raisonnement est là. Mais sans cadre, elle dérive.
Notre approche : combiner la rigueur algorithmique (pré-scoring mathématique, filtrage déterministe) avec la puissance de raisonnement d'un LLM (analyse qualitative, argumentation, mise en perspective), le tout encadré par des outils de vérification en temps réel que l'agent utilise de manière autonome.
Vue d'ensemble : les 7 composants du système
Avant de plonger dans chaque composant, voici la carte complète de ce qui se passe entre le moment où un bénéficiaire clique sur « Générer mes propositions » et celui où il reçoit ses recommandations personnalisées.
Le pipeline en 8 étapes
Déclenchement
Message asynchrone. L'interface ne se fige pas.
Pré-scoring
Algorithme mathématique : 1 500+ métiers réduits à une shortlist de candidats pertinents.
Construction du contexte
50+ champs, 3 tests psychométriques, compilés en document structuré.
Lancement de l'agent
Profil + shortlist envoyés au LLM avec accès à plusieurs outils de vérification.
Raisonnement itératif
Analyse, hypothèses, vérification via outils, ajustement. Plusieurs itérations.
Vérification systématique
Chaque métier vérifié dans le référentiel. Pas de métier inventé.
Production des recommandations
5 à 8 propositions finales, chacune argumentée de façon personnalisée.
Raffinement
Le bénéficiaire évalue. Ses retours alimentent un nouveau cycle, plus précis.
2.1 Les technologies en jeu
| Concept | Ce que ça fait | Notre implémentation |
|---|---|---|
| LLM | Le « cerveau » qui raisonne et argumente | Claude (Anthropic) |
| RAG | Recherche par le sens dans 1 500+ fiches métiers | Base vectorielle + embeddings |
| MCP | Outils de vérification en temps réel | Plusieurs outils via serveur dédié |
| Pré-scoring | Filtrage mathématique multi-critères | Algorithme maison multi-axes |
| Tool Use | L'agent décide quels outils utiliser et quand | Boucle agentic native |
| Psychométrie | Cartographie scientifique de la personnalité | Plusieurs tests croisés |
| Async | Tout tourne en arrière-plan, sans timeout | File d'attente + worker dédié |
Si certains de ces termes vous sont étrangers, pas de panique — on va tout décortiquer. Et il y a un glossaire en fin d'article.
Le ContextBuilder — compiler un profil humain complet
Imaginez un médecin qui consulte le dossier d'un patient avant un rendez-vous. Il ne lit pas les données brutes de la base de l'hôpital — il consulte une synthèse structurée : antécédents, traitements en cours, résultats d'analyses.
Le ContextBuilder, c'est exactement ça. Il prend les données brutes du bénéficiaire — réparties dans une dizaine de tables en base — et les transforme en un document structuré et lisible que l'agent IA peut comprendre et exploiter.
3.1 Ce qu'il compile : 9 sections, 50+ champs
Identité
Prénom, âge, genre, localisation.
Profil psychométrique
RIASEC (6 dimensions d'intérêts), OCEAN / Big Five (5 dimensions de personnalité), SVS / Schwartz (10 valeurs universelles en 4 pôles).
Compétences
Trois sources croisées : matrice validée par le bénéficiaire, extraction automatique du CV, parcours professionnel.
Expériences et formation
Postes, durées, diplômes, niveaux.
Questionnaire approfondi
Situation socio-professionnelle, frustrations, aspirations, obstacles, critères de réussite personnels. Toutes les valeurs techniques traduites en français lisible.
Préférences
Secteurs d'activité (scorés), centres d'intérêt, loisirs, et surtout : les contextes de travail souhaités et refusés. Les contextes refusés sont éliminatoires.
Évaluations précédentes
En mode raffinement : les propositions déjà notées, groupées par appréciation.
Pourquoi c'est crucial : sans ce travail de compilation, l'agent recevrait des données brutes, fragmentées, parfois codées. Il devrait deviner le sens des champs et risquerait de passer à côté d'éléments déterminants. Le ContextBuilder garantit que l'agent travaille sur un profil complet, lisible, et contextualisé.
Le pré-scoring algorithmique — quand les maths font le premier tri
Question légitime : si Claude est si intelligent, pourquoi ne pas lui envoyer les 1 500 fiches métiers et le laisser choisir ?
Coût
Des centaines de milliers de tokens. La facture explose.
Temps
De minutes à potentiellement des dizaines de minutes.
Précision
Les calculs mathématiques sont mieux exécutés par un algorithme déterministe.
4.1 L'algorithme : 4 axes pondérés
Chaque métier est scoré selon quatre axes, avec des pondérations calibrées pour refléter l'importance relative de chaque critère. Le poids le plus élevé va à la compatibilité psychométrique — c'est le facteur le plus prédictif.
Compatibilité psychométrique (poids le plus élevé)
Distance mathématique entre le profil du bénéficiaire et le profil-type de chaque métier. Plusieurs tests psychométriques contribuent, chacun avec sa propre pondération interne. Distance euclidienne sur chaque jeu de dimensions.
Accessibilité / Reconversion
Faisabilité en termes de niveau d'études. Certains métiers sont filtrés automatiquement quand l'écart est trop important et qu'aucune passerelle de reconversion n'existe.
Marché de l'emploi
Données factuelles : tension du marché, attractivité salariale. Pas d'opinion — des chiffres.
Préférences déclarées
Les choix explicites du bénéficiaire : secteurs préférés, modes de travail souhaités, intentions de carrière.
Résultat : une shortlist de candidats pertinents, triés par score global décroissant. Ce sont eux que l'agent recevra pour son analyse qualitative.
Le RAG — rechercher par le sens, pas par les mots-clés
Imaginez que vous cherchez un livre dans une bibliothèque. La recherche classique (SQL, mots-clés), c'est chercher un livre par son titre exact. Le RAG, c'est pouvoir dire au bibliothécaire : « je cherche un livre sur des gens qui aident d'autres gens à traverser des moments difficiles » — et qu'il vous ramène « Assistant social », « Éducateur spécialisé » et « Psychologue clinicien », même si aucun de ces mots ne figurait dans votre demande.
5.1 Comment ça fonctionne, concrètement
Indexation (une seule fois)
Chaque fiche métier est transformée en un vecteur — une représentation numérique qui capture le « sens » du texte. Ces vecteurs sont stockés dans une base de données vectorielle.
Recherche sémantique (en temps réel)
L'agent formule une requête en langage naturel. Elle est transformée en vecteur. La base compare par similarité cosinus et retourne les résultats les plus proches.
5.2 Pourquoi c'est différent d'une recherche classique
« métiers où l'on aide les gens » → trouvera « assistant social », « éducateur spécialisé », « infirmier »
« travail créatif en plein air » → trouvera « paysagiste », « photographe de nature », « guide de randonnée »
C'est une recherche qui comprend l'intention, pas les mots.
Le MCP — donner des outils concrets à l'IA
Un consultant en stratégie, aussi brillant soit-il, ne peut pas travailler uniquement de mémoire. Il a besoin d'accéder à des bases de données, de consulter des rapports, de vérifier des chiffres. Le MCP (Model Context Protocol), c'est exactement ça : un protocole qui permet à l'IA d'accéder à des outils externes de manière autonome.
6.1 Les types d'outils à disposition de l'agent
Recherche de métiers
Recherche par critères structurés pour explorer des pistes au-delà de la shortlist pré-scorée.
Vérification de fiche métier
Récupération de la fiche complète d'un métier dans le référentiel. C'est l'outil le plus utilisé : chaque proposition doit être vérifiée avant d'être soumise. Pas de métier inventé.
Analyse de compétences
Comparaison entre les compétences du bénéficiaire et celles requises par un métier. L'agent évalue la transférabilité et identifie les écarts.
Données de marché
Tension du marché, fourchettes de salaires, dynamique de recrutement. L'agent intègre les réalités économiques dans son argumentation.
Ce qui change tout : l'agent ne reçoit pas toutes ces données d'un coup. Il décide lui-même, en fonction de son raisonnement, quels outils appeler et dans quel ordre. C'est cette capacité de décision autonome qui fait la différence entre un agent et un pipeline pré-programmé.
La boucle d'agent — le coeur du système
C'est ici que tout se joue. Et c'est ici que la différence avec un chatbot classique est la plus visible.
Un chatbot classique : vous envoyez une question, il renvoie une réponse. Un échange, terminé. Un agent : il reçoit une mission, il réfléchit, il utilise un outil, il analyse le résultat, il ajuste, et il recommence — jusqu'à ce qu'il ait suffisamment d'éléments pour conclure.
C'est le pattern ReAct (Reasoning + Acting), théorisé par la recherche en IA. Chez nous, ce n'est pas un concept de papier — c'est implémenté en production, avec de vrais utilisateurs.
Exemple de session réelle
Itération 1
Agent : « Je vais vérifier les métiers les plus prometteurs du pré-scoring... »
→ Vérification de la fiche métier dans le référentiel
Itération 2
Agent : « Bon profil. Vérifions la transférabilité des compétences... »
→ Analyse des compétences du bénéficiaire vs. celles du métier
Itération 3
Agent : « Bonne couverture, quelques compétences manquantes. Vérifions le marché... »
→ Récupération des données marché (tension, salaires)
Itération 4
Agent : « Marché porteur, ce métier est pertinent. Passons au suivant... »
→ Vérification de la fiche métier suivante
Itération N
Agent : « J'ai suffisamment d'éléments pour conclure. »
→ Soumission des propositions argumentées
À aucun moment cette séquence n'est codée en dur. L'agent la construit à chaque exécution.
7.1 Les garde-fous
Nombre d'itérations plafonné pour éviter les boucles infinies.
Gestion d'erreurs : si un outil échoue, l'erreur est renvoyée à l'agent qui adapte sa stratégie.
Retries API : tentatives automatiques avec backoff exponentiel en cas d'erreur.
Détection de fin : la boucle s'arrête dès que l'agent appelle l'outil de retour.
Les prompts — la personnalité et les règles du jeu
Un prompt, dans notre contexte, ce n'est pas une phrase envoyée à ChatGPT. C'est un document structuré qui définit l'identité complète de l'agent : son expertise, sa méthodologie, ses règles absolues, et le format attendu de ses réponses. Nos prompts sont des fichiers Markdown, versionnés, maintenus comme du code.
8.1 Les principes non négociables
Le prompt définit un ensemble de règles absolues que l'agent ne peut pas contourner. Les principales :
Pas de métier inventé — chaque proposition doit être vérifiée dans le référentiel officiel.
Respect des refus — les contextes de travail refusés par le bénéficiaire sont éliminatoires, sans exception.
Argumentation multi-critères — chaque recommandation doit croiser compatibilité, compétences, marché et accessibilité.
Sortie structurée — pas de texte libre, des données formatées que le système peut traiter.
8.2 4 modes opératoires
Orientation métiers
Analyser les 80 candidats pré-scorés, en sélectionner 5-8, vérifier chacun, argumenter.
Raffinement métiers
Analyser les retours du bénéficiaire, identifier les patterns, proposer de nouvelles pistes plus ciblées.
Orientation entrepreneuriat
Générer 2-5 idées de projets entrepreneuriaux alignés avec le profil.
Raffinement entrepreneuriat
Même logique d'affinement, appliquée aux projets entrepreneuriaux.
Le traitement asynchrone — pourquoi tout tourne en arrière-plan
La génération complète — pré-scoring + compilation + boucle d'agent — prend entre 30 secondes et 2 minutes. C'est beaucoup trop long pour une requête HTTP classique.
Quand le bénéficiaire clique sur « Générer », la requête part quasi instantanément dans une file d'attente. Un worker en arrière-plan récupère le message et lance le pipeline complet. L'interface affiche un indicateur de progression et vérifie régulièrement le statut. Quand le traitement est terminé, les propositions s'affichent.
Si quelque chose échoue (API indisponible, timeout, erreur interne), le système retente automatiquement avec des délais croissants. Le bénéficiaire voit un message explicatif — jamais un écran blanc.
Le cycle de raffinement — apprendre des retours utilisateur
Le système ne s'arrête pas à la première génération. C'est un point fondamental.
Génération initiale → 5-8 propositions
Le bénéficiaire évalue chaque proposition
Les évaluations sont intégrées au profil : ce qui plaît, ce qui ne convient pas, ce qui laisse indifférent
Le pré-scoring exclut les métiers déjà proposés (anti-doublons)
Nouvelles propositions, plus pertinentes — le système converge vers les bonnes réponses
Le bénéficiaire n'est plus passif — il co-construit son orientation avec l'agent.
Découvrez votre profil en 5 minutes
Le Test d'Orientation Vocale croise vos valeurs, vos missions, vos aptitudes et vos traits de personnalité pour identifier les métiers qui vous correspondent vraiment.
Passer le test gratuitementCe qui fait concrètement la différence
Pour synthétiser tout ce qui précède, voici ce qui caractérise un système d'agent par rapport à une intégration LLM plus simple.
| Critère | Intégration LLM simple | Système d'agent |
|---|---|---|
| Décision autonome | L'IA répond à ce qu'on lui demande | L'agent décide quels outils utiliser et quand |
| Itérations | 1 appel = 1 réponse | Boucle de raisonnement (plusieurs itérations) |
| Outils externes | Aucun | Plusieurs outils (MCP + RAG) |
| Données temps réel | Uniquement le prompt | Interrogation de bases et API en direct |
| Pré-traitement | Aucun | Scoring algorithmique sur 1 500+ items |
| Vérification | L'IA peut halluciner librement | Chaque proposition vérifiée dans le référentiel |
| Feedback loop | Aucun | Cycle de raffinement basé sur les évaluations |
| Profil | Quelques champs | 50+ champs, 3 tests psychométriques |
11.1 Les 4 piliers d'un agent
Raisonnement
Analyser, croiser des critères, formuler des hypothèses
Action
Utiliser des outils pour vérifier avec des données concrètes
Observation
Intégrer les résultats dans le raisonnement
Itération
Répéter jusqu'à avoir assez d'éléments
Ce sont ces 4 dimensions combinées qui font la différence entre une intégration LLM et un système d'agent. L'une n'est pas « meilleure » que l'autre en soi — mais elles ne répondent pas aux mêmes problèmes.
Ce qui reste à construire
Transparence oblige — le système n'est pas terminé.
12.1 Court terme
Gap analysis
Après le choix d'orientation, générer une analyse d'écart détaillée : compétences acquises vs. à développer, formations recommandées. Transformer les propositions en plan d'action concret.
Amélioration de l'extraction CV
Remplacer l'extraction actuelle par Claude Vision (lecture directe du PDF). Meilleur mapping vers le référentiel de compétences.
Mode pilote / autonome
Permettre au coach de configurer si l'agent publie directement ses résultats ou si le coach doit valider avant publication.
12.2 Moyen et long terme
Mémoire agent persistante — se « souvenir » des sessions précédentes et affiner progressivement.
Cohérence IA sur le parcours — même LLM pour toutes les phases du bilan.
Multi-LLM — supporter plusieurs fournisseurs avec sélection automatique selon la tâche.
Analytics agent — tableaux de bord de performance, corrélation propositions/évaluations.
Glossaire
| Terme | Définition |
|---|---|
| Agent IA | Système capable de raisonner, prendre des décisions, utiliser des outils et itérer de manière autonome pour accomplir une tâche complexe. |
| LLM | Large Language Model — modèle de langage de grande taille (Claude, GPT, Gemini) capable de comprendre et générer du langage naturel. |
| RAG | Retrieval-Augmented Generation — enrichir le contexte d'un LLM avec des données récupérées dynamiquement dans une base externe. |
| Embedding | Représentation numérique (vecteur) d'un texte qui capture son sens sémantique. Permet de comparer des textes par similarité mathématique. |
| Qdrant | Base de données vectorielle spécialisée dans le stockage et la recherche de vecteurs par similarité. |
| MCP | Model Context Protocol — protocole standardisé par Anthropic permettant à un LLM d'utiliser des outils externes de manière structurée. |
| Tool Use | Capacité d'un LLM à appeler des outils (fonctions, API) pendant son raisonnement et à utiliser les résultats. |
| Pattern ReAct | Framework (Reasoning + Acting) qui formalise l'alternance raisonnement/action pour résoudre des tâches complexes. |
| RIASEC | Test psychométrique mesurant 6 types d'intérêts professionnels : Réaliste, Investigateur, Artistique, Social, Entreprenant, Conventionnel. |
| OCEAN | Big Five — test de personnalité mesurant 5 dimensions : Ouverture, Conscienciosité, Extraversion, Agréabilité, Névrosisme. |
| Code ROME | Répertoire Opérationnel des Métiers et des Emplois — référentiel officiel français maintenu par France Travail. |
| Distance euclidienne | Mesure de distance géométrique entre deux points dans un espace multi-dimensionnel. Utilisée pour comparer des profils psychométriques. |
| Similarité cosinus | Mesure de similarité entre deux vecteurs basée sur l'angle entre eux. Utilisée par Qdrant pour la recherche sémantique. |
Mon point de vue
Si vous êtes arrivé jusqu'ici, vous avez maintenant les clés pour évaluer n'importe quel produit qui se revendique « agent IA ». Posez ces questions :
Est-ce que le système prend des décisions autonomes sur les outils à utiliser ?
Est-ce qu'il itère (plusieurs cycles de raisonnement) ou un seul appel ?
Est-ce qu'il vérifie ses sorties avec des données réelles ?
Est-ce qu'il s'améliore avec les retours de l'utilisateur ?
L'orientation professionnelle touche à des trajectoires humaines. Ça mérite un système qui raisonne, qui vérifie, et qui s'améliore à chaque échange.
C'est cette conviction qui guide nos choix techniques.
Note : cet article est basé sur l'architecture technique réelle de Vocaneo, en production. Pas un concept, pas une roadmap — du code qui tourne.