📖 Article

Comment on a construit un VRAI agent IA d'orientation professionnelle

RAG, MCP, embeddings, boucle d'agent, pré-scoring algorithmique... Ces termes circulent partout. On ouvre le capot de notre système — composant par composant — pour montrer concrètement ce que signifie construire un agent IA en production.

Avatar William
|
Publié le 20/03/2026
|
Dans Fonctionnalités Vocaneo
Outils & ressources Marché de l’emploi
Comment on a construit un VRAI agent IA d'orientation professionnelle

Ce qui se passe vraiment quand vous cliquez sur « générer »

« Agent IA », « propulsé par l'IA » — ces termes circulent partout, mais ils recouvrent des réalités très différentes. Envoyer un prompt à un LLM et afficher la réponse, c'est déjà de l'IA. Construire un système qui raisonne, vérifie, itère et s'améliore, c'en est aussi — mais ce n'est pas du tout la même chose.

On a construit un système d'agent IA pour l'orientation professionnelle. Et aujourd'hui, on ouvre le capot — composant par composant, sans jargon inutile mais sans simplification excessive.

L'objectif est double.

Montrer concrètement ce qu'on a construit, et donner les clés pour comprendre ce que signifie vraiment un système d'agent IA en production.

1

Le problème qu'on résout (et pourquoi l'IA seule ne suffit pas)

Un bilan de compétences, c'est un processus structuré. Un bénéficiaire passe des tests psychométriques (personnalité, valeurs, intérêts professionnels), répond à des questionnaires sur son parcours, ses aspirations, ses contraintes, puis reçoit des propositions d'orientation personnalisées.

Traditionnellement, c'est un conseiller humain qui analyse manuellement l'ensemble de ces données pour formuler des recommandations. Ce processus est long, subjectif, et dépend énormément de l'expérience individuelle du conseiller et de sa connaissance — forcément limitée — du marché de l'emploi.

1 500+

Métiers dans le référentiel

Aucun humain ne les connaît tous

15

Dimensions psychométriques

RIASEC + OCEAN + SVS croisés

50+

Champs de profil analysés

Parcours, contraintes, préférences

C'est exactement le type de tâche où l'IA excelle — à condition de ne pas la laisser seule.

Parce qu'un LLM livré à lui-même, sans structure, sans données vérifiées, sans pré-filtrage, c'est un oracle qui hallucine avec assurance. La puissance du raisonnement est là. Mais sans cadre, elle dérive.

Notre approche : combiner la rigueur algorithmique (pré-scoring mathématique, filtrage déterministe) avec la puissance de raisonnement d'un LLM (analyse qualitative, argumentation, mise en perspective), le tout encadré par des outils de vérification en temps réel que l'agent utilise de manière autonome.

2

Vue d'ensemble : les 7 composants du système

Avant de plonger dans chaque composant, voici la carte complète de ce qui se passe entre le moment où un bénéficiaire clique sur « Générer mes propositions » et celui où il reçoit ses recommandations personnalisées.

Le pipeline en 8 étapes

1

Déclenchement

Message asynchrone. L'interface ne se fige pas.

2

Pré-scoring

Algorithme mathématique : 1 500+ métiers réduits à une shortlist de candidats pertinents.

3

Construction du contexte

50+ champs, 3 tests psychométriques, compilés en document structuré.

4

Lancement de l'agent

Profil + shortlist envoyés au LLM avec accès à plusieurs outils de vérification.

5

Raisonnement itératif

Analyse, hypothèses, vérification via outils, ajustement. Plusieurs itérations.

6

Vérification systématique

Chaque métier vérifié dans le référentiel. Pas de métier inventé.

7

Production des recommandations

5 à 8 propositions finales, chacune argumentée de façon personnalisée.

8

Raffinement

Le bénéficiaire évalue. Ses retours alimentent un nouveau cycle, plus précis.

2.1 Les technologies en jeu

Concept Ce que ça fait Notre implémentation
LLM Le « cerveau » qui raisonne et argumente Claude (Anthropic)
RAG Recherche par le sens dans 1 500+ fiches métiers Base vectorielle + embeddings
MCP Outils de vérification en temps réel Plusieurs outils via serveur dédié
Pré-scoring Filtrage mathématique multi-critères Algorithme maison multi-axes
Tool Use L'agent décide quels outils utiliser et quand Boucle agentic native
Psychométrie Cartographie scientifique de la personnalité Plusieurs tests croisés
Async Tout tourne en arrière-plan, sans timeout File d'attente + worker dédié

Si certains de ces termes vous sont étrangers, pas de panique — on va tout décortiquer. Et il y a un glossaire en fin d'article.

3

Le ContextBuilder — compiler un profil humain complet

Imaginez un médecin qui consulte le dossier d'un patient avant un rendez-vous. Il ne lit pas les données brutes de la base de l'hôpital — il consulte une synthèse structurée : antécédents, traitements en cours, résultats d'analyses.

Le ContextBuilder, c'est exactement ça. Il prend les données brutes du bénéficiaire — réparties dans une dizaine de tables en base — et les transforme en un document structuré et lisible que l'agent IA peut comprendre et exploiter.

3.1 Ce qu'il compile : 9 sections, 50+ champs

1

Identité

Prénom, âge, genre, localisation.

2

Profil psychométrique

RIASEC (6 dimensions d'intérêts), OCEAN / Big Five (5 dimensions de personnalité), SVS / Schwartz (10 valeurs universelles en 4 pôles).

3

Compétences

Trois sources croisées : matrice validée par le bénéficiaire, extraction automatique du CV, parcours professionnel.

4

Expériences et formation

Postes, durées, diplômes, niveaux.

5

Questionnaire approfondi

Situation socio-professionnelle, frustrations, aspirations, obstacles, critères de réussite personnels. Toutes les valeurs techniques traduites en français lisible.

6

Préférences

Secteurs d'activité (scorés), centres d'intérêt, loisirs, et surtout : les contextes de travail souhaités et refusés. Les contextes refusés sont éliminatoires.

7

Évaluations précédentes

En mode raffinement : les propositions déjà notées, groupées par appréciation.

Pourquoi c'est crucial : sans ce travail de compilation, l'agent recevrait des données brutes, fragmentées, parfois codées. Il devrait deviner le sens des champs et risquerait de passer à côté d'éléments déterminants. Le ContextBuilder garantit que l'agent travaille sur un profil complet, lisible, et contextualisé.

4

Le pré-scoring algorithmique — quand les maths font le premier tri

Question légitime : si Claude est si intelligent, pourquoi ne pas lui envoyer les 1 500 fiches métiers et le laisser choisir ?

$

Coût

Des centaines de milliers de tokens. La facture explose.

Temps

De minutes à potentiellement des dizaines de minutes.

Précision

Les calculs mathématiques sont mieux exécutés par un algorithme déterministe.

4.1 L'algorithme : 4 axes pondérés

Chaque métier est scoré selon quatre axes, avec des pondérations calibrées pour refléter l'importance relative de chaque critère. Le poids le plus élevé va à la compatibilité psychométrique — c'est le facteur le plus prédictif.

Compatibilité psychométrique (poids le plus élevé)

Distance mathématique entre le profil du bénéficiaire et le profil-type de chaque métier. Plusieurs tests psychométriques contribuent, chacun avec sa propre pondération interne. Distance euclidienne sur chaque jeu de dimensions.

Accessibilité / Reconversion

Faisabilité en termes de niveau d'études. Certains métiers sont filtrés automatiquement quand l'écart est trop important et qu'aucune passerelle de reconversion n'existe.

Marché de l'emploi

Données factuelles : tension du marché, attractivité salariale. Pas d'opinion — des chiffres.

Préférences déclarées

Les choix explicites du bénéficiaire : secteurs préférés, modes de travail souhaités, intentions de carrière.

Résultat : une shortlist de candidats pertinents, triés par score global décroissant. Ce sont eux que l'agent recevra pour son analyse qualitative.

5

Le RAG — rechercher par le sens, pas par les mots-clés

Imaginez que vous cherchez un livre dans une bibliothèque. La recherche classique (SQL, mots-clés), c'est chercher un livre par son titre exact. Le RAG, c'est pouvoir dire au bibliothécaire : « je cherche un livre sur des gens qui aident d'autres gens à traverser des moments difficiles » — et qu'il vous ramène « Assistant social », « Éducateur spécialisé » et « Psychologue clinicien », même si aucun de ces mots ne figurait dans votre demande.

5.1 Comment ça fonctionne, concrètement

1

Indexation (une seule fois)

Chaque fiche métier est transformée en un vecteur — une représentation numérique qui capture le « sens » du texte. Ces vecteurs sont stockés dans une base de données vectorielle.

2

Recherche sémantique (en temps réel)

L'agent formule une requête en langage naturel. Elle est transformée en vecteur. La base compare par similarité cosinus et retourne les résultats les plus proches.

5.2 Pourquoi c'est différent d'une recherche classique

« métiers où l'on aide les gens » → trouvera « assistant social », « éducateur spécialisé », « infirmier »

« travail créatif en plein air » → trouvera « paysagiste », « photographe de nature », « guide de randonnée »

C'est une recherche qui comprend l'intention, pas les mots.

6

Le MCP — donner des outils concrets à l'IA

Un consultant en stratégie, aussi brillant soit-il, ne peut pas travailler uniquement de mémoire. Il a besoin d'accéder à des bases de données, de consulter des rapports, de vérifier des chiffres. Le MCP (Model Context Protocol), c'est exactement ça : un protocole qui permet à l'IA d'accéder à des outils externes de manière autonome.

6.1 Les types d'outils à disposition de l'agent

1

Recherche de métiers

Recherche par critères structurés pour explorer des pistes au-delà de la shortlist pré-scorée.

2

Vérification de fiche métier

Récupération de la fiche complète d'un métier dans le référentiel. C'est l'outil le plus utilisé : chaque proposition doit être vérifiée avant d'être soumise. Pas de métier inventé.

3

Analyse de compétences

Comparaison entre les compétences du bénéficiaire et celles requises par un métier. L'agent évalue la transférabilité et identifie les écarts.

4

Données de marché

Tension du marché, fourchettes de salaires, dynamique de recrutement. L'agent intègre les réalités économiques dans son argumentation.

Ce qui change tout : l'agent ne reçoit pas toutes ces données d'un coup. Il décide lui-même, en fonction de son raisonnement, quels outils appeler et dans quel ordre. C'est cette capacité de décision autonome qui fait la différence entre un agent et un pipeline pré-programmé.

7

La boucle d'agent — le coeur du système

C'est ici que tout se joue. Et c'est ici que la différence avec un chatbot classique est la plus visible.

Un chatbot classique : vous envoyez une question, il renvoie une réponse. Un échange, terminé. Un agent : il reçoit une mission, il réfléchit, il utilise un outil, il analyse le résultat, il ajuste, et il recommence — jusqu'à ce qu'il ait suffisamment d'éléments pour conclure.

C'est le pattern ReAct (Reasoning + Acting), théorisé par la recherche en IA. Chez nous, ce n'est pas un concept de papier — c'est implémenté en production, avec de vrais utilisateurs.

Exemple de session réelle

Itération 1

Agent : « Je vais vérifier les métiers les plus prometteurs du pré-scoring... »

→ Vérification de la fiche métier dans le référentiel

Itération 2

Agent : « Bon profil. Vérifions la transférabilité des compétences... »

→ Analyse des compétences du bénéficiaire vs. celles du métier

Itération 3

Agent : « Bonne couverture, quelques compétences manquantes. Vérifions le marché... »

→ Récupération des données marché (tension, salaires)

Itération 4

Agent : « Marché porteur, ce métier est pertinent. Passons au suivant... »

→ Vérification de la fiche métier suivante

Itération N

Agent : « J'ai suffisamment d'éléments pour conclure. »

→ Soumission des propositions argumentées

À aucun moment cette séquence n'est codée en dur. L'agent la construit à chaque exécution.

7.1 Les garde-fous

Nombre d'itérations plafonné pour éviter les boucles infinies.

Gestion d'erreurs : si un outil échoue, l'erreur est renvoyée à l'agent qui adapte sa stratégie.

Retries API : tentatives automatiques avec backoff exponentiel en cas d'erreur.

Détection de fin : la boucle s'arrête dès que l'agent appelle l'outil de retour.

8

Les prompts — la personnalité et les règles du jeu

Un prompt, dans notre contexte, ce n'est pas une phrase envoyée à ChatGPT. C'est un document structuré qui définit l'identité complète de l'agent : son expertise, sa méthodologie, ses règles absolues, et le format attendu de ses réponses. Nos prompts sont des fichiers Markdown, versionnés, maintenus comme du code.

8.1 Les principes non négociables

Le prompt définit un ensemble de règles absolues que l'agent ne peut pas contourner. Les principales :

Pas de métier inventé — chaque proposition doit être vérifiée dans le référentiel officiel.

Respect des refus — les contextes de travail refusés par le bénéficiaire sont éliminatoires, sans exception.

Argumentation multi-critères — chaque recommandation doit croiser compatibilité, compétences, marché et accessibilité.

Sortie structurée — pas de texte libre, des données formatées que le système peut traiter.

8.2 4 modes opératoires

Orientation métiers

Analyser les 80 candidats pré-scorés, en sélectionner 5-8, vérifier chacun, argumenter.

Raffinement métiers

Analyser les retours du bénéficiaire, identifier les patterns, proposer de nouvelles pistes plus ciblées.

Orientation entrepreneuriat

Générer 2-5 idées de projets entrepreneuriaux alignés avec le profil.

Raffinement entrepreneuriat

Même logique d'affinement, appliquée aux projets entrepreneuriaux.

9

Le traitement asynchrone — pourquoi tout tourne en arrière-plan

La génération complète — pré-scoring + compilation + boucle d'agent — prend entre 30 secondes et 2 minutes. C'est beaucoup trop long pour une requête HTTP classique.

Quand le bénéficiaire clique sur « Générer », la requête part quasi instantanément dans une file d'attente. Un worker en arrière-plan récupère le message et lance le pipeline complet. L'interface affiche un indicateur de progression et vérifie régulièrement le statut. Quand le traitement est terminé, les propositions s'affichent.

Si quelque chose échoue (API indisponible, timeout, erreur interne), le système retente automatiquement avec des délais croissants. Le bénéficiaire voit un message explicatif — jamais un écran blanc.

10

Le cycle de raffinement — apprendre des retours utilisateur

Le système ne s'arrête pas à la première génération. C'est un point fondamental.

1

Génération initiale → 5-8 propositions

2

Le bénéficiaire évalue chaque proposition

3

Les évaluations sont intégrées au profil : ce qui plaît, ce qui ne convient pas, ce qui laisse indifférent

4

Le pré-scoring exclut les métiers déjà proposés (anti-doublons)

5

Nouvelles propositions, plus pertinentes — le système converge vers les bonnes réponses

Le bénéficiaire n'est plus passif — il co-construit son orientation avec l'agent.

Découvrez votre profil en 5 minutes

Le Test d'Orientation Vocale croise vos valeurs, vos missions, vos aptitudes et vos traits de personnalité pour identifier les métiers qui vous correspondent vraiment.

Passer le test gratuitement
11

Ce qui fait concrètement la différence

Pour synthétiser tout ce qui précède, voici ce qui caractérise un système d'agent par rapport à une intégration LLM plus simple.

Critère Intégration LLM simple Système d'agent
Décision autonome L'IA répond à ce qu'on lui demande L'agent décide quels outils utiliser et quand
Itérations 1 appel = 1 réponse Boucle de raisonnement (plusieurs itérations)
Outils externes Aucun Plusieurs outils (MCP + RAG)
Données temps réel Uniquement le prompt Interrogation de bases et API en direct
Pré-traitement Aucun Scoring algorithmique sur 1 500+ items
Vérification L'IA peut halluciner librement Chaque proposition vérifiée dans le référentiel
Feedback loop Aucun Cycle de raffinement basé sur les évaluations
Profil Quelques champs 50+ champs, 3 tests psychométriques

11.1 Les 4 piliers d'un agent

R

Raisonnement

Analyser, croiser des critères, formuler des hypothèses

A

Action

Utiliser des outils pour vérifier avec des données concrètes

O

Observation

Intégrer les résultats dans le raisonnement

I

Itération

Répéter jusqu'à avoir assez d'éléments

Ce sont ces 4 dimensions combinées qui font la différence entre une intégration LLM et un système d'agent. L'une n'est pas « meilleure » que l'autre en soi — mais elles ne répondent pas aux mêmes problèmes.

12

Ce qui reste à construire

Transparence oblige — le système n'est pas terminé.

12.1 Court terme

1

Gap analysis

Après le choix d'orientation, générer une analyse d'écart détaillée : compétences acquises vs. à développer, formations recommandées. Transformer les propositions en plan d'action concret.

2

Amélioration de l'extraction CV

Remplacer l'extraction actuelle par Claude Vision (lecture directe du PDF). Meilleur mapping vers le référentiel de compétences.

3

Mode pilote / autonome

Permettre au coach de configurer si l'agent publie directement ses résultats ou si le coach doit valider avant publication.

12.2 Moyen et long terme

Mémoire agent persistante — se « souvenir » des sessions précédentes et affiner progressivement.

Cohérence IA sur le parcours — même LLM pour toutes les phases du bilan.

Multi-LLM — supporter plusieurs fournisseurs avec sélection automatique selon la tâche.

Analytics agent — tableaux de bord de performance, corrélation propositions/évaluations.

Glossaire

Terme Définition
Agent IA Système capable de raisonner, prendre des décisions, utiliser des outils et itérer de manière autonome pour accomplir une tâche complexe.
LLM Large Language Model — modèle de langage de grande taille (Claude, GPT, Gemini) capable de comprendre et générer du langage naturel.
RAG Retrieval-Augmented Generation — enrichir le contexte d'un LLM avec des données récupérées dynamiquement dans une base externe.
Embedding Représentation numérique (vecteur) d'un texte qui capture son sens sémantique. Permet de comparer des textes par similarité mathématique.
Qdrant Base de données vectorielle spécialisée dans le stockage et la recherche de vecteurs par similarité.
MCP Model Context Protocol — protocole standardisé par Anthropic permettant à un LLM d'utiliser des outils externes de manière structurée.
Tool Use Capacité d'un LLM à appeler des outils (fonctions, API) pendant son raisonnement et à utiliser les résultats.
Pattern ReAct Framework (Reasoning + Acting) qui formalise l'alternance raisonnement/action pour résoudre des tâches complexes.
RIASEC Test psychométrique mesurant 6 types d'intérêts professionnels : Réaliste, Investigateur, Artistique, Social, Entreprenant, Conventionnel.
OCEAN Big Five — test de personnalité mesurant 5 dimensions : Ouverture, Conscienciosité, Extraversion, Agréabilité, Névrosisme.
Code ROME Répertoire Opérationnel des Métiers et des Emplois — référentiel officiel français maintenu par France Travail.
Distance euclidienne Mesure de distance géométrique entre deux points dans un espace multi-dimensionnel. Utilisée pour comparer des profils psychométriques.
Similarité cosinus Mesure de similarité entre deux vecteurs basée sur l'angle entre eux. Utilisée par Qdrant pour la recherche sémantique.

Mon point de vue

Si vous êtes arrivé jusqu'ici, vous avez maintenant les clés pour évaluer n'importe quel produit qui se revendique « agent IA ». Posez ces questions :

Est-ce que le système prend des décisions autonomes sur les outils à utiliser ?

Est-ce qu'il itère (plusieurs cycles de raisonnement) ou un seul appel ?

Est-ce qu'il vérifie ses sorties avec des données réelles ?

Est-ce qu'il s'améliore avec les retours de l'utilisateur ?

L'orientation professionnelle touche à des trajectoires humaines. Ça mérite un système qui raisonne, qui vérifie, et qui s'améliore à chaque échange.

C'est cette conviction qui guide nos choix techniques.

Note : cet article est basé sur l'architecture technique réelle de Vocaneo, en production. Pas un concept, pas une roadmap — du code qui tourne.

William Sauvage - Fondateur Vocaneo

Assez des discours marketing trop lisses sur l’IA et le travail de demain ?

Moi aussi ! Ingénieur qui construit des systèmes depuis 15 ans, entrepreneur qui a vu des plateformes naître et des reconversions se jouer sur le terrain, je mesure chaque jour l’écart entre les discours officiels et la réalité des usages.

Ici, pas de promesses magiques ni de visions PowerPoint. Juste des analyses ancrées dans les données réelles, les choix techniques qui tiennent (ou pas), les effets inattendus quand l’IA croise l’humain. Du concret, sans filtre, pour ceux qui pilotent, recrutent, forment ou accompagnent au quotidien.

Rejoindre la newsletter
Garanti sans superflu marketing ou institutionnel. Un mail par semaine maximum : analyses brutes, retours terrain et arbitrages techniques.