Les interfaces agentiques posent une question que je trouve particulièrement intéressante du point de vue du product design : quand une IA participe à un processus de décision, comment maintenir la personne qui décide dans une posture active ? Si l'IA fait trop, l'humain se désengage. Si elle manque de transparence, la confiance s'effrite.
La détection de fraude dans le secteur bancaire européen offrait un contexte naturel pour explorer cette question. Les analystes travaillent sous contrainte de temps, 80 % de leurs alertes se révèlent être de fausses alarmes, et la décision finale leur revient toujours. Un terrain où l'équilibre entre assistance de l'IA et jugement humain a des conséquences immédiates et mesurables.
RiskOS est le prototype que j'ai construit pour tester des idées autour de cet équilibre.
Observation initiale
Un analyste fraude dans une néobanque européenne traite 80 à 150 alertes par vacation. La plupart sont sans suite. Chaque minute consacrée à une fausse alarme est une minute retirée aux cas qui nécessitent une vraie attention.
Dans beaucoup d'équipes, l'outil du quotidien reste un tableur et un jeu de règles fixes. Pas de contexte environnant, pas de tri par pertinence, pas de mémoire des cas précédents.
Mêmes données, deux lectures.
À gauche, le flux d'alertes tel que la plupart des établissements le reçoivent : tableur brut, colonnes à plat. À droite, les mêmes informations organisées dans RiskOS.
Approche de design
La question centrale était de savoir si l'IA pouvait prendre en charge le travail de préparation tout en laissant à l'analyste la pleine maîtrise de la décision.
Trois principes ont guidé le design :
●L'IA pose le contexte pour que l'analyste puisse réfléchir clairement. Elle ne décide pas.
●Le raisonnement doit être lisible, pas réduit à un chiffre.
●Quand l'analyste agit, le résultat doit être visible au-delà de l'outil.
Où se place RiskOS dans le processus.
Une transaction suspecte passe d'abord par les règles automatiques de la banque. Si elle est signalée, l'alerte entre dans une file. L'IA l'analyse. L'analyste examine et tranche. RiskOS, c'est l'espace de travail de cette dernière étape.
Trier sous contrainte de temps
L'analyste ouvre sa session. Cinq cas l'attendent, classés par niveau de risque. Il peut filtrer par priorité et suivre sa progression avec un compteur en direct.
Vue de triage
Frustration : Sans tri, l'analyste parcourt toute la liste à la main pour repérer les urgents.
Bénéfice : Priorités colorées et compteur en direct. Le tri prend quelques secondes.
Rendre le raisonnement de l'IA lisible
L'IA rédige son analyse en temps réel, mot par mot. Les éléments pertinents (montants, localisations, appareils) sont mis en évidence au fur et à mesure. Les sources de données utilisées s'éclairent progressivement, et un score de confiance indique le niveau de certitude.
Les boutons d'action restent masqués jusqu'à la fin de l'analyse. L'analyste lit l'intégralité du raisonnement avant de pouvoir prendre sa décision.
Analyse IA, en direct
Frustration : D'habitude, l'analyste reçoit un chiffre de risque sans explication. Il reconstitue le raisonnement seul.
Bénéfice : Ici l'IA écrit ce qu'elle a trouvé, étape par étape. L'analyste lit le raisonnement, puis il décide.
Agir sur un cas, et voir la suite
L'analyste choisit : bloquer la carte, transmettre à un senior, ou surveiller. Un écran récapitule ce qui s'est passé. Puis deux choses apparaissent qui restent d'habitude invisibles : le message Slack à l'équipe fraude, et le SMS au client.
Pour les transmissions, l'IA pré-rédige une note que l'analyste peut ajuster avant envoi. Le cas arrive auprès du collègue avec du contexte, au lieu de tomber sans explication.
Confirmation et ce qui s'est passé ensuite
Frustration : D'habitude, l'analyste agit et ne voit jamais la suite. Les transmissions semblent disparaître.
Bénéfice : Chaque action laisse une trace visible : le message Slack, le SMS, le ticket. L'analyste voit que c'est passé.
Résoudre une fausse alerte en huit secondes
Une alerte de risque moyen arrive : score 45, un paiement de 450 euros. L'IA passe l'historique en revue et ne trouve rien d'anormal. L'analyste confirme d'un clic. Temps total entre l'ouverture et la résolution : huit secondes.
Fausse alerte, résolue
Frustration : Les fausses alertes prennent autant de temps que les vrais cas, alors qu'elles ne demandent rien.
Bénéfice : L'IA repère les cas inoffensifs en quelques secondes. L'analyste garde son attention pour le reste.
Traiter une file complète
L'analyste traite cinq cas en séquence. Après chaque résolution, le cas suivant se charge automatiquement. Une barre de progression et un chronomètre suivent la session. Au terme de la file : cinq cas résolus, 92 secondes au total, 18 secondes de moyenne.
Enchaînement et bilan de session
Frustration : Changer de cas impose de reprendre ses repères à chaque fois.
Bénéfice : Les cas s'enchaînent sans rupture. Les compteurs gardent le rythme visible.
Observations sur les interfaces agentiques
Deux enseignements de ce projet qui, je pense, s'appliquent bien au-delà de la détection de fraude.
Le streaming du raisonnement construit la confiance d'une manière que les scores ne permettent pas.
Quand l'IA écrit son analyse mot par mot, l'analyste suit et se forge sa propre opinion en parallèle. Il peut acquiescer, relever une incohérence, repérer un élément manquant. Un score de confiance affiché après coup demande la confiance sans montrer le travail qui l'a produit.
Masquer les boutons tant que l'analyse est en cours change la façon dont les gens lisent.
Les boutons de décision de RiskOS n'apparaissent qu'une fois l'analyse terminée. Ces quelques secondes supplémentaires font la différence entre survoler et lire attentivement. Sous contrainte de temps, les utilisateurs cliquent sur la première option disponible. Cette petite contrainte donne au raisonnement le temps d'être reçu.
Je retrouve ces mêmes dynamiques dans d'autres contextes où l'IA accompagne une décision humaine sous contrainte de temps : conformité réglementaire, triage médical, modération de contenu, gestion d'incidents.
Périmètre technique
Prototype fonctionnel construit avec React 18, Vite et Tailwind CSS. Interface sombre, conçue pour le bureau. Déployé sur Vercel.