Actuellement, l’un des principaux obstacles à la réalisation du plein potentiel des
agents d’IA réside dans leur incapacité à communiquer et à collaborer efficacement entre eux.
L’intégration des différents outils et plateformes au sein de l’écosystème de l’IA reste un processus précaire, complexe et souvent artisanal, caractérisé par un manque de standardisation et d’automatisation
Orchestration et coordination
À mesure que les systèmes d'IA prennent de l'ampleur, ils intègrent souvent de nombreux agents dotés de capacités diverses. Il devient de plus en plus difficile de gérer ces interactions et de s'assurer qu'elles fonctionnent harmonieusement.
Les cadres d'agents offrent un environnement structuré qui permet d'orchestrer les activités des agents, de définir leurs rôles et responsabilités et d'améliorer la communication.
Modularité et réutilisation
Les cadres d'agents favorisent une approche modulaire du développement de l'IA, où les agents sont conçus et mis en œuvre comme des composants indépendants. Cette modularité permet une meilleure organisation du code et la réutilisation des modules d'agents dans différents projet
définitions assez bien faites :
Agentic AI vs AI Agents: Key Differences Explained
Design patterns
Hybrid GraphRAG (Standard de fait) : Évolution du RAG classique combinant bases vectorielles et Graphes de Connaissances. Indispensable pour capturer les relations complexes entre entités financières (ex: structures de holdings, liens inter-marchés) et éliminer les hallucinations structurelles.
Hierarchical Multi-Agent (Orchestrateur/Superviseur) : Un pattern "Microservices" pour l'IA. Un agent superviseur décompose une requête (ex: "Analyse ce dossier de crédit") et délègue à des agents spécialisés (Risque, Compliance, ESG). Cela permet une isolation des logs et un débogage granulaire.
Evaluator-Optimizer (Boucle de critique) : Un pattern de contrôle où un agent "Critique" valide ou rejette le travail d'un agent "Générateur" selon des règles métiers strictes avant toute sortie SI. Essentiel pour la conformité réglementaire (ex: MiFID III, AI Act).
Model Routing & SLM Distillation (Efficiency Pattern) : Optimisation des coûts (FinOps) et de la latence. Le SI route les tâches simples vers des Small Language Models (SLM) spécialisés et locaux, ne sollicitant les LLM massifs que pour le raisonnement de haut niveau.
Persistent Memory & Cognitive State : Gestion de l'état long terme. Permet à un agent de "se souvenir" des interactions passées et du contexte client sur plusieurs mois, dépassant les limites de la fenêtre de contexte éphémère.
Gateway
"Attention"
Ne pas négliger le NLP pour des taches simples et directes
L’ALTERNATIVE NLP :
QUAND LE PETIT BAS LE GÉANT
Si les LLM (Large Language Models) occupent tout l'espace médiatique, ils ne sont
qu'une branche d'une discipline plus vaste ; le NLP (Natural Language Processing).
Là où un LLM est un couteau suisse géant, le NLP classique regroupe des outils
chirurgicaux spécialisés. Quelle différence concrète ? Un LLM (modèle généraliste)
est "monstre" (milliards de paramètres) qui a tout appris pour savoir tout faire ;
discuter, coder, traduire, inventer. Inconvénient ; il est lourd, lent et gourmand en
VRAM. En revanc un NLP classique (modèle spécialisé) est plus compact et entraîné
pour une seule tâche (par exemple en extraire uniquement les prix dans 10 000
factures). L’avantage, il est minuscule, c’est foudre de guerre en vitesse et tourne
sur un simple processeur. Quand privilégier le NLP plutôt que le LLM ? Pour détecter
des noms propres, des lieux ou des organisations dans un texte (tâche de Named
Entity Recognition), un petit modèle NLP est souvent plus fiable et moins sujet
aux hallucinations. Mais pour le traitement de masse, par exemple si vous devez
classer 50 000 commentaires clients en "positif" ou "négatif", un modèle NLP fera
le travail en quelques secondes là où un LLM mettra des minutes et chauffera votre
GPU pour rien.
MCP
- embeddings : les nuances ( chien, berger allemand)
- Context lenght : mémoire vive le nombre de token dont le modèle se souvient dans une seule phrase ou taille d'un document.
LangChain a été conçu pour enchaîner des étapes les unes après les autres. C'est ce qu'on appelle un DAG (Graphe Acyclique Dirigé).
No comments:
Post a Comment