Maîtriser les LLM dans les applications IT
Besoin d’adapter cette formation à vos besoins ?
N’hésitez pas à nous contacter afin d’obtenir un devis sur mesure !
Formation créée le 14/02/2025. Dernière mise à jour le 24/03/2025.
Version du programme : 1
Programme de la formation
La formation en quelques mots : - Comprendre les bases des LLM, comprendre et maîtriser les techniques d’augmentation de leurs capacités (RAG, function calling, architecture agentique, ...) - Appréhender les problématiques de qualité et d’observabilité Répartition : > Théorie : 55% > Pratique : 45% Cette formation est disponible en présentiel ou à distance, avec un programme et une qualité pédagogique identiques. > Formation inter-entreprise : pré-inscription en ligne ou contactez-nous : formation@younup.fr > Formation intra-entreprise : nous vous invitons à nous contacter pour réaliser un devis : formation@younup.fr Pour toute question, n’hésitez pas à contacter notre équipe : formation@younup.fr
Objectifs de la formation
- Comprendre les bases des LLM
- Maîtriser les techniques RAG
- Explorer les architectures agentiques
- Assurer l’observabilité
Profil des bénéficiaires
- Développeurs
- Architectes
- Data Scientist
- Technique : Être familier avec les bases en Python
- Technique : Notions de manipulation d’AP
- Matériel : PC pour les ateliers (clé API OpenAI - compte requis)
Contenu de la formation
-
Introduction aux LLM et concepts fondamentaux
- Explication des bases : Qu’est-ce qu’un LLM ? Modèles préentraînés vs fine-tuning
- Fonctionnement interne (transformers, attention mechanisms, limites et forces)
- Différentes approches : prompt engineering vs fine-tuning
-
Introduction à l’API OpenAI et manipulation basique
- Présentation des API de modèles de langage (OpenAI, GPT)
- Exemples pratiques : Créer des requêtes simples et analyser les résultats
- Gestion des tokens et des limitations (context window, gestion des prompts longs)
-
Introduction à Langchain et LlamaIndex
- Présentation de Langchain et LlamaIndex : Frameworks pour orchestrer les LLM
-
Travaux pratiques
- Utilisation des prompts complexes
- Construction d’un pipeline simple de traitement d’informations
- Manipulation de documents structurés via LlamaIndex
- Introduction au streaming des réponses et gestion de la mémoire avec Langchain (sessions, tokens)
-
Discussion de fin de journée
- Réflexions sur les cas d’utilisation réels des LLM dans les applications IT
- Questions/réponses et retours sur les premiers exercices.
-
Introduction à la Récupération d’Information Augmentée (RAG) - Version Naïve
- Théorie du RAG : Qu’est-ce que c’est ? Pourquoi en avons-nous besoin ?
- Exemples concrets : Comment les LLM peuvent utiliser des documents externes pour répondre à des questions
- Pratique : Implémentation d’une version naïve du RAG via Langchain avec une base documentaire simple
-
Limites du RAG naïf et introduction aux techniques avancées
- Explication des principales limites du RAG basique (erreurs de contexte, gestion des sources)
- Solutions : Utilisation de techniques comme Parent Document, Reranking, BM25, Knowledge Graph
-
Techniques avancées pour le RAG
- Parent Document et Reranking : Comment améliorer la pertinence des réponses
- BM25 : Moteur de recherche sémantique simple
- Knowledge Graph : Utilisation des graphes pour structurer et améliorer les requêtes
-
Travaux pratiques
- Implémentation de ces techniques avec Langchain pour améliorer un pipeline RAG
-
Introduction au Function Calling
- Qu’est-ce que le Function Calling
- Utilisation pour appeler des API externes ou des fonctions spécifiques avec les LLM
-
Travaux pratiques
- Construction d’un pipeline RAG + Function Calling. Par exemple, appel à des sources externes comme une base de données ou un site internet
-
Discussion de fin de journée
- Retour sur les pratiques et les difficultés rencontrées
- Questions et réflexions sur les applications concrètes des techniques avancées de RAG
-
Introduction aux Agents et Architectures Agentiques Simples
- Présentation des agents dans les LLM : Qu’est-ce qu’un agent
- Utilisation d’agents dans des flux décisionnels automatisés : Langchain + Agents
-
Travaux pratiques
- Implémenter un agent simple dans Langchain pour orchestrer des tâches spécifiques (gestion des sources externes, appels API, etc.)
-
Exploration des Limites des Architectures Agentiques Simples
- Discussion sur les limites des agents dans un environnement IT (erreurs, coûts, complexité)
- Analyse des performances : Pourquoi les architectures agentiques peuvent échouer ou se heurter à des blocages
- Comparaison avec des solutions plus avancées (LangGraph)
-
Architecture Agentique Avancée avec LangGraph
- Présentation de LangGraph : Introduction aux graphes complexes pour structurer les interactions entre agents et LLM
-
Travaux pratiques
- Création d’une architecture agentique complète utilisant LangGraph pour gérer des flux complexes
- Comparaison entre Langchain + Agents et LangGraph : Quels sont les avantages et inconvénients de chaque approche
-
Observabilité des LLM en production
- Introduction à l’observabilité des systèmes LLM : Pourquoi est-ce essentiel
- Surveillance et monitoring des agents et LLM : Outils de logs, analyse d’erreurs et suivi des performances
-
Travaux pratiques
- Mise en place d’un système d’observabilité pour une architecture agentique avec LangGraph
-
Conclusion et Synthèse
- Résumé des apprentissages sur les 3 jours.
- Retour d’expérience : Réflexion en groupe sur les différents cas d’utilisation des LLM dans les systèmes IT.
- Q&A final : Réponse aux dernières questions, discussion des projets futurs des participants
Nos formateurs sont des professionnels chevronnés, experts dans leur domaine. Chacun de nos consultants partage, au sein de notre centre de formation, les compétences acquises sur le terrain et enrichies chaque jour par les missions réalisées auprès de nos clients.
- En début de séance un recueil des attentes est réalisé pour s’assurer d’aborder tous les points pendant le déroulé de la formation.
- Le formateur évalue la progression pédagogique de l’apprenant tout au long de la formation au moyen de travaux pratiques, serious game, etc.
- L’apprenant complète également une auto-évaluation de positionnement au début et à la fin de la formation pour valider les compétences acquises en lien avec les objectifs de la formation.
- Espace apprenant
- Support de formation transmis
Qualité et satisfaction
Capacité d'accueil
Délai d'accès
Accessibilité
Prochaines dates
- Maîtriser les LLM dans les applications IT - 26, 27 & 28 ... - 26/05/2025 au 28/05/2025 - distance - (10 places restantes)