Notre programme de formation Maîtriser l'Intelligence Artificielle avec Symfony

  • 🎤 Animée par un expert de JoliCode, passionné et actif dans la communauté tech.
  • 🎓 Certifiée Qualiopi, reconnue pour sa qualité et conforme aux standards les plus élevés.
  • 💯 Très courte, pour une montée en compétence rapide et impactante.
  • 🧑‍💻 Accompagnement possible après la formation pour des conseils adaptés à votre projet.

Contenu de la formation

LLM, RAG, agents : maîtrisez l'IA générative avec Symfony

  • Qu'est-ce qu'un LLM : un prédicteur statistique, pas un moteur de recherche
  • L'analogie de l'autocomplétion : le "T9 sous stéroïdes" entraîné sur le web public
  • Le concept de poids (Weights) : la connaissance figée dans des connexions mathématiques
  • Modèle vs plateforme : la différence entre l'intelligence (gpt-4o, claude, mistral) et l'hébergeur (OpenAI, Anthropic, Azure, Ollama)
  • Les tokens : unité de mesure, de facturation et de limite de lecture. La règle d'or 1000 tokens ≈ 750 mots
  • La fenêtre de contexte (Context Window) : la "RAM" de l'IA, ce qu'elle contient, et le problème du débordement
  • La température : de 0.0 (strict, idéal pour extraire du JSON) à 1.2+ (chaotique, risque d'hallucinations)
  • Le system prompt : l'instruction cachée qui définit le comportement du modèle et le socle de sécurité de votre application
  • Déterminisme vs non-déterminisme : ce que ça change pour un développeur PHP habitué à des résultats stables

  • Le défi de l'interopérabilité : OpenAI, Anthropic et Mistral ont des API différentes
  • L'abstraction comme solution : changer de modèle sans toucher à la logique métier
  • Architecture du composant : les différents composants et bundles
  • Cycle de vie et maintenance du composant dans l'écosystème Symfony
  • Le composant Platform : PlatformInterface et les bridges supportés
  • Configuration des providers : OpenAI, Anthropic, Mistral, Ollama (local)
  • Les formats supportés : Text, Vector, Stream
  • Cohérence avec Symfony : mêmes design patterns, même façon de développer, même robustesse

  • Utiliser la ChatInterface pour générer des réponses texte
  • Les types de messages : UserMessage, AssistantMessage, SystemMessage
  • Construire un historique de conversation et gérer le contexte
  • Piloter le comportement du modèle par configuration (system prompt dynamique)
  • Streaming des réponses pour une interface utilisateur réactive
  • TP : création d'un service de génération de contenu marketing piloté par configuration

  • Pourquoi les prompts doivent être traités comme du code : versioning, tests, maintenabilité
  • Techniques de prompting : instructions claires, exemples positifs et négatifs, contraintes de format
  • Extraction de données structurées : demander du JSON à un LLM et s'assurer de l'obtenir
  • Transformer une réponse texte en objet PHP typé (DTO)
  • Gérer les cas d'échec : hallucinations, format incorrect, réponse partielle
  • TP : extracteur d'entités capable de transformer un email non structuré en objet PHP

  • Pourquoi le RAG ? Les limites de la fenêtre de contexte face à une base de connaissances métier
  • Le workflow complet : Embeddings, Vector Store, Augmentation du prompt
  • Les embeddings : transformer du texte en vecteurs numériques pour la recherche sémantique
  • Le composant Store : abstraction des bases de données vectorielles
  • Les bridges supportés : PostgreSQL avec pgvector, Pinecone et autres
  • Génération d'embeddings via les services Symfony
  • Indexation de documents : PDF, contenus Doctrine, sources externes
  • Recherche par similarité sémantique vs recherche full-text classique : quand utiliser quoi
  • Augmentation du prompt : injecter les résultats pertinents dans le contexte du modèle
  • TP : créer un chatbot "Ask my Doc" capable de répondre aux questions en s'appuyant sur la documentation technique interne de l'entreprise

  • Du chatbot à l'agent : passer de la discussion à l'action automatisée
  • Le composant Agent : comment le LLM devient un orchestrateur de tâches
  • La boucle de réflexion : Planification, Action, Observation (ReAct)
  • Tool Calling : exposer des méthodes PHP comme "outils" accessibles au modèle
  • Sécurité et validation des arguments passés par l'IA à votre code
  • Agents multi-tours : maintenir le contexte et l'état entre plusieurs échanges
  • Gestion des erreurs et stratégies de fallback quand l'agent hallucine sur un outil
  • TP : agent de support client capable de vérifier l'état d'une commande en base de données et de générer un bon de retour via une API interne

  • Model Context Protocol (MCP) : qu'est-ce que ce protocole proposé par Anthropic
  • Utiliser le McpBundle pour créer des serveurs de contexte dans Symfony
  • Interopérabilité entre Symfony et des outils comme Claude Desktop ou Copilot
  • Symfony Mate : l'IA au service du développeur lui-même
  • Création de commandes CLI boostées à l'IA pour la génération de code ou de tests
  • Comment tester unitairement et fonctionnellement un service d'IA : VCR, Mocks
  • Stratégies de cache pour limiter les coûts d'API sans dégrader l'expérience
  • Monitoring de la qualité des réponses : évaluations et métriques
  • TP : mise en place d'une suite de tests pour valider qu'un prompt ne régresse pas

Télécharger le plan

Formation Maîtriser l'Intelligence Artificielle avec Symfony
Durée de la formation :
3 jours
Tarif :
1800 € HT / personne
Public
  • Développeurs Symfony intermédiaires à avancés
Pré-requis
Prochaines dates
  • 11 mai 2026
  • 15 juin 2026
  • 13 juillet 2026
  • 10 août 2026
  • 14 septembre 2026
  • 12 octobre 2026
  • 9 novembre 2026
  • 7 décembre 2026

Demander un devis

Portrait du formateur

Bien accompagné

Notre expertise à ce sujet

Expertise

Demander un devis

Nous sommes à votre disposition pour vous aider à choisir la formation adaptée à vos besoins et pour organiser des sessions sur-mesure si nécessaire.