Notre programme de formation Maîtriser l'Intelligence Artificielle avec Symfony
Maîtrisez l'intégration de l'IA générative dans vos applications Symfony. Des fondamentaux des LLM à la mise en place d'un RAG sur vos données métier, vous apprendrez à construire des services d'IA robustes, maintenables et agnostiques des fournisseurs, en tirant parti de toute la puissance du composant Symfony/AI.
- 🎤 Animée par un expert de JoliCode, passionné et actif dans la communauté tech.
- 🎓 Certifiée Qualiopi, reconnue pour sa qualité et conforme aux standards les plus élevés.
- 💯 Très courte, pour une montée en compétence rapide et impactante.
- 🧑💻 Accompagnement possible après la formation pour des conseils adaptés à votre projet.
Contenu de la formation
LLM, RAG, agents : maîtrisez l'IA générative avec Symfony
L'intelligence artificielle s'invite dans les projets web à vitesse grand V. Savoir l'intégrer proprement dans une application Symfony, de manière structurée, maintenable et agnostique des fournisseurs, devient une compétence clé pour tout développeur qui veut rester à la pointe.
Cette formation vous donne les bases solides pour comprendre le fonctionnement des LLM, exploiter le composant Symfony/AI et connecter votre application aux grands modèles du marché (OpenAI, Anthropic, Mistral, Ollama...). Elle est conçue comme un catalogue modulaire de 4 jours : la durée et le contenu s'adaptent aux besoins de votre équipe, avec un socle de 2 jours et deux modules avancés optionnels.
Cette formation vous permettra :
- de comprendre le fonctionnement des LLM et leurs contraintes techniques concrètes
- de configurer et utiliser le composant Symfony/AI avec différents fournisseurs
- de changer de modèle ou de plateforme sans modifier votre logique métier
- de générer du texte, extraire des données structurées et streamer des réponses
- de typer les sorties d'un LLM en objets PHP robustes
- de mettre en place un système RAG pour interroger vos propres documents
- de créer des agents capables d'interagir avec votre code PHP et vos APIs internes
- d'évaluer, tester et monitorer vos services d'IA en production
- Qu'est-ce qu'un LLM : un prédicteur statistique, pas un moteur de recherche
- L'analogie de l'autocomplétion : le "T9 sous stéroïdes" entraîné sur le web public
- Le concept de poids (Weights) : la connaissance figée dans des connexions mathématiques
- Modèle vs plateforme : la différence entre l'intelligence (gpt-4o, claude, mistral) et l'hébergeur (OpenAI, Anthropic, Azure, Ollama)
- Les tokens : unité de mesure, de facturation et de limite de lecture. La règle d'or 1000 tokens ≈ 750 mots
- La fenêtre de contexte (Context Window) : la "RAM" de l'IA, ce qu'elle contient, et le problème du débordement
- La température : de 0.0 (strict, idéal pour extraire du JSON) à 1.2+ (chaotique, risque d'hallucinations)
- Le system prompt : l'instruction cachée qui définit le comportement du modèle et le socle de sécurité de votre application
- Déterminisme vs non-déterminisme : ce que ça change pour un développeur PHP habitué à des résultats stables
- Le défi de l'interopérabilité : OpenAI, Anthropic et Mistral ont des API différentes
- L'abstraction comme solution : changer de modèle sans toucher à la logique métier
- Architecture du composant : les différents composants et bundles
- Cycle de vie et maintenance du composant dans l'écosystème Symfony
- Le composant Platform : PlatformInterface et les bridges supportés
- Configuration des providers : OpenAI, Anthropic, Mistral, Ollama (local)
- Les formats supportés : Text, Vector, Stream
- Cohérence avec Symfony : mêmes design patterns, même façon de développer, même robustesse
- Utiliser la ChatInterface pour générer des réponses texte
- Les types de messages : UserMessage, AssistantMessage, SystemMessage
- Construire un historique de conversation et gérer le contexte
- Piloter le comportement du modèle par configuration (system prompt dynamique)
- Streaming des réponses pour une interface utilisateur réactive
- TP : création d'un service de génération de contenu marketing piloté par configuration
- Pourquoi les prompts doivent être traités comme du code : versioning, tests, maintenabilité
- Techniques de prompting : instructions claires, exemples positifs et négatifs, contraintes de format
- Extraction de données structurées : demander du JSON à un LLM et s'assurer de l'obtenir
- Transformer une réponse texte en objet PHP typé (DTO)
- Gérer les cas d'échec : hallucinations, format incorrect, réponse partielle
- TP : extracteur d'entités capable de transformer un email non structuré en objet PHP
- Pourquoi le RAG ? Les limites de la fenêtre de contexte face à une base de connaissances métier
- Le workflow complet : Embeddings, Vector Store, Augmentation du prompt
- Les embeddings : transformer du texte en vecteurs numériques pour la recherche sémantique
- Le composant Store : abstraction des bases de données vectorielles
- Les bridges supportés : PostgreSQL avec pgvector, Pinecone et autres
- Génération d'embeddings via les services Symfony
- Indexation de documents : PDF, contenus Doctrine, sources externes
- Recherche par similarité sémantique vs recherche full-text classique : quand utiliser quoi
- Augmentation du prompt : injecter les résultats pertinents dans le contexte du modèle
- TP : créer un chatbot "Ask my Doc" capable de répondre aux questions en s'appuyant sur la documentation technique interne de l'entreprise
- Du chatbot à l'agent : passer de la discussion à l'action automatisée
- Le composant Agent : comment le LLM devient un orchestrateur de tâches
- La boucle de réflexion : Planification, Action, Observation (ReAct)
- Tool Calling : exposer des méthodes PHP comme "outils" accessibles au modèle
- Sécurité et validation des arguments passés par l'IA à votre code
- Agents multi-tours : maintenir le contexte et l'état entre plusieurs échanges
- Gestion des erreurs et stratégies de fallback quand l'agent hallucine sur un outil
- TP : agent de support client capable de vérifier l'état d'une commande en base de données et de générer un bon de retour via une API interne
- Model Context Protocol (MCP) : qu'est-ce que ce protocole proposé par Anthropic
- Utiliser le McpBundle pour créer des serveurs de contexte dans Symfony
- Interopérabilité entre Symfony et des outils comme Claude Desktop ou Copilot
- Symfony Mate : l'IA au service du développeur lui-même
- Création de commandes CLI boostées à l'IA pour la génération de code ou de tests
- Comment tester unitairement et fonctionnellement un service d'IA : VCR, Mocks
- Stratégies de cache pour limiter les coûts d'API sans dégrader l'expérience
- Monitoring de la qualité des réponses : évaluations et métriques
- TP : mise en place d'une suite de tests pour valider qu'un prompt ne régresse pas
- Durée de la formation :
- 3 jours
- Tarif :
- 1800 € HT / personne
- Public
-
- Développeurs Symfony intermédiaires à avancés
- Pré-requis
-
- Bonne maîtrise de Symfony et de PHP orienté objet
- Une expérience sur un projet Symfony en production est recommandée
- Aucune connaissance préalable en IA ou en machine learning n'est requise.
Portrait du formateur
Bien accompagné
Grégoire Pineau
Grégoire est un passionné d'open source, contribuant activement à des projets majeurs tels que Twig et Symfony. Son engagement et son expertise ont été reconnus en 2016 lorsqu'il a été nommé "core contributor" pour Symfony (aujourd’hui #10 contributor), suite à l'intégration du composant Workflow. Il est en charge de la relecture, du commentaire et de la finalisation des pull-requests envoyées par la communauté. De plus, Grégoire répond aux interrogations des développeurs et gère les tickets, qu'il s'agisse de bugs ou de nouvelles fonctionnalités.
Depuis 2017, Grégoire apporte son expertise au sein de JoliCode, où il bénéficie d'un temps dédié à l'open-source, lui permettant de poursuivre la maintenance de ce composant essentiel, mais aussi de travailler sur de nouveaux projets comme Docker starter (une surcouche à Docker Compose pour en simplifier l'expérience), Castor (un gestionnaire de tâches moderne écrit en PHP) et redirection.io !
Il aime partager ses connaissances via de nombreux articles sur le blog de JoliCode, ainsi que de fréquentes conférences en France, mais également en Belgique et au Canada 🌍
Ses formations sont fréquemment saluées pour leur richesse et leur interactivité. Grégoire offre des éclairages précieux sur des composants Symfony souvent utilisés mais parfois mal compris, et ses conseils pratiques sont particulièrement appréciés.
Notre expertise à ce sujet
Expertise
L'IA n'est pas un sujet que nous découvrons pour la formation. C'est un chantier que nous menons activement sur nos propres projets et pour nos clients, avec des équipes qui contribuent directement aux outils et aux écosystèmes qu'elles enseignent.
Nos développeurs ont exploré en profondeur l'intégration de l'IA dans des contextes de production réels : agents connectés à des APIs internes, chatbots RAG alimentés par de la documentation propriétaire, recherche sémantique, vectorisation de documents, transformation de langage naturel en objets PHP typés. Côté productivité développeur, nous expérimentons au quotidien les assistants de code et les outils d'automatisation, du Vercel AI SDK aux agents de développement comme Claude Code, pour accélérer nos workflows sans sacrifier la qualité. Et pour aller plus loin dans l'automatisation, nous formons sur des sujets concrets : gestion du contexte, TDD assisté par IA, création de commandes custom, agents spécialisés multi-repos.
Nous avons également exploré en profondeur le Model Context Protocol (MCP), un standard ouvert qui permet aux agents IA de se connecter à vos outils, vos bases de données et vos APIs. Un sujet que nous traitons aussi bien côté Symfony que côté outillage développeur.
Ce que vous apprendrez dans nos formations, c'est exactement ce que nous faisons. Pas de théorie déconnectée : des patterns éprouvés, des choix argumentés, et des formateurs qui ont ouvert les capots avant de monter sur scène.
Demander un devis
Nous sommes à votre disposition pour vous aider à choisir la formation adaptée à vos besoins et pour organiser des sessions sur-mesure si nécessaire.