Téléchargez gratuitement
Guide Deep Learning en Production
De PyTorch à la production : MLOps, containerisation et déploiement de modèles deep learning.
Présentation
Maîtrisez PyTorch, TensorFlow et les réseaux de neurones pour créer des modèles d'IA performants en production
Objectifs
- Construire et entraîner des réseaux de neurones avec PyTorch et TensorFlow
- Implémenter des architectures CNN, RNN, LSTM et Transformers
- Optimiser les hyperparamètres et éviter l'overfitting
- Déployer des modèles en production avec MLOps
- Appliquer le transfer learning et le fine-tuning
Public visé
- →Data Scientists souhaitant se spécialiser en deep learning
- →Ingénieurs ML cherchant à approfondir leurs compétences
- →Développeurs Python intéressés par l'IA
- →Chercheurs et doctorants en informatique
- →Architectes Data et AI Engineers
Prérequis
Solides bases en Python (programmation orientée objet). Notions de mathématiques (algèbre linéaire, probabilités). Expérience avec NumPy et Pandas recommandée.
Programme détaillé
- •Perceptrons, activation functions et backpropagation
- •Introduction à PyTorch : tensors, autograd, modules
- •TensorFlow/Keras : modèles séquentiels et fonctionnels
- •GPU computing avec CUDA
Questions fréquentes
Prérequis
Solides bases en Python (programmation orientée objet). Notions de mathématiques (algèbre linéaire, probabilités). Expérience avec NumPy et Pandas recommandée.
Public cible
- →Data Scientists souhaitant se spécialiser en deep learning
- →Ingénieurs ML cherchant à approfondir leurs compétences
- →Développeurs Python intéressés par l'IA
- →Chercheurs et doctorants en informatique
- →Architectes Data et AI Engineers
Programme détaillé
Module 1 : Fondamentaux du Deep Learning
- →Perceptrons, activation functions et backpropagation
- →Introduction à PyTorch : tensors, autograd, modules
- →TensorFlow/Keras : modèles séquentiels et fonctionnels
- →GPU computing avec CUDA
Module 2 : Vision par Ordinateur (CNN)
- →Convolutions, pooling et architectures classiques (LeNet, VGG, ResNet)
- →Transfer learning avec modèles pré-entraînés
- →Object detection : YOLO, Faster R-CNN
- →Segmentation d'images et applications industrielles
Module 3 : NLP et Séquences (RNN, Transformers)
- →RNN, LSTM et GRU pour les séries temporelles
- →Attention mechanism et architecture Transformer
- →BERT, GPT et modèles de langage pré-entraînés
- →Fine-tuning pour classification de texte et NER
Module 4 : MLOps et Production
- →Expérimentation avec MLflow et Weights & Biases
- →Containerisation des modèles (Docker, ONNX)
- →Déploiement sur cloud (AWS SageMaker, GCP Vertex AI)
- →Monitoring et A/B testing de modèles
Module 5 : Projet Pratique
- →Définition du problème métier et collecte de données
- →Entraînement et optimisation du modèle
- →Déploiement sur une API REST
- →Documentation et bonnes pratiques
Résultats attendus
Construire et entraîner des réseaux de neurones avec PyTorch et TensorFlow
Implémenter des architectures CNN, RNN, LSTM et Transformers
Optimiser les hyperparamètres et éviter l'overfitting
Déployer des modèles en production avec MLOps
Appliquer le transfer learning et le fine-tuning
Entreprises à Paris utilisant cette formation
- Thales - Formation sensibilisation de 500+ employés
- Capgemini - Programme de certification continue
- Atos - Audit de sécurité et formation sur-mesure
- Startups de Station F - Formations collectives mensuelles
Conformité réglementaire
Conformité RGPD, NIS2, LPM (Loi de Programmation Militaire), PASSI (Prestataire d'Audit de la Sécurité des Systèmes d'Information), Hébergeur HDS (Hébergeur de Données de Santé), RGS (Référentiel Général de Sécurité)
FAQs
Prêt à commencer ?
Prochaine session à Paris
10 mars 2026