Durée : 3 jours
Aucune session disponible.
« * » indique les champs nécessaires
« * » indique les champs nécessaires
Objectifs
Public et prérequis
Programme
– Contexte historique et évolution de la vision par ordinateur
– Vue d’ensemble des données d’image et de vidéo
– Pixels, résolution, encodage, compression
– Techniques de prétraitement
– Redimensionnement, normalisation, augmentation des données
– Méthodes d’extraction des caractéristiques
– Descripteurs SIFT, histogrammes de gradients
– Outils
– OpenCV, techniques de base de manipulation d’images
Exemples de travaux pratiques :
– Chargement et visualisation de données image/vidéo à l’aide de Python et OpenCV
– Application de transformations de prétraitement
– Extraction et visualisation de caractéristiques clés à partir d’échantillons d’images
– Architecture CNN : couches convolutives, pooling, fonctions d’activation, couches entièrement connectées
– Techniques : apprentissage par transfert, réglage fin, interprétabilité du modèle
– Frameworks : Principes de base de PyTorch, principes de base de TensorFlow
Exemples de travaux pratiques :
– Construire un CNN à partir de zéro pour la classification d’images
– Affiner un CNN pré-entraîné (par exemple, ResNet, EfficientNet) pour un ensemble de données personnalisé
– Visualiser les activations et les filtres pour interpréter le comportement du modèle
– Techniques de détection d’objets :
– Réseaux de proposition de régions
– YOLO
– R-CNN plus rapide
– Approches de segmentation d’images :
– Segmentation sémantique
– Masque R-CNN
– U-Net
– Transformateurs de vision
– Formateurs de masques
– Outils :
– Modèles pré-entraînés (PyTorch, TensorFlow, Hugging Face)
Exemples de travaux pratiques :
– Mettre en œuvre la détection d’objets basée sur YOLO sur un échantillon de données.
– Effectuer une segmentation sémantique en utilisant U-Net ou Mask R-CNN.
– Évaluer et visualiser les métriques de performance des modèles.
– Modèles génératifs : GANs, VAEs, Modèles de diffusion
– Techniques d’apprentissage : Apprentissage contrastif, apprentissage à partir de zéro, apprentissage à partir d’un seul cliché, apprentissage à partir de quelques clics.
– Aperçu des modèles multimodaux : CLIP et applications
Exemples de travaux pratiques :
– Entraînement d’un GAN de base pour la génération d’images synthétiques
– Implémentation d’une tâche d’apprentissage à zéro coup avec CLIP
– Réalisation d’expériences d’entraînement à quelques coups sur un petit ensemble de données étiquetées
– Mesures d’évaluation : précision, IoU, exactitude, rappel
– Techniques d’optimisation des modèles : élagage, quantification, accélération matérielle
– Fiabilité et interprétabilité : cartes de saillance, Grad-CAM
Exemples de travaux pratiques :
– Évaluation de la performance des modèles à l’aide de métriques
– Mise en œuvre de la quantification et de l’élagage
– Visualisation des prédictions des CNN
Sur mesure
Disponible à distance
Durée : 3 jours
A partir de : 2550 € HT
Disponible à distance
Durée : 3 jours
soit 21 heures de formation
Disponible à distance
Durée : 3 jours
soit 21 heures de formation
Disponible à distance
Durée : 3 jours
A partir de : 2550 € HT

Référence : SF33429
À partir de 1400 € HT
2 jours

Référence : SF33063
À partir de 1950 € HT
3 jours

Référence : SF33355
À partir de 1800 € HT
3 jours