Fondamentaux de l’IA​ et du Machine Learning​

  • Formations
  • Fondamentaux de l’IA​ et du Machine Learning​

Notions de programmation Python, culture mathématique de base.

  • Comprendre les paradigmes de l’IA, distinguer ML/DL/IA symbolique
  • Manipuler des datasets avec NumPy/Pandas, visualiser avec Matplotlib/Seaborn
  • Implémenter régression, classification, valider et optimiser des modèles
  • Appliquer clustering et réduction de dimension sur des données réelle s
  • Construire et entraîner des réseaux de neurones avec Keras/TensorFlow
  • Utiliser les CNN et le transfer learning pour la classification d’images
  • Comprendre embeddings, transformers ; expérimenter avec des LLMs
  • Versionner des expériences ML, déployer un modèle via API REST
  • Identifier les biais, appliquer les principes RGPD aux systèmes IA

À la suite de votre inscription, un mail vous sera adressé au plus tard 1 semaine avant la formation pour vous indiquer comment vous connecter.

À l’issue de la formation, le formateur évaluera chacun des participants en fonction des cas pratiques et exercices effectués.

Alternance d’exercices, cas pratiques, QCM et de notions théoriques, projet Fil Rouge avec une répartition du temps de travail : 40% théorie, 60% pratique. Des présentations théoriques des concepts clés illustrés par des démonstrations du formateur (Ex : code live…) seront suivies de mises en pratique des apprenants.

Évaluations régulières et retour du formateur sur les points moins bien assimilés. ; les apprenants réaliseront tout au long de la formation des exercices, QCM, mises en situation, TP, TD qui seront corrigés pour faciliter l’acquisition de compétences.

En classe virtuelle, accès à notre plateforme à distance, à des machines virtuelles en local ou dans le cloud contenant les logiciels utiles et les supports de cours en français seront mis à disposition via notre la plate-forme de téléchargement AJC Classroom.

Accès à notre plateforme à distance de Classe Virtuelle : mêmes possibilités et interactions avec votre formateur que lors d’une formation présentielle: votre formation se déroulera en connexion continue 7h/7 :
– Échanges directs avec le formateur et l’équipe pédagogique à travers la visioconférence, les forums et chats ;
– Vérification de l’avancement de votre travail et évaluation par votre formateur à l’aide d’exercices et de cas pratiques ;
– Suivi pédagogique et conseils personnalisés pendant toute la formation.

Vous recevrez les informations de connexion par mail dès votre inscription. En cas de problème de connexion, vous pourrez joindre notre équipe à tout moment (avant ou même pendant la formation) au 01 82 83 72 41 ou par mail (hotline@ajc-formation.fr).

En présentiel, mise à disposition d’ordinateurs portables (16Go RAM, SDD); nos salles sont équipées de matériels pédagogiques (Tableau blanc, vidéo projecteur, tableau tactile…) et informatiques.

Les personnes en situation de handicap sont invitées à nous communiquer leurs besoins spécifiques. Nous ferons tout pour les mettre dans les meilleures conditions de suivi de la formation possibles (compensation, accessibilité…).

Une attestation de fin de stage sera remise à tous les participants à l’issue de leur parcours.

Développeurs, ingénieurs, data analysts, chefs de projet technique.

Introduction à l’Intelligence Artificielle

Objectifs pédagogiques

  • Définir l’IA, le Machine Learning et le Deep Learning et leurs relations
  • Retracer les grandes étapes historiques de l’IA (1950 → aujourd’hui)
  • Distinguer IA faible, IA forte et IA générative
  • Identifier les domaines d’application et les grandes problématiques éthiques

Contenu théorique

  • Histoire et évolutions de l’IA : de Turing aux LLMs
  • Taxonomie : IA symbolique, ML, Deep Learning, IA générative
  • Panorama des cas d’usage industriels (santé, finance, industrie, NLP)
  • Cycle de vie d’un projet ML (CRISP-DM, MLOps)
  • Éthique, biais algorithmiques et IA responsable — introduction

Travaux pratiques

  • Atelier : exploration de démos IA (Hugging Face Spaces, Google Teachable Machine)
  • Cartographie mentale collaborative des applications IA par secteur
  • Discussion guidée : enjeux éthiques d’un système de recommandation

Livrables / Productions

  • Carte mentale des domaines de l’IA
  • Fiche de synthèse : vocabulaire fondamental IA/ML

 

Python pour la Data Science

Objectifs pédagogiques

  • Maîtriser les structures NumPy (arrays, broadcasting, opérations matricielles)
  • Manipuler et nettoyer des datasets avec Pandas (filtering, groupby, merge)
  • Visualiser des distributions et corrélations avec Matplotlib et Seaborn
  • Construire un pipeline de prétraitement de données réutilisable

Contenu théorique

  • Environnement de travail : Jupyter Lab, conda, pip, venv
  • NumPy : arrays N-dimensionnels, opérations vectorisées, algèbre linéaire de base
  • Pandas : Series, DataFrame, lecture CSV/JSON, gestion des valeurs manquantes
  • Visualisation : histogrammes, boxplots, heatmaps de corrélation, pairplot
  • Bonnes pratiques : documentation, reproductibilité, gestion des seeds

Travaux pratiques

  • TP 1 : Analyse exploratoire d’un dataset réel (Titanic ou Iris) avec Pandas
  • TP 2 : Visualisation complète d’un dataset e-commerce (chiffre d’affaires, tendances)
  • TP 3 : Pipeline de nettoyage et d’encodage (OneHotEncoder, StandardScaler)

Livrables / Productions

  • Notebook Jupyter : EDA complet avec visualisations commentées
  • Fonction Python de nettoyage de données réutilisable

 

Machine Learning Supervisé — Fondamentaux

Objectifs pédagogiques

  • Comprendre le principe de minimisation d’une fonction de perte
  • Implémenter régression linéaire et logistique avec scikit-learn
  • Évaluer un modèle : métriques, courbe ROC, matrice de confusion
  • Appliquer la validation croisée et détecter le surapprentissage

Contenu théorique

  • Apprentissage supervisé : hypothèse, fonction de perte, optimisation (gradient)
  • Régression linéaire simple et multiple : OLS, coefficients, R²
  • Régression logistique : sigmoid, entropie croisée, seuil de décision
  • Arbres de décision : critères de split (Gini, entropie), profondeur, pruning
  • Métriques de classification : accuracy, precision, recall, F1, AUC-ROC
  • Biais/variance, underfitting/overfitting, train/val/test split

Travaux pratiques

  • TP 1 : Régression linéaire — prédiction de prix immobiliers (Boston Housing)
  • TP 2 : Classification binaire — détection de spam avec régression logistique
  • TP 3 : Évaluation complète avec cross-validation et learning curves

Livrables / Productions

  • Notebook : pipeline ML complet (prétraitement → modèle → évaluation)
  • Rapport d’analyse des métriques avec interprétation

 

Machine Learning Supervisé — Algorithmes Avancés

Objectifs pédagogiques

  • Comprendre et implémenter SVM pour classification et régression
  • Maîtriser les méthodes d’ensemble : Random Forest et Gradient Boosting
  • Optimiser les hyperparamètres avec GridSearchCV et RandomizedSearchCV
  • Interpréter les modèles avec SHAP et l’importance des features

Contenu théorique

  • Support Vector Machines : hyperplan optimal, kernel trick (RBF, polynomial)
  • Bagging et Random Forest : agrégation de décisions, feature importance
  • Gradient Boosting : XGBoost, LightGBM, CatBoost — comparaison et usage
  • Hyperparameter tuning : Grid Search, Random Search, Optuna
  • Interprétabilité : SHAP values, LIME, feature importance plots
  • Pipelines scikit-learn : ColumnTransformer, Pipeline, make_pipeline

Travaux pratiques

  • TP 1 : Comparaison de modèles — SVM vs RF vs XGBoost sur un dataset métier
  • TP 2 : Optimisation d’hyperparamètres avec Optuna ou GridSearch
  • TP 3 : Analyse SHAP — expliquer les prédictions d’un modèle XGBoost

Livrables / Productions

  • Benchmark comparatif de 4 modèles (tableau de métriques)
  • Notebook SHAP avec interprétation métier des résultats

 

Machine Learning Non Supervisé

Objectifs pédagogiques

  • Implémenter K-Means et évaluer la qualité du clustering (silhouette, elbow)
  • Appliquer des algorithmes de clustering avancés (DBSCAN, Agglomératif)
  • Réduire la dimensionnalité avec PCA et visualiser en 2D/3D
  • Utiliser le clustering pour la segmentation client ou la détection d’anomalies

Contenu théorique

  • Apprentissage non supervisé : enjeux, absence de labels, évaluation
  • K-Means : algorithme de Lloyd, choix de k (elbow, silhouette score)
  • DBSCAN : notion de densité, points de bruit, cas d’usage détection d’anomalies
  • Clustering hiérarchique agglomératif : dendrogramme, linkage
  • PCA : valeurs propres, variance expliquée, composantes principales
  • t-SNE et UMAP pour la visualisation de données haute dimensionnelle

Travaux pratiques

  • TP 1 : Segmentation client (RFM) avec K-Means sur données e-commerce
  • TP 2 : Détection d’anomalies réseau avec DBSCAN et Isolation Forest
  • TP 3 : Réduction dimensionnelle PCA + visualisation t-SNE sur MNIST

Livrables / Productions

  • Analyse de segmentation client avec profils des clusters
  • Visualisations PCA/t-SNE commentées

 

Introduction au Deep Learning

Objectifs pédagogiques

  • Comprendre l’architecture d’un réseau de neurones artificiel (MLP)
  • Implémenter et entraîner un réseau avec Keras/TensorFlow
  • Maîtriser la rétropropagation, les fonctions d’activation et les optimiseurs
  • Appliquer les techniques de régularisation (dropout, batch normalization)

Contenu théorique

  • Du neurone biologique au perceptron : histoire et formalisme
  • Architecture MLP : couches denses, fonctions d’activation (ReLU, sigmoid, softmax)
  • Backpropagation : calcul du gradient, règle de la chaîne
  • Optimiseurs : SGD, Adam, RMSProp — comparaison et choix
  • Régularisation : L1/L2, dropout, early stopping, batch normalization
  • TensorFlow/Keras : Sequential API vs Functional API, callbacks

Travaux pratiques

  • TP 1 : Réseau dense pour classification MNIST (chiffres manuscrits)
  • TP 2 : Régression profonde — prédiction d’énergie (dataset UCI)
  • TP 3 : Visualisation TensorBoard — courbes d’apprentissage, poidsT

Livrables / Productions

  • Modèle Keras entraîné et sauvegardé (.h5 / SavedModel)
  • Rapport TensorBoard avec analyse des courbes d’apprentissage

 

CNN & Vision par Ordinateur

Objectifs pédagogiques

  • Comprendre l’architecture des réseaux convolutifs (CNN)
  • Implémenter un CNN pour la classification d’images
  • Appliquer le transfer learning avec des modèles pré-entraînés (VGG, ResNet, EfficientNet)
  • Mettre en œuvre la data augmentation pour améliorer la généralisation

Contenu théorique

  • Convolution 2D : filtres, feature maps, stride, padding
  • Pooling : MaxPooling, AvgPooling — réduction spatiale
  • Architectures célèbres : LeNet, VGG, ResNet, EfficientNet
  • Transfer learning : feature extraction vs fine-tuning
  • Data augmentation : rotation, flip, zoom, CutMix, Mixup
  • Grad-CAM : visualiser ce que le réseau ‘regarde’

Travaux pratiques

  • TP 1 : CNN from scratch — classification CIFAR-10
  • TP 2 : Transfer learning avec EfficientNetB0 sur un dataset personnalisé
  • TP 3 : Visualisation Grad-CAM des zones d’activation du réseau

Livrables / Productions

  • Pipeline de classification d’images avec transfer learning
  • Visualisations Grad-CAM avec analyse des décisions du modèle

 

Traitement du Langage Naturel (NLP)

Objectifs pédagogiques

  • Maîtriser les étapes du prétraitement textuel (tokenisation, lemmatisation, stop words)
  • Comprendre les représentations vectorielles : TF-IDF, Word2Vec, embeddings
  • Implémenter une tâche de NLP classique (classification de sentiments)
  • Appréhender l’architecture Transformer et les modèles BERT/CamemBER

Contenu théorique

  • Pipeline NLP : tokenisation, normalisation, stemming, lemmatisation
  • Représentations textuelles : Bag of Words, TF-IDF, n-grams
  • Embeddings sémantiques : Word2Vec, GloVe, FastText
  • Réseaux récurrents (RNN, LSTM, GRU) — intuition et limites
  • Architecture Transformer : attention, self-attention, positional encoding
  • BERT, CamemBERT, GPT — pré-entraînement et fine-tuning
  • Introduction aux LLMs : prompt engineering, RAG (Retrieval Augmented Generation)

Travaux pratiques

  • TP 1 : Analyse de sentiments avec TF-IDF + Logistic Regression (dataset Amazon/IMDB)
  • TP 2 : Classification de texte avec Hugging Face Transformers (CamemBERT)
  • TP 3 : Exploration d’un LLM local via Ollamaprompting et extraction d’information

Livrables / Productions

  • Pipeline NLP de bout en bout avec comparaison TF-IDF vs Transformer
  • Démonstration d’un cas d’usage LLM avec Ollama

 

MLOps & Mise en Production

Objectifs pédagogiques

  • Comprendre les enjeux du MLOps et les différences avec le DevOps classique
  • Versionner des expériences ML avec MLflow (tracking, registry, artifacts)
  • Déployer un modèle en production via une API REST avec FastAPI
  • Monitorer un modèle en production (drift de données, dégradation des métriques)

Contenu théorique

  • MLOps : définition, niveaux de maturité (0 → 3), outils du marché
  • Versioning : DVC pour les données, MLflow pour les expériences
  • MLflow : Tracking Server, Model Registry, Artifacts, Projects
  • Packaging et déploiement : Docker, FastAPI, BentoML, Seldon
  • Monitoring : data drift (Evidently), model drift, alerting
  • Infrastructure ML : feature stores, pipelines Kubeflow/Vertex AI (aperçu)

Travaux pratiques

  • TP 1 : Tracking d’expériences ML avec MLflow — comparaison de runs
  • TP 2 : Déploiement d’un modèle scikit-learn via FastAPI + Docker
  • TP 3 : Rapport de monitoring avec Evidently — détection de data drift

Livrables / Productions

  • API REST de prédiction conteneurisée avec Docker
  • Dashboard MLflow de suivi d’expériences

 

Projet Intégrateur & Éthique de l’IA

Objectifs pédagogiques

  • Concevoir et implémenter un projet ML complet de A à Z en équipe
  • Présenter et justifier les choix algorithmiques devant un jury
  • Identifier et mitiger les biais dans un système IA
  • Appliquer les principes RGPD et IA Act aux systèmes d’apprentissage automatique

Contenu théorique

  • Récapitulatif : choisir le bon algorithme selon le problème et les données
  • Biais algorithmiques : types (biais de sélection, de confirmation, historique)
  • Fairness ML : métriques d’équité (demographic parity, equalized odds)
  • RGPD et IA : privacy by design, droit à l’explication, données d’entraînement
  • EU AI Act : catégories de risques, obligations pour les systèmes à haut risque
  • Panorama des carrières : Data Scientist, ML Engineer, MLOps Engineer

Travaux pratiques

  • Projet fil rouge (groupes de 2-3) : problème métier au choix parmi 3 sujets proposés
  • Livrables : notebook documenté + API + présentation de 10 min
  • Soutenance devant le formateur + co-évaluation entre groupes
  • Bilan personnel : auto-évaluation des compétences acquisesft

Livrables / Productions

  • Projet ML complet (notebook + API + documentation)
  • Présentation de soutenance (slides)
  • Grille d’auto-évaluation des compétences
  • Attestation de formation

 

Référence :
IA-11
Formation :
Fondamentaux de l’IA​ et du Machine Learning​
Lieu :
Durée :
10 jours (70 heures)
Dates :
Cette formation
sur-mesure

Ce cours est réalisable en intra-entreprise, dans vos locaux, dans nos salles ou à distance.

Conserver & partager e programme
Email
Imprimer

Cette formation vous intéresse ?

Découvrez les formations incontournables dans ce domaine disponibles en classe et à distance

Demande de devis

Formation :
Fondamentaux de l’IA​ et du Machine Learning​
Lieu :
Durée :
10 jours (70 heures)
Prix :

Laissez-nous un message et notre équipe commerciale vous répondra trés rapidement.
Vous pouvez également nous contacter par téléphone, du lundi au vendredi de 8h30 à 18h30.

1 Step 1
Vous êtes ?
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
FormCraft - Générateur de formulaires WordPress
1 Step 1
Vous êtes ?
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
FormCraft - Générateur de formulaires WordPress

S'inscrire et réserver vos dates

Dates :
Formation :
Fondamentaux de l’IA​ et du Machine Learning​
Lieu :
Durée :
10 jours (70 heures)
Prix :

Laissez-nous un message et notre équipe commerciale vous répondra trés rapidement.
Vous pouvez également nous contacter par téléphone, du lundi au vendredi de 8h30 à 18h30.

Comment financer votre formation chez AJC

Entreprises/Salariés secteur privé

Actions collectives

Certaine de nos formations font partie des Actions Collectives campusAtlas. Elles sont accessibles à toutes les salariés des entreprises adhérentes à l’OPCO Atlas

Entreprises/Salariés secteur privé

POE

La Préparation Opérationnelle à l’Emploi est le dispositif qu’il vous faut si vous ne trouvez pas assez de «talents» pour combler vos besoins de recrutement sur le marché du travail (particulièrement sur les métiers en tension et les métiers émergents).

Salariés/Demandeurs d’emploi

CPF

Tout salarié ou demandeur d’emploi bénéficie d’un Compte Personnel de Formation depuis 2015 qu’il peut mobiliser directement. Il représente un montant en euro.