Fondamentaux de l’IAet du Machine Learning

  • Formations
  • Fondamentaux de l’IA et du Machine Learning

Notions de programmation Python, culture mathématique de base.

  • Comprendre les paradigmes de l’IA, distinguer ML/DL/IA symbolique
  • Manipuler des datasets avec NumPy/Pandas, visualiser avec Matplotlib/Seaborn
  • Implémenter régression, classification, valider et optimiser des modèles
  • Appliquer clustering et réduction de dimension sur des données réelle s
  • Construire et entraîner des réseaux de neurones avec Keras/TensorFlow
  • Utiliser les CNN et le transfer learning pour la classification d’images
  • Comprendre embeddings, transformers ; expérimenter avec des LLMs
  • Versionner des expériences ML, déployer un modèle via API REST
  • Identifier les biais, appliquer les principes RGPD aux systèmes IA

À la suite de votre inscription, un mail vous sera adressé au plus tard 1 semaine avant la formation pour vous indiquer comment vous connecter.

À l’issue de la formation, le formateur évaluera chacun des participants en fonction des cas pratiques et exercices effectués.

Alternance d’exercices, cas pratiques, QCM et de notions théoriques, projet Fil Rouge avec une répartition du temps de travail : 40% théorie, 60% pratique. Des présentations théoriques des concepts clés illustrés par des démonstrations du formateur (Ex : code live…) seront suivies de mises en pratique des apprenants.

Évaluations régulières et retour du formateur sur les points moins bien assimilés. ; les apprenants réaliseront tout au long de la formation des exercices, QCM, mises en situation, TP, TD qui seront corrigés pour faciliter l’acquisition de compétences.

En classe virtuelle, accès à notre plateforme à distance, à des machines virtuelles en local ou dans le cloud contenant les logiciels utiles et les supports de cours en français seront mis à disposition via notre la plate-forme de téléchargement AJC Classroom.

Accès à notre plateforme à distance de Classe Virtuelle : mêmes possibilités et interactions avec votre formateur que lors d’une formation présentielle: votre formation se déroulera en connexion continue 7h/7 :
– Échanges directs avec le formateur et l’équipe pédagogique à travers la visioconférence, les forums et chats ;
– Vérification de l’avancement de votre travail et évaluation par votre formateur à l’aide d’exercices et de cas pratiques ;
– Suivi pédagogique et conseils personnalisés pendant toute la formation.

Vous recevrez les informations de connexion par mail dès votre inscription. En cas de problème de connexion, vous pourrez joindre notre équipe à tout moment (avant ou même pendant la formation) au 01 82 83 72 41 ou par mail (hotline@ajc-formation.fr).

En présentiel, mise à disposition d’ordinateurs portables (16Go RAM, SDD); nos salles sont équipées de matériels pédagogiques (Tableau blanc, vidéo projecteur, tableau tactile…) et informatiques.

Les personnes en situation de handicap sont invitées à nous communiquer leurs besoins spécifiques. Nous ferons tout pour les mettre dans les meilleures conditions de suivi de la formation possibles (compensation, accessibilité…).

Une attestation de fin de stage sera remise à tous les participants à l’issue de leur parcours.

Développeurs, ingénieurs, data analysts, chefs de projet technique.

Introduction à l’Intelligence Artificielle

  • Histoire et évolutions de l’IA : de Turing aux LLMs
  • Taxonomie : IA symbolique, ML, Deep Learning, IA générative
  • Panorama des cas d’usage industriels (santé, finance, industrie, NLP)
  • Cycle de vie d’un projet ML (CRISP-DM, MLOps)
  • Éthique, biais algorithmiques et IA responsable — introduction

Travaux pratiques :

  • Exploration de démos IA (Hugging Face Spaces, Google Teachable Machine)
  • Cartographie mentale collaborative des applications IA par secteur
  • Discussion guidée : enjeux éthiques d’un système de recommandation

 

Python pour la Data Science

  • Environnement de travail : Jupyter Lab, conda, pip, venv
  • NumPy : arrays N-dimensionnels, opérations vectorisées, algèbre linéaire de base
  • Pandas : Series, DataFrame, lecture CSV/JSON, gestion des valeurs manquantes
  • Visualisation : histogrammes, boxplots, heatmaps de corrélation, pairplot
  • Bonnes pratiques : documentation, reproductibilité, gestion des seeds

Travaux pratiques :

  • Analyse exploratoire d’un dataset réel (Titanic ou Iris) avec Pandas
  • Visualisation complète d’un dataset e-commerce (chiffre d’affaires, tendances)
  • Pipeline de nettoyage et d’encodage (OneHotEncoder, StandardScaler)

 

Machine Learning Supervisé — Fondamentaux

  • Apprentissage supervisé : hypothèse, fonction de perte, optimisation (gradient)
  • Régression linéaire simple et multiple : OLS, coefficients, R²
  • Régression logistique : sigmoid, entropie croisée, seuil de décision
  • Arbres de décision : critères de split (Gini, entropie), profondeur, pruning
  • Métriques de classification : accuracy, precision, recall, F1, AUC-ROC
  • Biais/variance, underfitting/overfitting, train/val/test split

Travaux pratiques :

  • Régression linéaire — prédiction de prix immobiliers (Boston Housing)
  • Classification binaire — détection de spam avec régression logistique
  • Évaluation complète avec cross-validation et learning curves

 

Machine Learning Supervisé — Algorithmes Avancés

  • Support Vector Machines : hyperplan optimal, kernel trick (RBF, polynomial)
  • Bagging et Random Forest : agrégation de décisions, feature importance
  • Gradient Boosting : XGBoost, LightGBM, CatBoost — comparaison et usage
  • Hyperparameter tuning : Grid Search, Random Search, Optuna
  • Interprétabilité : SHAP values, LIME, feature importance plots
  • Pipelines scikit-learn : ColumnTransformer, Pipeline, make_pipeline

Travaux pratiques :

  • Comparaison de modèles — SVM vs RF vs XGBoost sur un dataset métier
  • Optimisation d’hyperparamètres avec Optuna ou GridSearch
  • Analyse SHAP — expliquer les prédictions d’un modèle XGBoost

 

Machine Learning Non Supervisé

  • Apprentissage non supervisé : enjeux, absence de labels, évaluation
  • K-Means : algorithme de Lloyd, choix de k (elbow, silhouette score)
  • DBSCAN : notion de densité, points de bruit, cas d’usage détection d’anomalies
  • Clustering hiérarchique agglomératif : dendrogramme, linkage
  • PCA : valeurs propres, variance expliquée, composantes principales
  • t-SNE et UMAP pour la visualisation de données haute dimensionnelle

Travaux pratiques :

  • Segmentation client (RFM) avec K-Means sur données e-commerce
  • Détection d’anomalies réseau avec DBSCAN et Isolation Forest
  • Réduction dimensionnelle PCA + visualisation t-SNE sur MNIST

 

Introduction au Deep Learning

  • Du neurone biologique au perceptron : histoire et formalisme
  • Architecture MLP : couches denses, fonctions d’activation (ReLU, sigmoid, softmax)
  • Backpropagation : calcul du gradient, règle de la chaîne
  • Optimiseurs : SGD, Adam, RMSProp — comparaison et choix
  • Régularisation : L1/L2, dropout, early stopping, batch normalization
  • TensorFlow/Keras : Sequential API vs Functional API, callbacks

Travaux pratiques :

  • Réseau dense pour classification MNIST (chiffres manuscrits)
  • Régression profonde — prédiction d’énergie (dataset UCI)
  • Visualisation TensorBoard — courbes d’apprentissage, poidsT

 

CNN & Vision par Ordinateur

  • Convolution 2D : filtres, feature maps, stride, padding
  • Pooling : MaxPooling, AvgPooling — réduction spatiale
  • Architectures célèbres : LeNet, VGG, ResNet, EfficientNet
  • Transfer learning : feature extraction vs fine-tuning
  • Data augmentation : rotation, flip, zoom, CutMix, Mixup
  • Grad-CAM : visualiser ce que le réseau ‘regarde’

Travaux pratiques :

  • CNN from scratch — classification CIFAR-10
  • Transfer learning avec EfficientNetB0 sur un dataset personnalisé
  • Visualisation Grad-CAM des zones d’activation du réseau

Traitement du Langage Naturel (NLP)

  • Pipeline NLP : tokenisation, normalisation, stemming, lemmatisation
  • Représentations textuelles : Bag of Words, TF-IDF, n-grams
  • Embeddings sémantiques : Word2Vec, GloVe, FastText
  • Réseaux récurrents (RNN, LSTM, GRU) — intuition et limites
  • Architecture Transformer : attention, self-attention, positional encoding
  • BERT, CamemBERT, GPT — pré-entraînement et fine-tuning
  • Introduction aux LLMs : prompt engineering, RAG (Retrieval Augmented Generation)

Travaux pratiques :

  • Analyse de sentiments avec TF-IDF + Logistic Regression (dataset Amazon/IMDB)
  • Classification de texte avec Hugging Face Transformers (CamemBERT)
  • Exploration d’un LLM local via Ollama — prompting et extraction d’information

 

MLOps & Mise en Production

  • MLOps : définition, niveaux de maturité (0 → 3), outils du marché
  • Versioning : DVC pour les données, MLflow pour les expériences
  • MLflow : Tracking Server, Model Registry, Artifacts, Projects
  • Packaging et déploiement : Docker, FastAPI, BentoML, Seldon
  • Monitoring : data drift (Evidently), model drift, alerting
  • Infrastructure ML : feature stores, pipelines Kubeflow/Vertex AI (aperçu)

Travaux pratiques :

  • Tracking d’expériences ML avec MLflow — comparaison de runs
  • Déploiement d’un modèle scikit-learn via FastAPI + Docker
  • Rapport de monitoring avec Evidently — détection de data drift

 

Projet Intégrateur & Éthique de l’IA

  • Récapitulatif : choisir le bon algorithme selon le problème et les données
  • Biais algorithmiques : types (biais de sélection, de confirmation, historique)
  • Fairness ML : métriques d’équité (demographic parity, equalized odds)
  • RGPD et IA : privacy by design, droit à l’explication, données d’entraînement
  • EU AI Act : catégories de risques, obligations pour les systèmes à haut risque
  • Panorama des carrières : Data Scientist, ML Engineer, MLOps Engineer

Travaux pratiques :

  • Projet fil rouge (groupes de 2-3) : problème métier au choix parmi 3 sujets proposés
  • Livrables : notebook documenté + API + présentation de 10 min
  • Soutenance devant le formateur + co-évaluation entre groupes
  • Bilan personnel : auto-évaluation des compétences acquises

 

 

Référence :
IA-12
Formation :
Fondamentaux de l’IAet du Machine Learning
Lieu :

Classe à distance

Durée :
10 jours (70 heures)
Dates :
Cette formation
sur-mesure

Ce cours est réalisable en intra-entreprise, dans vos locaux, dans nos salles ou à distance.

Conserver & partager e programme
Email
Imprimer

Cette formation vous intéresse ?

Découvrez les formations incontournables dans ce domaine disponibles en classe et à distance

Demande de devis

Formation :
Fondamentaux de l’IAet du Machine Learning
Lieu :

Classe à distance

Durée :
10 jours (70 heures)
Prix :

Laissez-nous un message et notre équipe commerciale vous répondra trés rapidement.
Vous pouvez également nous contacter par téléphone, du lundi au vendredi de 8h30 à 18h30.

1 Step 1
Vous êtes ?
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
FormCraft - Générateur de formulaires WordPress
1 Step 1
Vous êtes ?
keyboard_arrow_leftPrevious
Nextkeyboard_arrow_right
FormCraft - Générateur de formulaires WordPress

S'inscrire et réserver vos dates

Dates :
Formation :
Fondamentaux de l’IAet du Machine Learning
Lieu :

Classe à distance

Durée :
10 jours (70 heures)
Prix :

Laissez-nous un message et notre équipe commerciale vous répondra trés rapidement.
Vous pouvez également nous contacter par téléphone, du lundi au vendredi de 8h30 à 18h30.

Comment financer votre formation chez AJC

Entreprises/Salariés secteur privé

Actions collectives

Certaine de nos formations font partie des Actions Collectives campusAtlas. Elles sont accessibles à toutes les salariés des entreprises adhérentes à l’OPCO Atlas

Entreprises/Salariés secteur privé

POE

La Préparation Opérationnelle à l’Emploi est le dispositif qu’il vous faut si vous ne trouvez pas assez de «talents» pour combler vos besoins de recrutement sur le marché du travail (particulièrement sur les métiers en tension et les métiers émergents).

Salariés/Demandeurs d’emploi

CPF

Tout salarié ou demandeur d’emploi bénéficie d’un Compte Personnel de Formation depuis 2015 qu’il peut mobiliser directement. Il représente un montant en euro.