En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d’intérêts.
Pour en savoir plus et paramétrer les cookies, suivez ce lien
Développeur de compétences
  •  
  •  
  •  

Hadoop - Cloudera pour architectes et administrateurs


  • Objectifs
  • Profils
  • Pré-requis
  • Moyens pédagogiques
  • Certificat / Attestation
  • Acquérir les meilleurs pratiques pour l'administration d'Apache Hadoop 2.0
  • Savoir définir la taille d'un cluster et comment le déployer
  • Apprendre à installer et configurer Hadoop Cloudera
  • Comprendre comment gérer en permanence et maintenir des noeuds dans le cluster
  • Être capable d'optimiser la performance d'un cluster
  • Savoir déplacer et gérer les données dans le cluster ou encore ajouter et enlever des noeuds de données
  • Être en mesure de surveiller les statuts et l'état de santé du cluster dans un outil de monitoring
  • Comprendre comment mettre en place une haute solution de disponibilité
  • Connaître les meilleures pratiques pour déployer un cluster Hadoop Cloudera
Trouvez votre prochaine formation

Programme

  • 3 Jours, 21h
  • 2495 HT *
    Introduction
    • Présentation générale d’Hadoop
    • Exemples d’utilisation dans différents secteurs
    • Historique et chiffres clés : Quand parle-t-on de Big Data ?
    • Les possibilités d’implantation de l’infrastructure et les coûts associés

    L'écosystème d'Hadoop
    • Le système de fichier HDFS
    • Le paradigme MapReduce et l’utilisation à travers YARN
    • Le garant des informations : Zookeeper
    • Le système de stockage de la donnée basé sur le socle : HBase
    • La présentation de l’architecture globale : où installer les services ?
    • La définition du dimensionnement pour un cluster Hadoop
    • Les particularités de MapR

    Installation du socle d'Hadoop

    Installation et configuration manuelle pas-à-pas sur plusieurs machines de : HDFS, YARN, Zookeeper, HBase


    Manipulation des données dans un cluster Hadoop
    • Architecture, Objectif et fonctionnement de : Hue, Hive, Pig, Oozie, Sqoop, Flume, Spark
    • Mise en pratique sur les différents outils

    Exploitation d'architecture complexe
    • Architecture en rack : les avantages et fonctionnement et paramétrage du rack awareness
    • Scalabilité et performances : le Namenode Federation
    • High Availability des serveurs maitres
    • Utilisation des snapshots : sauvegarde et restauration

* La durée et le prix de la formation sont donnés à titre indicatif pour une inscription en inter-entreprises. Toute demande intra-entreprise fait systématiquement l’objet d’un devis sur-mesure devant être approuvé pour acceptation.