Avis loadedNote : 3,5Length : 2TotalNote : 70TotalNote20 : 1
Formation Hadoop, développer des applications pour le Big Data
Durée : 4 jours
Réf : APH
Prix 2021 :
2710 €
H.T.
Pauses et déjeuners offerts
-
Programme
-
Participants / Prérequis
-
Intra / sur-mesure
Programme
Ce stage vous apprendra à développer des applications vous permettant de traiter des données distribuées en mode batch. Vous collecterez, stockerez et traiterez des données de formats hétérogènes avec Apache Hadoop afin de mettre en place des chaînes de traitement intégrées à votre Système d'Information.
Objectifs pédagogiques
- Construire un programme à base de Map Reduce
- Intégrer Hadoop HBase dans un workflow d'entreprise
- Travailler avec Apache Hive et Pig depuis HDFS
- Utiliser un graphe de tâches avec Hadoop
Travaux pratiques
Développement d'applications pour le Big Data.
Méthodes pédagogiques
Cours 30%, travaux pratiques 70%.
PROGRAMME
DE FORMATION
Le Big Data
- Définition du périmètre du Big Data.
- Le rôle du projet Hadoop.
- Les concepts de base des projets Big Data.
- Présentation du Cloud Computing.
- Différence entre Cloud Computing privé et public.
- Les architectures Big Data à base du projet Hadoop.
Démonstration
Usage d'Hadoop et de GoogleApp.
Collecte de données et application de Map Reduce
- Analyse des flux de données dans l'entreprise.
- Données structurées et non-structurées.
- Les principes de l'analyse sémantique des données d'entreprise.
- Graphe des tâches à base de MapReduce.
- La granularité de cohérence des données.
- Transfert de données depuis un système de persistance dans Hadoop.
- Transfert de données d'un Cloud dans Hadoop.
Travaux pratiques
Gérer la collecte d'informations clientèles par Map Reduce. Configuration de l'implémentation YARN. Développement d'une tâche basée sur Map Reduce.
Le stockage des données avec HBase
- Plusieurs types de base de données XML.
- Patterns d'usages et application au Cloud.
- Application de Hadoop database au sein d'un workflow.
- Utilisation des projets Hive/Pig.
- Utilisation du projet HCatalog.
- L'API Java HBase.
Travaux pratiques
Gérer les modifications d'un catalogue de données fournisseur.
Le stockage des données sur HDFS
- Patterns d'usages et application au Cloud.
- Architecture et installation d'un système HDFS, journal, NameNode, DataNode.
- Opérations, commandes et gestion des commandes.
- L'API HDFS Java.
- Analyse de données avec Apache Pig.
- Le langage Pig Latin. Utiliser Apache Pig avec Java.
- Requêtage avec Apache Hive.
- Réplication de données. Partage de données sur une architecture HDFS.
Travaux pratiques
Administrer un référentiel client partagé sur Hadoop. Utilisation de la console de visualisation.
Spring Data Hadoop
- Introduction à Spring et Spring Data.
- Le namespace Hadoop pour Spring.
- Utiliser Spring pour simplifier la configuration Hadoop.
- Configuration du cache distribué.
- Définition des Jobs et dépendance entre Jobs.
- Intégration des outils (Pig, Hive...).
Travaux pratiques
Refondre la gestion du catalogue de données fournisseur via Spring Data.
Participants / Prérequis
» Participants
Concepteurs, développeurs.
» Prérequis
Bonne expérience en développement Java. Des connaissances en architecture Web constituent un plus.
Intra / sur-mesure
CLASSE A DISTANCE
En inter et en intra-entreprise
Inscrivez-vous ou
contactez-nous !
Pour vous inscrire
Cliquez sur la ville, puis sur la date de votre choix.
Horaires
Les cours ont lieu de 9h à 12h30 et de 14h à 17h30.
Les participants sont accueillis à partir de 8h45.
Pour les stages pratiques de 4 ou 5 jours, les sessions se terminent à 15h30 le dernier jour.