Passer commande via notre portail client

Partager cet article ...Print this pageEmail this to someoneTweet about this on TwitterShare on FacebookShare on Google+Share on LinkedInPin on PinterestShare on TumblrDigg this
Hadoop, développer des applications pour le Big Data
APH / LI-REQ-255
OBJECTIFS PEDAGOGIQUES

 

À la fin du cours, le stagiaire sera capable de :

  • Construire un programme à base de Map Reduce
  • Intégrer Hadoop HBase dans un workflow d’entreprise
  • Travailler avec Apache Hive et Pig depuis HDFS
  • Utiliser un graphe de tâches avec Hadoop
PUBLIC

 

Concepteurs, développeurs.

PRE-REQUIS

 

Bonne expérience en développement Java.
Des connaissances en architecture Web constituent un plus.

CONTENU

Le Big Data

- Définition du périmètre du Big Data.
- Le rôle du projet Hadoop.
- Les concepts de base des projets Big Data.
- Présentation du Cloud Computing
- Différence entre Cloud Computing privé et public.
- Les architectures Big Data à base du projet Hadoop.

Démonstration
Usage d’Hadoop et de GoogleApp.

Collecte de données et application de Map Reduce

- Analyse des flux de données dans l’entreprise.
- Données structurées et non-structurées.
- Les principes de l’analyse sémantique des données d’entreprise.
- Graphe des tâches à base de MapReduce.
- La granularité de cohérence des données.
- Transfert de données depuis un système de persistance dans Hadoop.
- Transfert de données d’un Cloud dans Hadoop.

Travaux pratiques
Gérer la collecte d’informations clientèles par Map Reduce. Configuration de l’implémentation YARN. Développement d’une tâche basée sur Map Reduce.

Le stockage des données avec HBase

- Plusieurs types de base de données XML.
- Patterns d’usages et application au cloud.
- Application de Hadoop database au sein d’un workflow.
- Utilisation des projets Hive/Pig.
- Utilisation du projet HCatalog.
- L’API Java HBase.

Travaux pratiques
Gérer les modifications d’un catalogue de données fournisseur.

Le stockage des données sur HDFS

- Patterns d’usages et application au Cloud.
- Architecture et installation d’un système HDFS, journal, NameNode, DataNode.
- Opérations, commandes et gestion des commandes.
- L’API HDFS Java.
- Analyse de données avec Apache Pig.
- Le langage Pig Latin. Utiliser Apache Pig avec Java.
- Requêtage avec Apache Hive.
- Réplication de données. Partage de données sur une architecture HDFS.

Travaux pratiques
Administrer un référentiel client partagé sur Hadoop. Utilisation de la console de visualisation.

Spring Data Hadoop

- Introduction à Spring et Spring Data.
- Le namespace Hadoop pour Spring.
- Utiliser Spring pour simplifier la configuration Hadoop.
- Configuration du cache distribué.
- Définition des Jobs et dépendance entre Jobs.
- Intégration des outils (Pig, Hive…).

Travaux pratiques
Refondre la gestion du catalogue de données fournisseur via Spring Data.

SESSIONS PROGRAMMEES

 

Accès au calendrier

VALIDATION
Alternance d’exposés et de travaux pratiques

PEDAGOGIE

 

Alternance d’exposés et de travaux pratiques

INTERVENANTS

 

Spécialiste Big Data

MODALITES PRATIQUES

Durée : 4 jours soit 28 heures avec 7 heures par jour
Prix stagiaire : 2 271,00 € TTC
Horaires : 9h – 17h30

Durée: