Passer commande via notre portail client

Partager cet article ...Print this pageEmail this to someoneTweet about this on TwitterShare on FacebookShare on Google+Share on LinkedInPin on PinterestShare on TumblrDigg this
Talend Open Studio for Big Data, exploiter vos données massives
TAD / LI-REQ-194
OBJECTIFS PEDAGOGIQUES
La plateforme d’intégration de données de Talend étend ses possibilités aux technologies Big Data que sont Hadoop (HDFS, HBase, HCatalog, Hive et Pig) et les bases NoSQL Cassandra et MongoDB. Ce stage vous apportera les bases pour bien utiliser les composants Talend crées pour communiquer avec les systèmes Big Data.

PUBLIC
Gestionnaires de données, architectes, consultants en informatique décisionnelle.
PRE-REQUIS
Expérience dans l’utilisation de l’outil Talend Open Studio For Data Integration ou compétences acquises durant la formation TOT.

CONTENU

Présentation de Talend Open Studio for Big Data
- Problématique du Big Data : le modèle de 4V, les cas d’usage.
- L’écosystème Hadoop (HDFS, MapReduce, HBase, Hive, Pig…).
- Données non structurées et base de données NoSQL.
- TOS for Big Data versus TOS for Data Integration.

Mise en œuvre de HDFS, HBase et HCatalog
- Définition des métadonnées de connexion du cluster Hadoop.
- Gestion des ressources HDFS : les principaux composants Talend.
- Connexion à HBase, création, lecture/écriture dans une table HBase.
- Configuration HBase, mode local versus mode distribué.
- Création de bases de données, tables et de partitions via HCatalog.
- Lecture de tweets (composants d’extension).

Effectuer des traitements à l’aide de Pig
- Le langage de script Pig Latin, Pig versus SQL.
- Principaux composants Pig de Talend, conception de flux Pig.
- Exécution de scripts Pig (tPigCode).
- Configuration des propriétés associées à l’usage de MapReduce.
- Développement de routines UDF.

Exploiter Hive
- Métadonnées de connexion et de schéma Hive.
- Le langage HiveQL.
- Conception de flux Hive, exécution de requêtes.
- Mettre en œuvre les composants ELT de Hive.

Autres aspects couverts par Talend for Big Data
- Utiliser Scoop pour importer, exporter, mettre à jour des données entre systèmes RDBMS et HDFS.
- Support Talend des bases de données NoSQL (MongoDB et Cassandra).
- Conception de jobs MapReduce et Spark Streaming.
- Configuration avancée des composants du cluster (zookeeper, resource manager, job history…).

SESSIONS PROGRAMMEES

 

Accès au calendrier

VALIDATION

Evaluation en fin de session

PEDAGOGIE
Alternance d’exposés et de travaux pratiques
INTERVENANTS
Spécialiste Talend

MODALITES PRATIQUES
Durée : 2 jours soit 14 heures avec 7 heures par jour
Prix stagiaire : 1 457,00 € TTC
Horaires : 9h – 17h30

Durée: