Business Intelligence > Datawarehouse, intégration de données, autres solutions
Systèmes décisionnels,
Data Mining par la pratiqueDMP / LI-SEC-086 |
||
OBJECTIFS PEDAGOGIQUES Ce stage vous permettra de travailler à définir et mettre en œuvre un projet d’analyse statistique. Il vous apporte les notions de l’architecture technique nécessaires à l’analyse statistique des données (en environnement classique ou Big Data) et aux techniques statistiques d’analyse profonde des données.
CONTENU Le projet de Data Mining Les techniques de l’approche Data Mining Les outils statistiques La visualisation des données Analyse de données qualitatives et textuelles |
||
SESSIONS PROGRAMMEES Accès au calendrier VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Spark, développer des applications pour le Big DataSPK / LI-REQ-232 |
||
OBJECTIFS PEDAGOGIQUES Vous développerez des applications en Java en vue de traiter en temps réel des données issues du Big Data. Vous collecterez, stockerez et traiterez avec Spark des données de formats hétérogènes afin de mettre en place des chaînes de traitement intégrées à votre système d’information.
CONTENU Présentation d’Apache Spark Travaux pratiques Programmer avec les Resilient Distributed Dataset (RDD) Travaux pratiques Manipuler des données structurées avec Spark SQL Travaux pratiques Spark sur un cluster Travaux pratiques Analyser en temps réel avec Spark Streaming Travaux pratiques Manipuler des graphes avec GraphX Travaux pratiques |
||
SESSIONS PROGRAMMEES
Accès au calendrier Evaluation en fin de session
MODALITES PRATIQUES |
Développer des applications de DataVisualisation, outils et frameworksDTV / LI-REQ-199 |
||
OBJECTIFS PEDAGOGIQUES Après avoir découvert les concepts de base et les techniques liés à la représentation visuelle des données, vous apprendrez à développer des applications de visualisation de données basées sur les principaux outils et Frameworks JavaScript de DataVisualisation.
CONTENU Introduction à la visualisation d’information Sémiologie graphique : la base de la visualisation Transitions animées et légendes interactives Outils pour la visualisation d’informations Visualisation de réseaux Visualisation de diagrammes Visualisation de l’OpenData et Cartographie |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Data Clustering, organiser les données du Big DataDAU / LI-REQ-195 |
||
OBJECTIFS PEDAGOGIQUES Le clustering de données vise à regrouper, au sein de “données massives”, des données similaires afin d’identifier des connaissances pertinentes et permettre une prise de décision adaptée. Ce cours vous permettra de comprendre les fondamentaux du clustering de données et de les mettre en pratique sur des cas concrets.
CONTENU Introduction au clustering de données Clustering simple et clustering hiérarchique Techniques de clustering Outils pratiques et algorithmes pour le clustering de données Mesures Qualité et Performance Clustering de données à partir d’un réseau lexical Clustering de documents |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Big Data, méthodes et solutions pratiques pour l’analyse des donnéesBID / LI-REQ-189 |
||
OBJECTIFS PEDAGOGIQUES Ce stage vous permettra de comprendre les enjeux et les apports du Big Data ainsi que les technologies pour le mettre en œuvre. Vous apprendrez à intégrer des volumétries massives de données structurées et non structurées via un ETL, puis à les analyser grâce à des modèles statistiques et des dashboards dynamiques.
CONTENU Comprendre les concepts et les enjeux du Big Data Les technologies du Big Data Gérer les données structurées et non structurées Technique et méthodes Big data analytics Data visualisation et cas d’usage concrets Conclusion |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Big Data Foundation, certificationBDT / LI-REQ-188 |
||
OBJECTIFS PEDAGOGIQUES L’explosion quantitative des données numériques a contraint à trouver de nouvelles façons d’analyser le monde, et cela a abouti à l’émergence du Big Data. Cette formation apportera aux participants les bases du Big Data et du Data Mining et les préparera au passage de la certification Big Data Foundation de l’EXIN.
CONTENU Les fondamentaux du Big Data Mise en pratique des approches Big Data, synthèse Les sources du Big Data Les données et l’information Data Mining Outil : Hadoop Outil : MongoDB Examen “Big Data Foundation” de l’EXIN |
||
SESSIONS PROGRAMMEES
VALIDATION
MODALITES PRATIQUES |
Statistiques descriptives, introductionUES / LI-REQ-187 |
||
OBJECTIFS PEDAGOGIQUES La “statistique” est une discipline qui collecte, classe, résume, interprète et explique les données. La complexité et le volume de données à traiter augmentant, la maîtrise de ces techniques est donc essentielle pour aborder la “Data Science”. Ce stage très pratique vous apportera les bases nécessaires pour l’aborder.
CONTENU Définition Formalisation mathématiques Traitement statistique des données à une dimension Variables aléatoires Statistique descriptive à deux dimensions : les tableaux de contigence Cas pratique : utilisation des données des participants |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Modélisation statistiqueSTA / LI-REQ-093 |
|
OBJECTIFS PEDAGOGIQUES |
|
Ce stage présente l’essentiel des modèles statistiques. Il vous permettra de comprendre leur rôle dans le monde de l’analyse décisionnelle, du Big Data et du Data Mining, ainsi que les mécanismes qui permettent de transformer et d’affiner des données pour en tirer des informations métiers utiles. | |
PUBLIC |
PRE-REQUIS |
Responsables Infocentre, responsables marketing, responsables Qualité, utilisateurs et gestionnaires métiers de bases de données. | Connaissances de base en mathématiques équivalent à un niveau 3 de formation initiale. |
CONTENU |
|
Rappels des fondamentaux de la statistique descriptive- Définition de la statistique descriptive. - Analyse d’une population. - Méthodes d’échantillonnage. - Variables qualitatives et quantitatives. - Effectifs et calcul des fréquences. - Effectifs cumulés croissants et décroissants. - Séries statistiques. - Représentation graphique des variables qualitatives et quantitatives.Etude de cas Etude d’une population et dimensionnement d’un échantillon. Démarche et modélisation d’une analyse statistique Etude de cas Analyses prédictives Exercice Tests et intervalle de confiance Etude de cas Panorama des outils Travaux pratiques |
|
SESSIONS PROGRAMMEES |
|
VALIDATIONEvaluation de fin de stage |
|
PEDAGOGIEAlternance d’exposés et de travaux pratiques |
INTERVENANTSSpécialiste analyse statistique |
MODALITES PRATIQUESDurée : 2 jours soit 14 heures avec 7 heures par jour |
Construire un Data Warehouse, qualité des données et performance du SI décisionnelDAW / LI-REQ-092 |
||
OBJECTIFS PEDAGOGIQUES Le Data Warehouse est au cœur de l’analyse décisionnelle. Au travers d’une démarche structurée et pragmatique, vous découvrirez les meilleures méthodes et outils pour élaborer un entrepôt de données à partir des besoins métier, l’alimenter et le rendre fiable et évolutif. Vous découvrirez également quels sont les rôles clés dans ce type de projet, et quel est l’impact sur l’architecture SI et la qualité du référentiel de données d’entreprise. Un cours centré sur l’expérience pratique qui vous donnera aussi une première approche de la modélisation “en étoile”.
CONTENU Le Data Warehouse, finalité et principes L’architecture d’un SI décisionnel d’entreprise Les principes de la modélisation Data Warehouse La démarche de construction d’un Data Warehouse Organisation du projet, les acteurs et les livrables Les outils dans le domaine du décisionnel Synthèse |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
La modélisation en étoile, conception et mise en œuvreAMT / LI-MOA-040 |
||
OBJECTIFS PEDAGOGIQUES Ce cours, construit autour de nombreux cas pratiques, vous donnera une idée précise de la démarche de modélisation en étoile dans le cadre du projet Data Warehouse. Vous verrez pourquoi elle est l’expression même du besoin de la maîtrise d’ouvrage et comment elle permet de faire converger la vision des opérationnels, des analystes et des pilotes sur les activités de l’entreprise.
CONTENU Introduction et rappels Les architectures en réponse aux besoins décisionnels Principes et définitions de base sur la modélisation en étoile Conception du modèle en étoile Optimisation fonctionnelle du modèle en étoile Replacer la modélisation dans le cadre du projet décisionnel Optimisation physique du modèle Alimentation du modèle en étoile Restitution des informations d’un modèle en étoile Conclusion |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Pentaho Data Integration – Développeur
|
||
OBJECTIFS PEDAGOGIQUES |
||
A la fin du cours, le stagiaire sera capable de : - Maîtriser l’outil Pentaho Data Integration. |
||
PUBLIC |
PRE–REQUIS |
|
Tout informaticien amené à gérer des flux de données inter-application ou à alimenter un entrepôt de données. | Indispensables : - Connaissance du SQL. |
|
CONTENU |
||
Introduction Problématique EAI / ETL Architecture Installation Découverte de l’environnement
Les premiers Flux
Traiter les données
Les métadonnées
Travailler avec les bases de données
Autres composants et fonctionnalités
Les itérations
Gestion des logs et des erreurs
Fonctionnalités avancées
Automatisation et documentation |
||
SESSIONS PROGRAMMEES |
||
VALIDATIONExercices de validation au cours de la formation |
||
PEDAGOGIEExposés – Cas pratiques – Synthèse |
INTERVENANTSConsultant-formateur dont les compétences techniques, professionnelles et pédagogiques ont été validées par des diplômes et/ou testées et approuvées par l’éditeur et/ou par M2i Formation. |
|
MODALITES PRATIQUESDurée : 3 jours (21 heures) avec 7 heures par jour |
||
Talend
Talend Open Studio for Big Data, exploiter vos données massivesTAD / LI-REQ-194 |
||
OBJECTIFS PEDAGOGIQUES La plateforme d’intégration de données de Talend étend ses possibilités aux technologies Big Data que sont Hadoop (HDFS, HBase, HCatalog, Hive et Pig) et les bases NoSQL Cassandra et MongoDB. Ce stage vous apportera les bases pour bien utiliser les composants Talend crées pour communiquer avec les systèmes Big Data.
CONTENU Présentation de Talend Open Studio for Big Data Mise en œuvre de HDFS, HBase et HCatalog Effectuer des traitements à l’aide de Pig Exploiter Hive Autres aspects couverts par Talend for Big Data |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Talend Open Studio, optimiser vos flux de données – développement avancéTAO / LI-REQ-171 |
||
OBJECTIFS PEDAGOGIQUES L’ETL Talend permet d’ajouter simplement de nouvelles fonctions et composants afin de réaliser des processus complexes. Ce stage vous permettra de prendre en main les fonctionnalités avancées de Talend Open Studio, afin d’aboutir à une mise en place optimisée et fiable des flux de données.
CONTENU Introduction Utilisation avancée de Talend Exercice Java et création de composants Exercice Optimisation des performances et debugging Exercice Déploiement en production Exercice Pour aller plus loin Exercice Conclusion |
||
SESSIONS PROGRAMMEES
Accès au calendrier Evaluation de fin de session
MODALITES PRATIQUES |
Talend Open Studio, mise en œuvre de l’intégration de donnéesTOT / LI-REQ-157 |
|
OBJECTIFS PEDAGOGIQUES |
|
Talend Open Studio (TOS) est une application libre de type ETL permettant d’effectuer des synchronisations massives d’informations d’une base de données vers une autre. Ce stage vous apprendra à concevoir, modéliser et développer des “jobs” TOS afin de faire face aux différentes problématiques. | |
PUBLIC |
PRE-REQUIS |
Développeurs, chefs de projet, consultants en informatique décisionnelle, administrateurs de base de données. | Bonne connaissance des SGBDR et du SQL. La connaissance du langage Java est un plus. |
CONTENU |
|
Présentation
- L’intégration de données. Les solutions ETL. Travaux pratiques Modéliser le besoin, concevoir un premier job - Business Modeler. Job Designer. Exercice Optimiser le développement des jobs - Configurer des connexions réutilisables à l’aide des métadonnées. Exercice Travailler avec des bases de données - Bases de données supportées et leurs principaux composants. Exercice Travailler sur des données multisources Exercice Compléments - Décomposer un job en sous-jobs, utilisation du tRunJob. Lancer les jobs en ligne de commande. Exécution périodique. Exercice |
|
SESSIONS PROGRAMMEES |
|
VALIDATIONEvaluation de fin de stage |
|
PEDAGOGIEAlternance d’exposés et de travaux pratiques |
INTERVENANTSSpécialiste talend |
MODALITES PRATIQUESDurée : 3 jours soit 21 heures avec 7 heures par jour |
TALEND – Maîtrise
|
||
OBJECTIFS PEDAGOGIQUES |
||
A la fin du cours, le stagiaire sera capable de : - Mettre en place et paramétrer un environnement de développement stable sur la base de la version gratuite de Talend - Modéliser ses besoins - Maîtriser la bibliothèque de composants - Implémenter, déboguer et déployer ses jobs. |
||
PUBLIC |
PRE–REQUIS |
|
Tout informaticien amené à gérer des flux de données inter-application ou à alimenter un entrepôt de données. | Indispensables : - Connaissance du SQL. |
|
CONTENU |
||
Introduction Problématique EAI / ERP Installation Découverte de l’environnement
Les premiers flux
Traiter les données
Les métadonnées
Travailler avec les bases de données
Autres composants et fonctionnalités
Les itérations Gestion des logs et des erreurs
Fonctionnalités avancées
Automatisation et documentation |
||
SESSIONS PROGRAMMEES |
||
VALIDATIONExercices de validation au cours de la formation |
||
PEDAGOGIEExposés – Cas pratiques – Synthèse |
INTERVENANTSConsultant-formateur dont les compétences techniques, professionnelles et pédagogiques ont été validées par des diplômes et/ou testées et approuvées par l’éditeur et/ou par M2i Formation. |
|
MODALITES PRATIQUESDurée : 3 jours (21 heures) avec 7 heures par jour |
||
Talend Open Studio for Data Quality, gérer la qualité des donnéesTDQ / LI-BDD-134 |
||
OBJECTIFS PEDAGOGIQUES Ce cours vous apprendra à exploiter efficacement l’outil Talend Open Studio for Data Quality de manière à évaluer le niveau de qualité des données d’un système d’information. Vous mettrez en œuvre des analyses, vérifierez des règles métiers et définirez des stratégies de correction pour les données erronées.
CONTENU La problématique de la qualité des données Les concepts fondamentaux de TOS for Data Quality Les analyses simples Les analyses avancées Eléments avancés |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Environnement R
Environnement R, manipulations de données et statistiques élémentairesMDR / LI-REQ-190 |
||
OBJECTIFS PEDAGOGIQUES R est un logiciel statistique qui dispose d’outils graphiques de qualité pour présenter les données. Afin de bénéficier de cette richesse, il faut être capable de préparer ces données, de les transformer et de les exploiter avec R. Ce stage vous propose d’approfondir les compétences des utilisateurs de R.
CONTENU Rappels Importation-exportation et production de données Manipulation de données, fonctions Techniques pour tracer des courbes et des graphiques Mathématiques et statistiques élémentaires |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Environnement R, traitement de données et analyse statistiqueTDA / LI-REQ-158 |
|
OBJECTIFS PEDAGOGIQUES |
|
R est un environnement logiciel Open Source spécialisé dans le calcul et l’analyse statistique. Ce stage vous présentera ses concepts et ses fonctionnalités. Il vous montrera comment manipuler les données et implémenter des modèles statistiques sur ces données avec le logiciel R. | |
PUBLIC |
PRE-REQUIS |
Utilisateurs finaux, statisticiens, analystes type DataMiner, acteurs impliqués dans l’analyse/fouille des données. | Connaissances de base en statistiques (régressions, analyse en composantes principales, classification) et des concepts de programmation. |
CONTENU |
|
Introduction
- Présentation du logiciel R et de ses fonctionnalités. Exercice Premier pas - Environnement de base (console, script). Exercice Objets et notions de programmation R - Les objets de type vecteurs, matrix, array, factor, data.frame, list. Exercice Création et utilisation de fonctions - Structure d’une fonction. Exercice Génération, gestion et visualisation des données - Les données : séquences régulières et aléatoires. Exercice Analyses statistiques - Présentation de la notion de package (librairie). Exercice |
|
SESSIONS PROGRAMMEES |
|
VALIDATIONEvaluation de fin de stage |
|
PEDAGOGIEAlternance d’exposés et de travaux pratiques |
INTERVENANTSSpécialiste analyse statistique |
MODALITES PRATIQUESDurée : 2 jours soit 14 heures avec 7 heures par jour |
Autres solutions
Power BI, perfectionnementBIG / LI-SYS-428 |
||
OBJECTIFS PEDAGOGIQUES Power BI, la solution de Business Intelligence de Microsoft permet aux entreprises d’agréger, d’analyser et de visualiser les données en provenance de sources multiples. À l’issue de cette formation, vous serez en mesure de créer des tableaux de bord complexes en maîtrisant les fonctionnalités avancées de ce logiciel.
CONTENU Présentation, rappels et bonne pratiques Utiliser les requêtes pour concevoir un modèle adéquat Travailler avec la dimension Temps Exploiter les fonctions DAX avancées Affichage, navigation et visualisations - Définir un visuel personnalisé avec le Synoptic Pannel. |
||
SESSIONS PROGRAMMEES Accès au calendrier VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Tableau Desktop, perfectionnement, enrichir les analyses et visualisations des donnéesTKY / LI-REQ-268 |
||
OBJECTIFS PEDAGOGIQUES Tableau Software Desktop permet de créer des calculs analytiques complexes et de les visualiser sous différents types de graphisme : cartographie, axe double, diagramme de Gantt. Ce cours vous permettra de prendre en main les fonctions et outils pour rendre vos tableaux de bord encore plus riches.
CONTENU Introduction Calculs analytiques avancés Paramétrages avancés Représentation de l’évolution de données Représentation de données statistiques Représentation cartographique Tableaux de bord interactifs Aller plus loin |
||
SESSIONS PROGRAMMEES Accès au calendrier VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Big Data Analytics avec Julia, Modélisation et représentation des donnéesTBD / LI-REQ-264 |
||
OBJECTIFS PEDAGOGIQUES Le Big Bata Analytics repose sur la maîtrise des techniques d’exploration de données fondamentales : statistiques descriptives, prédictives ou exploratoires. Ce cours pratique vous présentera des méthodes telles que les régressions et les ACP et vous apprendra à les mettre en œuvre avec le langage Julia.
CONTENU Introduction au langage Julia Analyse en composantes La modélisation Procédures d’évaluation de modèles Les algorithmes non supervisés Les algorithmes supervisés Analyse de données textuelles |
||
SESSIONS PROGRAMMEES Accès au calendrier VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Text Mining par la pratiqueMMD / LI-REQ-263 |
||
OBJECTIFS PEDAGOGIQUES Machine Learning et Deep Learning pour les données textuelles s’inscrivent dans le cadre du traitement statistique et de la valorisation des données dans tout projet Big Data. Ce cours pratique vous présentera toute la chaîne de conception appliquée au Machine Learning dans un contexte Big Data batch et streaming.
CONTENU Les approches traditionnelles en Text Mining Feature Engineering pour la représentation de texte La similarité des textes et classification non supervisée La classification supervisée du texte Natural Language Processing et Deep Learning |
||
SESSIONS PROGRAMMEES Accès au calendrier VALIDATIONEvaluation en fin de session
MODALITES PRATIQUES |
Intelligence Artificielle, algorithmes utiles appliqués à la robotiqueIAG / LI-REQ-262 |
||
OBJECTIFS PEDAGOGIQUES En charge de projets robotiques vous souhaitez parfaire vos connaissances en Intelligence Artificielle et algorithmes afin d’ajouter des capacités logicielles à vos projets : analyse d’images, reconnaissance d’objets, apprentissage par renforcement, algorithmes génétiques, Machine Learning, Deep Learning…
CONTENU Introduction Algorithme et Intelligence Artificielle Analyse d’image - QR Codes, codes barres : création et lecture. Son, reconnaissance vocale, chatbot et TAL/NLP Cartographie 2D, 3D et virtualisation robotique Communication robotique Frameworks et boîte à outils |
||
SESSIONS PROGRAMMEES Accès au calendrier VALIDATIONEvaluation en fin de session
MODALITES PRATIQUES |
Chatbot, créer et déployer un agent conversationnel en JavaScriptBQW / LI-REQ-260 |
||
OBJECTIFS PEDAGOGIQUES Les chatbots, agents conversationnels capables de dialoguer avec un utilisateur, s’imposent comme une nouvelle interface à part entière. Vous apprendrez dans ce stage à en développer en JavaScript sur le runtime Node.js. Vous intégrerez vos développements avec différentes API et solutions de création dédiées.
CONTENU Chatbots : conception et usages Rappels Node.js Architecture d’un chatbot Conception du flux conversationnel Traitement du langage naturel (Natural Langage Processing) Déploiement et intégration au Système d’Information Enrichissement du chatbot |
||
SESSIONS PROGRAMMEES Accès au calendrier VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Machine learning, méthode et solutions
|
||
OBJECTIFS PEDAGOGIQUES |
||
Le Machine Learning couvre l’ensemble des méthodes et concepts qui permettent d’extraire automatiquement à partir de données, des modèles de prédiction et de prise de décision. Vous mettrez en œuvre toute la chaîne de conception appliquée au Machine Learning dans un contexte Big Data batch et streaming. | ||
PUBLIC |
PRE–REQUIS |
|
Ingénieurs/chefs de projet souhaitant considérer les techniques d’apprentissage automatique dans la résolution de problèmes industriels. | Bonnes connaissances en statistiques de base, ou connaissances équivalentes à celles apportées par le stage « Statistiques, maîtriser les fondamentaux » (Réf. STA). | |
CONTENU |
||
Introduction au Machine Learning- Le Big Data et le Machine Learning. Procédures d’évaluation de modèles- Les techniques de ré-échantillonnage en jeu d’apprentissage, de validation et de test. Les modèles prédictifs, l’approche fréquentiste- Apprentissage statistique. Les modèles et apprentissages bayésiens- Principes d’inférence et d’apprentissage bayésiens. Machine Learning en production- Les spécificités liées au développement d’un modèle en environnement distribué. |
||
SESSIONS PROGRAMMEES |
||
VALIDATIONEvaluation de la satisfaction en fin de session |
||
PEDAGOGIEAlternance d’exposés et de travaux pratiques |
||
MODALITES PRATIQUESDurée : 4 jours soit 28 heures avec 7 heures par jour |
Hadoop, développer des applications pour le Big DataAPH / LI-REQ-255 |
||
OBJECTIFS PEDAGOGIQUES
À la fin du cours, le stagiaire sera capable de :
CONTENU Le Big Data - Définition du périmètre du Big Data. Démonstration Collecte de données et application de Map Reduce - Analyse des flux de données dans l’entreprise. Travaux pratiques Le stockage des données avec HBase - Plusieurs types de base de données XML. Travaux pratiques Le stockage des données sur HDFS - Patterns d’usages et application au Cloud. Travaux pratiques Spring Data Hadoop - Introduction à Spring et Spring Data. Travaux pratiques |
||
SESSIONS PROGRAMMEES
VALIDATION
MODALITES PRATIQUES Durée : 4 jours soit 28 heures avec 7 heures par jour |
Flink, développer des applications pour le Big DataFKB / LI-REQ-253 |
||
OBJECTIFS PEDAGOGIQUES
À la fin du cours, le stagiaire sera capable de :
CONTENU Introduction à Apache Flink - Historique du framework. Traitement de données à l’aide de l’API DataStream - Environnement d’exécution et sources de données. Traitement de données à l’aide de l’API Batch - Les différents types de sources de données. Traitement de données à l’aide de l’API Table - Enregistrement et lecture des tables enregistrées. Machine Learning avec FlinkML - Introduction au machine learning. API Flink Graph – Gelly - Qu’est-ce qu’un graphe ? Déploiement de Flink - Flink sur YARN Configurations. |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES Durée : 3 jours soit 21 heures avec 7 heures par jour |
Hadoop, installation et administrationHOD / LI-REQ-198 |
||
OBJECTIFS PEDAGOGIQUES La plateforme Apache Hadoop permet de faciliter la création d’applications distribuées. Ce stage vous permettra de comprendre son architecture et vous donnera les connaissances nécessaires pour installer, configurer et administrer un cluster Hadoop. Vous apprendrez également à l’optimiser et le maintenir dans le temps.
CONTENU Présentation du Framework Apache Hadoop Préparations et configuration du cluster Hadoop Installation d’une plateforme Hadoop Gestion d’un cluster Hadoop Gestion des données dans HDFS Configuration avancée Monitoring et optimisation Tuning |
||
SESSIONS PROGRAMMEES
VALIDATION
MODALITES PRATIQUES |
Elasticsearch, administration et exploitationELA / LI-REQ-197 |
||
OBJECTIFS PEDAGOGIQUES Elasticsearch est un moteur de recherche et d’indexation de données proposant des fonctionnalités de recherche et d’analyse innovantes. Ce stage vous apprendra les principes clés de recherche de données et les possibilités offertes par Elasticsearch et à installer, à configurer et à administrer Elasticsearch.
CONTENU Installation et utilisation d’Elasticsearch, logstash et Kibana Fonctionnement d’Elasticsearch Possibilités offertes par Elasticsearch logstash et Kibana Configuration de la recherche et de l’indexation Configuration et administration du cluster Administration du cluster |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
ElasticSearch, Logstash et Kibana : indexation, recherche et visualisation de donnéesELK / LI-REQ-196 |
||
OBJECTIFS PEDAGOGIQUES Elasticsearch est un moteur de recherche et d’indexation de données proposant des fonctionnalités de recherche et d’analyse innovantes. Vous le mettrez en œuvre dans ce cours pour indexer, chercher et visualiser des données et des documents et découvrirez les principales approches de développement associées.
CONTENU Présentation et installation d’Elasticsearch, logstash et Kibana Fonctionnement d’Elasticsearch Possibilités offertes par Elasticsearch Indexer, chercher et visualiser des données et des documents |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Technique de Big Data Analytics avec Python, modélisation et représentation des donnéesBDA / LI-REQ-192 |
||
OBJECTIFS PEDAGOGIQUES Le Big Bata Analytics repose sur la maîtrise des techniques d’exploration de données fondamentales : statistiques descriptives, prédictives ou exploratoires. Ce stage pratique vous présentera des méthodes telles que les régressions et les ACP et vous apprendra à les mettre en œuvre avec le logiciel Python.
CONTENU Introduction à la modélisation Procédures d’évaluation de modèles Les algorithmes supervisés Les algorithmes non supervisés Analyse en composantes Analyse de données textuelles |
||
SESSIONS PROGRAMMEES
VALIDATION
MODALITES PRATIQUES |
Technique de Big Data Analytics avec R, modélisation et représentation des donnéesDTA / LI-REQ-191 |
||
OBJECTIFS PEDAGOGIQUES Le Big Bata Analytics repose sur la maîtrise des techniques d’exploration de données fondamentales : statistiques descriptives, prédictives ou exploratoires. Ce stage pratique vous présentera des méthodes telles que les régressions et les ACP et vous apprendra à les mettre en œuvre avec le logiciel R, RStudio et Shiny.
CONTENU Introduction Analyse en composantes La modélisation Procédures d’évaluation de modèles Les algorithmes non supervisés Les algorithmes supervisés Analyse de données textuelles |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Microsoft Azure Machine Learning, développer et exploiter des algorithmes sur la plateforme cloud MicrosoftAZL / LI-REQ-186 |
||
OBJECTIFS PEDAGOGIQUES Les algorithmes s’imposent comme l’un des sujets prédominants du Big Data. Ce sont les outils des méthodes exploratoires, explicatives ou prédictives que l’on applique aux données, dans le cadre du Machine Learning. Ce cours vous permettra d’acquérir les compétences nécessaires à l’utilisation d’Azure Machine Learning.
CONTENU Prise en main de l’interface Azure Machine Learning Créer une expérience de Machine Learning Savoir paramétrer les grandes familles d’algorithmes Traiter d’autres types de données |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation en fin de session
MODALITES PRATIQUES |
Power BI, concevoir des tableaux de bordPBI / LI-REQ-179 |
||
OBJECTIFS PEDAGOGIQUES Power BI, la solution de data visualisation de Microsoft permet de créer des tableaux de bord, riches et interactifs, grâce aux multiples éléments graphiques qu’elle propose. Ce stage vous familiarisera avec son environnement et vous permettra de manipuler des données, de créer vos rapports et de les publier. A l’issue de la formation vous serez capable de : - Interroger et associer des sources de données hétérogènes - Concevoir des mesures avec le langage DAX - Utiliser des éléments visuels pour concevoir des tableaux de bord
CONTENU Introduction Obtenir les données Travaux pratiques Transformer les données Travaux pratiques Définir le modèle de données Travaux pratiques Conception de rapport Power BI Travaux pratiques Le service Power BI online Travaux pratiques |
||
SESSIONS PROGRAMMEES
VALIDATION Evaluation de fin de session
MODALITES PRATIQUES |
Oracle SQL pour le décisionnelROD / LI-REQ-129 |
|
OBJECTIFS PEDAGOGIQUES |
|
Un cours intensif pour acquérir toutes les compétences nécessaires à l’utilisation des fonctionnalités décisionnelles du SQL d’Oracle. | |
PUBLIC |
PRE-REQUIS |
Ce stage s’adresse aux développeurs d’applications décisionnelles sous Oracle désireux d’utiliser tout le potentiel SQL d’Oracle. | Bonnes connaissances du langage SQL. |
CONTENU |
|
Introduction
- Informatique décisionnelle. Etat de la norme SQL. Norme SQL3 et décisionnel. Etude de cas - Fonctions horizontales. Fonctions verticales. Fonctions d’agrégat. Travaux pratiques - Extensions ROLLUP et CUBE. Expression de GROUPING SET. Travaux pratiques - La mise en oeuvre. La fonction CV. Travaux pratiques - Insertion multi tables. Insertion sans condition. Travaux pratiques - Les ETL (Extraction, Transformation, Chargement). Travaux pratiques |
|
SESSIONS PROGRAMMEES |
|
VALIDATIONEvaluation de fin de stage |
|
PEDAGOGIEAlternance d’exposés et de travaux pratiques |
INTERVENANTSSpécialiste Oracle SQL |
MODALITES PRATIQUESDurée : 3 jours soit 21 heures avec 7 heures par jour |