Formation - Microsoft Azure - Data Engineering
Référence : ccVuF4gvm38w
Durée : 28 h sur 4 j
Tarif
11 600 €
HT
Logo - M2i Formation
M2i Formation
Mougins
Intra-Entreprise
Une formation intra-entreprise réunit dans une même session les salariés d'une seule entreprise. Elle se déroule généralement dans les locaux de l'entreprise. Le tarif est convenu pour la formation d'un groupe de salarié.

Détails de la formation

Méthodes et outils pédagogiques

Formation délivrée en présentiel ou distanciel* (blended-learning, e-learning, classe virtuelle, présentiel à distance).
Le formateur alterne entre méthode** démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation).
Variables suivant les formations, les moyens pédagogiques mis en oeuvre sont :

  • Ordinateurs Mac ou PC (sauf pour certains cours de l’offre Management), connexion internet fibre, tableau blanc ou paperboard, vidéoprojecteur ou écran tactile interactif (pour le distanciel)
  • Environnements de formation installés sur les postes de travail ou en ligne
  • Supports de cours et exercices

En cas de formation intra sur site externe à M2i, le client s'assure et s'engage également à avoir toutes les ressources matérielles pédagogiques nécessaires (équipements informatiques...) au bon déroulement de l'action de formation visée conformément aux prérequis indiqués dans le programme de formation communiqué.
* nous consulter pour la faisabilité en distanciel
** ratio variable selon le cours suivi

Objectifs de la formation

A l’issue de cette formation, vous serez capable de :

  • Expérimenter les options de calcul et de stockage pour les workloads de Data Engineering dans Azure
  • Exécuter des requêtes interactives à l'aide de pools SQL sans serveur
  • Effectuer l'exploration et la transformation des données dans Azure Databricks
  • Explorer, transformer et charger des données dans le Data Warehouse à l'aide d'Apache Spark
  • Ingérer et charger des données dans le Data Warehouse
  • Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
  • Intégrer les données à partir des notebooks avec Azure Data Factory ou Azure Synapse Pipelines
  • Prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
  • Assurer la sécurité end-to-end avec Azure Synapse Analytics
  • Effectuer un traitement de flux en temps réel avec Stream Analytics
  • Créer une solution de traitement de flux avec Event Hubs et Azure Databricks.

Méthodes d'évaluation

  • En cours de formation, par des études de cas ou des travaux pratiques - Et, en fin de formation, par un questionnaire d'auto-évaluation et/ou une certification éditeur (proposée en option)

Pré-requis

Avoir des connaissances sur le Cloud Computing, sur les concepts de base des données et une expérience professionnelle avec des solutions de données. Il est également recommandé d'avoir suivi les formations MSAZ900T00 "Microsoft Azure - Fondamentaux" et "Microsoft Azure Data Fundamentals" ou avoir les connaissances équivalentes.

Public cible

Tous publics

Programme

1
Explorer les options de calcul et de stockage pour les workloads de Data Engineering
-Introduction à Azure Synapse Analytics-Décrire Azure Databricks-Introduction au stockage Azure Data Lake-Décrire l'architecture Delta Lake-Travailler avec des flux de données en utilisant Azure Stream Analytics
2
Exécuter des requêtes interactives à l'aide des pools SQL sans serveur Azure Synapse Analytics
-Explorer les capacités des pools SQL sans serveur Azure Synapse-Interroger des données dans le Data Lake à l'aide des pools SQL sans serveur Azure Synapse-Créer des objets de métadonnées dans les pools SQL sans serveur Azure Synapse-Sécuriser des données et gérer des utilisateurs dans les pools SQL sans serveur Azure Synapse
3
Exploration et transformation des données dans Azure Databricks
-Décrire Azure Databricks-Lire et écrire des données dans Azure Databricks-Travailler avec :
-Des DataFrames dans Azure Databricks
-Les méthodes avancées des DataFrames dans Azure Databricks
4
Explorer, transformer et charger des données dans le Data Warehouse à l'aide d'Apache Spark
-Comprendre l'ingénierie du Big Data avec Apache Spark dans Azure Synapse Analytics-Ingérer des données avec les notebooks d'Apache Spark dans Azure Synapse Analytics-Transformer les données avec des DataFrames dans les pools Apache Spark dans Azure Synapse Analytics-Intégrer des pools SQL et Apache Spark dans Azure Synapse Analytics
5
Ingérer et charger des données dans le Data Warehouse
-Utiliser les bonnes pratiques de chargement de données dans Azure Synapse Analytics-Ingérer à l'échelle du pétaoctet avec Azure Data Factory

Sur la même thématique

Logo eDRH Sud PACA - Footer
Nous contacter

Chambre de Commerce
et d’industrie Nice Côte d’Azur

20 Boulevard Carabacel
CS 11259
06005 NICE CEDEX 1

Tel :04 93 13 75 73
(Appel gratuit depuis un poste fixe)