________________________________________________________________
Voulez-vous suivre ce cours à distance ou en personne?
Contactez-nous par email : info@nanforiberica.com , téléphones : +34 91 031 66 78 / +34 605 98 51 30, WhatsApp : +34 685 60 05 91 , ou contactez nos bureaux
________________________________________________________________
Cours : DP-3011 : Mise en œuvre d’une solution d’analyse de données avec Azure Databricks
Découvrez comment tirer pleinement parti d' Apache Spark et des puissants clusters exécutés sur la plateforme Azure Databricks pour exécuter des charges de travail d'ingénierie des données importantes dans le cloud.
Objectifs de la formation DP-3011
- Configuration d'un environnement de développement dans Azure Machine Learning
- Préparer les données pour l'entraînement du modèle
- Créer et configurer un script d'entraînement de modèle en tant que tâche de commande
- Gérer les artefacts à l'aide de MLflow
- Mettre en œuvre un modèle de consommation en temps réel
Contenu du cours DP-3011 : Mise en œuvre d’une solution d’analyse de données avec Azure Databricks
Module 1 : Explorer Azure Databricks
- Introduction à Azure Databricks
- Identification des charges de travail Azure Databricks
- Description des concepts clés
- Gouvernance des données utilisant Unity Catalog et Microsoft Purview
- Exercice : Explorer Azure Databricks
Module 2 : Effectuer une analyse de données avec Azure Databricks
- Introduction
- Ingestion de données avec Azure Databricks
- Outils d'exploration de données dans Azure Databricks
- Analyse de données à l'aide des API DataFrame
- Exercice : Exploration de données avec Azure Databricks
Module 3 : Utilisation d’Apache Spark dans Azure Databricks
- Introduction
- Découvrez Spark
- Création d'un cluster Spark
- Utilisation de Spark dans les notebooks
- Utilisation de Spark pour travailler avec des fichiers de données
- Visualisation des données
- Exercice : Utilisation de Spark dans Azure Databricks
Module 4 : Gestion des données avec Delta Lake
- Introduction
- Premiers pas avec le lac Delta
- Gestion des transactions ACID
- Mise en œuvre de systèmes de conformité
- Contrôle des versions des données, voyage dans le temps et navigation dans le lac Delta
- Intégrité des données avec Delta Lake
- Exercice : Utilisation de Delta Lake dans Azure Databricks
Module 5 : Création de pipelines de données avec les tables dynamiques Delta
- Introduction
- Exploration des tables Delta Live
- Ingestion et intégration des données
- Traitement en temps réel
- Exercice : Création d'un pipeline de données avec Delta Live Tables
Module 6 : Mise en œuvre des charges de travail avec les flux de travail Azure Databricks
- Introduction
- Que sont les workflows Azure Databricks ?
- Description des principaux composants des flux de travail Azure Databricks
- Découverte des avantages des flux de travail Azure Databricks
- Déploiement de charges de travail à l'aide des flux de travail Azure Databricks
- Exercice : Création d’un flux de travail Azure Databricks
Prérequis
Il n'y a pas de prérequis.
Langue
- Cours : Anglais / Espagnol
- Laboratoires : anglais / espagnol