________________________________________________________________
Voulez-vous suivre ce cours à distance ou en personne?
Contactez-nous par email : info@nanforiberica.com , téléphones : +34 91 031 66 78 / +34 605 98 51 30, WhatsApp : +34 685 60 05 91 , ou contactez nos bureaux
________________________________________________________________
Cours : DP-3011 : Implémentation d'une solution d'analyse de données avec Azure Databricks
Découvrez comment exploiter pleinement les avantages d’ Apache Spark et des puissants clusters exécutés sur la plateforme Azure Databricks pour exécuter de grandes charges de travail d’ingénierie de données dans le cloud.
Objectifs de formation DP-3011
- Configurer un environnement de développement dans Azure Machine Learning
- Préparer les données pour la formation du modèle
- Créer et configurer un script de formation de modèle en tant que tâche de commande
- Gestion des artefacts à l'aide de MLflow
- Mettre en œuvre un modèle de consommation en temps réel
Contenu du cours DP-3011
Module 1 : Découvrir Azure Databricks
- Introduction à Azure Databricks
- Identification des charges de travail Azure Databricks
- Description des concepts clés
- Gouvernance des données avec Unity Catalog et Microsoft Purview
- Exercice : Explorer Azure Databricks
Module 2 : Analyser les données avec Azure Databricks
- Introduction
- Ingestion de données avec Azure Databricks
- Outils d'exploration de données dans Azure Databricks
- Analyse de données à l'aide des API DataFrame
- Exercice : Exploration des données avec Azure Databricks
Module 3 : Utilisation d'Apache Spark sur Azure Databricks
- Introduction
- Découvrez Spark
- Création d'un cluster Spark
- Utilisation de Spark dans les notebooks
- Utiliser Spark pour travailler avec des fichiers de données
- Visualisation des données
- Exercice : Utilisation de Spark dans Azure Databricks
Module 4 : Gestion des données avec Delta Lake
- Introduction
- Premiers pas avec Delta Lake
- Gestion des transactions ACID
- Mise en œuvre de la conformité du régime
- Versionnage des données et voyage dans le temps dans Delta Lake
- Intégrité des données avec Delta Lake
- Exercice : Utilisation de Delta Lake dans Azure Databricks
Module 5 : Création de pipelines de données avec Delta Live Tables
- Introduction
- Exploration des tables Delta Live
- Ingestion et intégration des données
- Traitement en temps réel
- Exercice : Création d'un pipeline de données avec des tables Delta Live
Module 6 : Déploiement de charges de travail avec les workflows Azure Databricks
- Introduction
- Que sont les workflows Azure Databricks ?
- Comprendre les composants clés des workflows Azure Databricks
- Découvrir les avantages des workflows Azure Databricks
- Déploiement de charges de travail à l'aide des workflows Azure Databricks
- Exercice : Création d'un workflow Azure Databricks
Prérequis
Il n'y a pas de prérequis
Langue
- Cours : Anglais / Espagnol
- Laboratoires : anglais / espagnol