________________________________________________________________
¿Quiere realizar este curso en modalidad telepresencial o presencial?
Póngase en contacto con nosotros por correo: info@nanforiberica.com, teléfonos: +34 91 031 66 78 / +34 605 98 51 30, WhatsApp: +34 685 60 05 91, o comunícate con Nuestras Oficinas
________________________________________________________________
Curso: DP-3011: Implementing a Data Analytics Solution with Azure Databricks
Obtenga información sobre cómo aprovechar todas las ventajas de Apache Spark y los eficaces clústeres que se ejecutan en la plataforma de Azure Databricks para ejecutar grandes cargas de trabajo de ingeniería de datos en la nube.
Objetivos de la formación DP-3011
- Configurar un entorno de desarrollo en Azure Machine Learning
- Preparar datos para el entrenamiento de modelos
- Crear y configurar un script de entrenamiento de modelos como un trabajo de comando
- Administrar artefactos mediante MLflow
- Implementar un modelo para el consumo en tiempo real
Contenido de curso DP-3011
Módulo 1: Explorar Azure Databricks
- Introducción a Azure Databricks
- Identificación de las cargas de trabajo de Azure Databricks
- Descripción de los conceptos clave
- Gobernanza de datos mediante Unity Catalog y Microsoft Purview
- Ejercicio: Explorar Azure Databricks
Módulo 2: Haga análisis de datos con Azure Databricks
- Introducción
- Ingesta de datos con Azure Databricks
- Herramientas de exploración de datos en Azure Databricks
- Análisis de datos mediante las API de DataFrame
- Ejercicio: Exploración de datos con Azure Databricks
Módulo 3: Uso de Apache Spark en Azure Databricks
- Introducción
- Descubra Spark
- Creación de un clúster de Spark
- Uso de Spark en cuadernos
- Uso de Spark para trabajar con archivos de datos
- Visualización de datos
- Ejercicio: Uso de Spark en Azure Databricks
Módulo 4: Administración de datos con Delta Lake
- Introducción
- Primeros pasos con Delta Lake
- Administración de transacciones ACID
- Implementación del cumplimiento de esquemas
- Control de versiones de datos y desplazamiento y viaje en el tiempo en Delta Lake
- Integridad de datos con Delta Lake
- Ejercicio: Uso de Delta Lake en Azure Databricks
Módulo 5: Compilación de canalizaciones de datos con Delta Live Tables
- Introducción
- Exploración de delta Live Tables
- Ingesta e integración de datos
- Procesamiento en tiempo real
- Ejercicio: Creación de una canalización de datos con Delta Live Tables
Módulo 6: Implementación de cargas de trabajo con flujos de trabajo de Azure Databricks
- Introducción
- ¿Qué son los flujos de trabajo de Azure Databricks?
- Descripción de los componentes clave de los flujos de trabajo de Azure Databricks
- Exploración de las ventajas de los flujos de trabajo de Azure Databricks
- Implementación de cargas de trabajo mediante flujos de trabajo de Azure Databricks
- Ejercicio: Creación de un flujo de trabajo de Azure Databricks
Requisitos previos
No posee requisitos previos
Idioma
- Curso: Inglés / Español
- Labs: Inglés / Español