________________________________________________________________
¿Quiere realizar este curso en modalidad telepresencial o presencial?
Póngase en contacto con nosotros por correo: info@nanforiberica.com, teléfonos: +34 91 031 66 78 / +34 605 98 51 30, WhatsApp: +34 685 60 05 91, o comunícate con Nuestras Oficinas
________________________________________________________________
           
      
    
      
      
      
          
          
          
          
  
    Curso: DP-3011: Implementing a Data Analytics Solution with Azure Databricks
Obtenga información sobre cómo aprovechar todas las ventajas de Apache Spark y los eficaces clústeres que se ejecutan en la plataforma de Azure Databricks para ejecutar grandes cargas de trabajo de ingeniería de datos en la nube.
Objetivos de la formación DP-3011
- Configurar un entorno de desarrollo en Azure Machine Learning
 
- Preparar datos para el entrenamiento de modelos
 
- Crear y configurar un script de entrenamiento de modelos como un trabajo de comando
 
- Administrar artefactos mediante MLflow
 
- Implementar un modelo para el consumo en tiempo real
 
 
Contenido de curso DP-3011
Módulo 1: Explorar Azure Databricks
- Introducción a Azure Databricks
 
- Identificación de las cargas de trabajo de Azure Databricks
 
- Descripción de los conceptos clave
 
- Gobernanza de datos mediante Unity Catalog y Microsoft Purview
 
- Ejercicio: Explorar Azure Databricks
 
Módulo 2: Haga análisis de datos con Azure Databricks
- Introducción
 
- Ingesta de datos con Azure Databricks
 
- Herramientas de exploración de datos en Azure Databricks
 
- Análisis de datos mediante las API de DataFrame
 
- Ejercicio: Exploración de datos con Azure Databricks
 
Módulo 3: Uso de Apache Spark en Azure Databricks
- Introducción
 
- Descubra Spark
 
- Creación de un clúster de Spark
 
- Uso de Spark en cuadernos
 
- Uso de Spark para trabajar con archivos de datos
 
- Visualización de datos
 
- Ejercicio: Uso de Spark en Azure Databricks
 
Módulo 4: Administración de datos con Delta Lake
- Introducción
 
- Primeros pasos con Delta Lake
 
- Administración de transacciones ACID
 
- Implementación del cumplimiento de esquemas
 
- Control de versiones de datos y desplazamiento y viaje en el tiempo en Delta Lake
 
- Integridad de datos con Delta Lake
 
- Ejercicio: Uso de Delta Lake en Azure Databricks
 
Módulo 5: Compilación de canalizaciones de datos con Delta Live Tables
- Introducción
 
- Exploración de delta Live Tables
 
- Ingesta e integración de datos
 
- Procesamiento en tiempo real
 
- Ejercicio: Creación de una canalización de datos con Delta Live Tables
 
Módulo 6: Implementación de cargas de trabajo con flujos de trabajo de Azure Databricks
- Introducción
 
- ¿Qué son los flujos de trabajo de Azure Databricks?
 
- Descripción de los componentes clave de los flujos de trabajo de Azure Databricks
 
- Exploración de las ventajas de los flujos de trabajo de Azure Databricks
 
- Implementación de cargas de trabajo mediante flujos de trabajo de Azure Databricks
 
- Ejercicio: Creación de un flujo de trabajo de Azure Databricks
 
 
Requisitos previos
No posee requisitos previos
 
Idioma
- Curso: Inglés / Español
 
- Labs: Inglés / Español