DP-3011: Implementing a Data Analytics Solution with Azure Databricks

¥2,498.00

________________________________________________________________

¿Quiere realizar este curso en modalidad telepresencial o presencial?

Póngase en contacto con nosotros por correo: info@nanforiberica.com, teléfonos: +34 91 031 66 78 / +34 605 98 51 30, WhatsApp: +34 685 60 05 91, o comunícate con Nuestras Oficinas

________________________________________________________________

Curso: DP-3011: Implementing a Data Analytics Solution with Azure Databricks

Obtenga información sobre cómo aprovechar todas las ventajas de Apache Spark y los eficaces clústeres que se ejecutan en la plataforma de Azure Databricks para ejecutar grandes cargas de trabajo de ingeniería de datos en la nube.

Duración del curso DP-3011
Modalidad Training DP-3011
Acceso al aula virtual formación DP-3011

Objetivos de la formación DP-3011

  • Configurar un entorno de desarrollo en Azure Machine Learning
  • Preparar datos para el entrenamiento de modelos
  • Crear y configurar un script de entrenamiento de modelos como un trabajo de comando
  • Administrar artefactos mediante MLflow
  • Implementar un modelo para el consumo en tiempo real

 

Contenido de curso DP-3011

Módulo 1: Explorar Azure Databricks

  • Introducción a Azure Databricks
  • Identificación de las cargas de trabajo de Azure Databricks
  • Descripción de los conceptos clave
  • Gobernanza de datos mediante Unity Catalog y Microsoft Purview
  • Ejercicio: Explorar Azure Databricks

Módulo 2: Haga análisis de datos con Azure Databricks

  • Introducción
  • Ingesta de datos con Azure Databricks
  • Herramientas de exploración de datos en Azure Databricks
  • Análisis de datos mediante las API de DataFrame
  • Ejercicio: Exploración de datos con Azure Databricks

Módulo 3: Uso de Apache Spark en Azure Databricks

  • Introducción
  • Descubra Spark
  • Creación de un clúster de Spark
  • Uso de Spark en cuadernos
  • Uso de Spark para trabajar con archivos de datos
  • Visualización de datos
  • Ejercicio: Uso de Spark en Azure Databricks

Módulo 4: Administración de datos con Delta Lake

  • Introducción
  • Primeros pasos con Delta Lake
  • Administración de transacciones ACID
  • Implementación del cumplimiento de esquemas
  • Control de versiones de datos y desplazamiento y viaje en el tiempo en Delta Lake
  • Integridad de datos con Delta Lake
  • Ejercicio: Uso de Delta Lake en Azure Databricks

Módulo 5: Compilación de canalizaciones de datos con Delta Live Tables

  • Introducción
  • Exploración de delta Live Tables
  • Ingesta e integración de datos
  • Procesamiento en tiempo real
  • Ejercicio: Creación de una canalización de datos con Delta Live Tables

Módulo 6: Implementación de cargas de trabajo con flujos de trabajo de Azure Databricks

  • Introducción
  • ¿Qué son los flujos de trabajo de Azure Databricks?
  • Descripción de los componentes clave de los flujos de trabajo de Azure Databricks
  • Exploración de las ventajas de los flujos de trabajo de Azure Databricks
  • Implementación de cargas de trabajo mediante flujos de trabajo de Azure Databricks
  • Ejercicio: Creación de un flujo de trabajo de Azure Databricks

 

Requisitos previos

No posee requisitos previos

 

Idioma

  • Curso: Inglés / Español
  • Labs: Inglés / Español

Información relacionada a la formación

Soporte siempre a tu lado

Soporte de formación

Siempre a tu lado

Modalidades Formativas

Modalidades formativas

Self Learning - Virtual - Presencial - Telepresencial

bonificaciones

Bonificaciones

Para empresas