DP-3011: Implementing a Data Analytics Solution with Azure Databricks

¥2,284.00

________________________________________________________________

¿Quiere realizar este curso en modalidad telepresencial o presencial?

Póngase en contacto con nosotros por correo: info@nanforiberica.com, teléfonos: +34 91 031 66 78 / +34 605 98 51 30, WhatsApp: +34 685 60 05 91, o comunícate con Nuestras Oficinas

________________________________________________________________

Descripción del curso: DP-3011: Implementing a Data Analytics Solution with Azure Databricks

Obtenga información sobre cómo aprovechar todas las ventajas de Apache Spark y los eficaces clústeres que se ejecutan en la plataforma de Azure Databricks para ejecutar grandes cargas de trabajo de ingeniería de datos en la nube.

  • Nivel: Intermedio
  • Producto: Azure Databricks
  • Rol: Ingeniero de datos

 

 

Objetivos

  • Configurar un entorno de desarrollo en Azure Machine Learning
  • Preparar datos para el entrenamiento de modelos
  • Crear y configurar un script de entrenamiento de modelos como un trabajo de comando
  • Administrar artefactos mediante MLflow
  • Implementar un modelo para el consumo en tiempo real

 

Ruta Formativa

  • Explorar Azure Databricks: Azure Databricks es un servicio en la nube que proporciona una plataforma escalable para el análisis de datos mediante Apache Spark.
  • Haga análisis de datos con Azure Databricks: Aprenda a realizar análisis de datos con Azure Databricks. Explore varios métodos de ingesta de datos y cómo integrar datos de orígenes como Azure Data Lake y Azure SQL Database. Este módulo le guía en el uso de cuadernos colaborativos para realizar análisis exploratorios de datos (EDA), de modo que pueda visualizar, manipular y examinar los datos para descubrir patrones, anomalías y correlaciones.
  • Uso de Apache Spark en Azure Databricks: Azure Databricks se basa en Apache Spark y permite a los ingenieros y analistas de datos ejecutar trabajos de Spark para transformar, analizar y visualizar datos a escala.
  • Uso de Delta Lake en Azure Databricks: Delta Lake es un área de almacenamiento relacional de código abierto para Spark que puede usar para implementar una arquitectura de lago de datos en Azure Databricks.
  • Compilación de canalizaciones de datos con Delta Live Tables: La creación de canalizaciones de datos con Delta Live Tables permite el procesamiento de datos en tiempo real, escalable y confiable mediante las características avanzadas de Delta Lake en Azure Databricks
  • Implementación de cargas de trabajo con flujos de trabajo de Azure Databricks: La implementación de cargas de trabajo con Flujos de trabajo de Azure Databricks implica la orquestación y automatización de canalizaciones complejas de procesamiento de datos, flujos de trabajo de aprendizaje automático y tareas de análisis. En este módulo, aprenderá a implementar cargas de trabajo con flujos de trabajo de Databricks.
  • Uso de almacenes SQL en Azure Databricks: Azure Databricks proporciona almacenes SQL que permiten que los analistas trabajen con datos a través de consultas SQL relacionales conocidas.
  • Ejecución de cuadernos de Azure Databricks con Azure Data Factory:  El uso de canalizaciones en Azure Data Factory para ejecutar cuadernos en Azure Databricks permite automatizar procesos de ingeniería de datos a escala de la nube.

 

Requisitos previos

No posee requisitos previos

 

Idioma

  • Curso: Inglés / Español
  • Labs: Inglés / Español

Información relacionada a la formación

Soporte siempre a tu lado

Soporte de formación: Siempre a tu lado

Formación presencial y telepresencial

¿Necesitas otra modalidad formativa?

bonificaciones

Bonificaciones para empresas