________________________________________________________________
¿Quiere realizar este curso en modalidad telepresencial o presencial?
Póngase en contacto con nosotros por correo: info@nanforiberica.com, teléfonos: +34 91 031 66 78 / +34 605 98 51 30, WhatsApp: +34 685 60 05 91, o comunícate con Nuestras Oficinas
________________________________________________________________
Descripción del curso: DP-3011: Implementing a Data Analytics Solution with Azure Databricks
Obtenga información sobre cómo aprovechar todas las ventajas de Apache Spark y los eficaces clústeres que se ejecutan en la plataforma de Azure Databricks para ejecutar grandes cargas de trabajo de ingeniería de datos en la nube.
- Nivel: Intermedio
- Producto: Azure Databricks
- Rol: Ingeniero de datos
Objetivos
- Configurar un entorno de desarrollo en Azure Machine Learning
- Preparar datos para el entrenamiento de modelos
- Crear y configurar un script de entrenamiento de modelos como un trabajo de comando
- Administrar artefactos mediante MLflow
- Implementar un modelo para el consumo en tiempo real
Ruta Formativa
-
Explorar Azure Databricks: Azure Databricks es un servicio en la nube que proporciona una plataforma escalable para el análisis de datos mediante Apache Spark.
-
Haga análisis de datos con Azure Databricks: Aprenda a realizar análisis de datos con Azure Databricks. Explore varios métodos de ingesta de datos y cómo integrar datos de orígenes como Azure Data Lake y Azure SQL Database. Este módulo le guía en el uso de cuadernos colaborativos para realizar análisis exploratorios de datos (EDA), de modo que pueda visualizar, manipular y examinar los datos para descubrir patrones, anomalías y correlaciones.
-
Uso de Apache Spark en Azure Databricks: Azure Databricks se basa en Apache Spark y permite a los ingenieros y analistas de datos ejecutar trabajos de Spark para transformar, analizar y visualizar datos a escala.
-
Uso de Delta Lake en Azure Databricks: Delta Lake es un área de almacenamiento relacional de código abierto para Spark que puede usar para implementar una arquitectura de lago de datos en Azure Databricks.
-
Compilación de canalizaciones de datos con Delta Live Tables: La creación de canalizaciones de datos con Delta Live Tables permite el procesamiento de datos en tiempo real, escalable y confiable mediante las características avanzadas de Delta Lake en Azure Databricks
-
Implementación de cargas de trabajo con flujos de trabajo de Azure Databricks: La implementación de cargas de trabajo con Flujos de trabajo de Azure Databricks implica la orquestación y automatización de canalizaciones complejas de procesamiento de datos, flujos de trabajo de aprendizaje automático y tareas de análisis. En este módulo, aprenderá a implementar cargas de trabajo con flujos de trabajo de Databricks.
-
Uso de almacenes SQL en Azure Databricks: Azure Databricks proporciona almacenes SQL que permiten que los analistas trabajen con datos a través de consultas SQL relacionales conocidas.
-
Ejecución de cuadernos de Azure Databricks con Azure Data Factory: El uso de canalizaciones en Azure Data Factory para ejecutar cuadernos en Azure Databricks permite automatizar procesos de ingeniería de datos a escala de la nube.
Requisitos previos
No posee requisitos previos
Idioma
- Curso: Inglés / Español
- Labs: Inglés / Español