DP-3011 Implementing a data analytics solution with Azure Databricks

Programa de curso sobre Azure Databricks

Un curso práctico para aprender a usar la plataforma de análisis de datos basada en Spark de Microsoft Azure

Objetivos

  • Conocer los conceptos y características de Azure Databricks y su integración con otros servicios de Azure.
  • Aprender a crear y configurar clústeres de Spark en Azure Databricks y a ejecutar trabajos y notebooks.
  • Utilizar Delta Lake para gestionar y optimizar el almacenamiento y el procesamiento de datos estructurados y semiestructurados en Azure Databricks.
  • Usar SQL Warehouses para crear y consultar almacenes de datos escalables y distribuidos en Azure Databricks.
  • Integrar Azure Databricks con Azure Data Factory para automatizar y orquestar flujos de trabajo de análisis de datos.

Contenido

  • Unidad 1: Explore Azure Databricks
  • Qué es Azure Databricks y cómo funciona
  • Beneficios y casos de uso de Azure Databricks
  • Arquitectura y componentes de Azure Databricks
  • Cómo crear y acceder a un espacio de trabajo de Azure Databricks
  • Unidad 2: Spark en Azure Databricks
  • Qué es Spark y cómo funciona
  • Conceptos y terminología de Spark
  • Cómo crear y gestionar clústeres de Spark en Azure Databricks
  • Cómo ejecutar trabajos y notebooks de Spark en Azure Databricks
  • Cómo usar las APIs de Spark (PySpark, Spark SQL, SparkR, etc.) en Azure Databricks
  • Unidad 3: Use Delta Lake en Azure Databricks
  • Qué es Delta Lake y cómo funciona
  • Beneficios y casos de uso de Delta Lake
  • Cómo crear y leer tablas Delta Lake en Azure Databricks
  • Cómo usar las operaciones de escritura y actualización de Delta Lake en Azure Databricks
  • Cómo optimizar el rendimiento y la fiabilidad de Delta Lake en Azure Databricks
  • Unidad 4: Use SQL Warehouses en Azure Databricks
  • Qué es SQL Warehouses y cómo funciona
  • Beneficios y casos de uso de SQL Warehouses
  • Cómo crear y configurar SQL Warehouses en Azure Databricks
  • Cómo cargar y consultar datos en SQL Warehouses en Azure Databricks
  • Cómo integrar SQL Warehouses con otros servicios de Azure
  • Unidad 5: Run Azure Databricks Notebooks with Azure Data Factory
  • Qué es Azure Data Factory y cómo funciona
  • Beneficios y casos de uso de Azure Data Factory
  • Cómo crear y configurar una instancia de Azure Data Factory
  • Cómo crear y ejecutar pipelines de Azure Data Factory
  • Cómo integrar Azure Databricks con Azure Data Factory

Introducción

Azure Databricks es una plataforma de análisis de datos basada en Spark que ofrece una experiencia de usuario simplificada y una integración nativa con otros servicios de Azure. Con Azure Databricks, puedes crear y ejecutar clústeres de Spark de forma rápida y fácil, y aprovechar las ventajas de las APIs de Spark para procesar y analizar grandes volúmenes de datos de diversas fuentes y formatos. Además, puedes usar Delta Lake para mejorar la calidad y el rendimiento de tus datos, SQL Warehouses para crear y consultar almacenes de datos escalables y distribuidos, y Azure Data Factory para automatizar y orquestar flujos de trabajo de análisis de datos.

Este curso está diseñado para que aprendas a usar Azure Databricks de forma práctica y eficiente. A lo largo del curso, realizarás ejercicios y proyectos que te permitirán aplicar los conceptos y las técnicas que se explican en cada unidad. Al finalizar el curso, serás capaz de usar Azure Databricks para crear soluciones de análisis de datos robustas y escalables en la nube de Azure.

Dirigido a

Este curso está dirigido a profesionales de datos, analistas, científicos de datos, ingenieros de datos y desarrolladores que quieran aprender a usar Azure Databricks para crear y ejecutar soluciones de análisis de datos basadas en Spark. Se recomienda tener conocimientos previos de Spark, SQL y Python, así como de los conceptos básicos de Azure y de la nube.

Otras aspectos:

  • Requisitos: Para realizar este curso, necesitarás una suscripción de Azure, un navegador web y un editor de código. También se recomienda tener instalado Anaconda o Jupyter Notebook para trabajar con los notebooks de Spark.
  • Evaluación: El curso incluye cuestionarios, ejercicios y proyectos que te permitirán evaluar tu aprendizaje y poner en práctica lo que has aprendido. Al final del curso, recibirás un certificado de finalización si has completado satisfactoriamente todas las actividades.
  • Recursos: El curso te proporciona los recursos necesarios para seguir el contenido y realizar las actividades, como los notebooks de Spark, los datos de ejemplo, las guías de referencia y los enlaces de interés.
  • Duración: El curso tiene una duración estimada de 20 horas, que se pueden distribuir según tu ritmo y disponibilidad. Se recomienda dedicar al menos una hora al día al curso para aprovecharlo al máximo.

 

¥5,465.00

Información relacionada a la formación

Soporte siempre a tu lado

Soporte de formación: Siempre a tu lado

Formación presencial y telepresencial

¿Necesitas otra modalidad formativa?

bonificaciones

Bonificaciones para empresas