Este taller entrega los fundamentos necesarios para procesar grandes volúmenes de datos, estructurados o no estructurados, de forma batch o en streaming con Apache Hadoop. Estos conocimientos permiten implementar soluciones escalables en todo tipo de industrias para el almacenamiento y procesamiento distribuido de datos.

Antecedentes

¿Quiénes deben participar?

  • Profesionales de TI con conocimientos en el área de sistemas de información que deseen interiorizarse en el mundo de Big Data y las plataformas de almacenamiento y procesamiento distribuido.

Pre-requisitos

  • No tiene.
Objetivos

Al término del curso, los participantes estarán en condiciones de:

  • Iniciar la implementación de grandes volúmenes de datos con las principales herramientas open-source del mercado
  • Descubrir oportunidades de creación de valor para sus negocios a través del análisis de sus datos.
Contenidos
  1. Fundamentos de Big Data
  2. Arquitectura Hadoop
  3. Introducción a la Plataforma de gestión de datos empresarial Hortonworks.
  4. Procesamiento de datos batch con Sqoop, Flume, Hive y Pig
  5. Introducción a Apache Spark y Zeppelin
  6. Procesamiento de datos en streaming con Kafka y Spark
Curso

Duración del programa:
8 horas

Incluye:

  • Instancias AWS para realizar laboratorios.
  • Certificado digital de asistencia.