Big Data y Hadoop

Descripción del curso

Big Data y Hadoop

Aprende a manejar grandes volumenes de datos, las características principales de sistemas de archivos y todo su ecosistema de aplicaciones sobre las diferentes distribuciones

Duración: 6 horas (3 días)

Fechas: 13, 14 y 15 de Febrero, de 18:00 a 20:00.

Profesor: Elías Galván

Desarrollador y Arquitecto Big Data / ETL / DW para Ergo Renova.

Contactar con el profesor: [email protected]

Profesor: Emiliano Jramoy

Consultor Big Data / ETL / BI / DW de Ergo Renova.

Contactar con el profesor: [email protected]

Contenido

  • Hadoop
  • Distribuciones
  • HDFS
  • MapReduce / TEZ / Spark
  • PIG
  • Zookeeper
  • Flume / Kafka / Sqoop / Oozie
  • Ranger / Knox / Atlas
  • Ambari
  • Zeppelin

¿Para quien es este curso?

  • Profesionales/Desarrolladores con base de conocimientos de Datawarehouse, o interesados en aplicar las nuevas tendencias y soluciones sobre grandes volúmenes de datos.

Conocimientos previos

  • Conocimientos básicos de Linux, sistemas de archivos

Software requerido

Ninguno – se utilizará la plataforma instalada en la nube

Material de la clase