Formación tecnológica en Introducción a Big data

Curso orientado a introducir y explicar los principales conceptos y tecnologías del campo Big Data.

 

Duración

Entre 150 y 500 horas

Modalidad

Presencial

Inicio

Abierta del 1 Septiembre al 31 Oct. 17

Impulsado por

Asime y Red.es

¿Te interesa recibir formación tecnológica de máximo nivel en las temáticas más demandadas en el mercado laboral Español?

Objetivos

Capacitar a las personas seleccionadas en una de las tecnologías más demandadas en el mercado laboral y garantizar la incorporación a este con funciones asociadas a las TIC y a la Economía Digital.

Coste

Formación gratuita.

N

Requisitos de acceso

Inscribirse o estar adscrito en Garantía Juvenil: Menor de 30 años, estudios finalizados y en estado de desempleo.

}

Horario

Solicita información sin compromiso y te comentaremos los horarios y fechas para siguientes convocatorias.

Plan de estudios

Índice De Contenidos

INTRODUCCIÓN y TEORÍA – NEGOCIO, MERCADO Y CONCEPTOS GENERALES

  • Qué es y qué no es BigData
  • La cadena de valor de BigData.
  • Big Data frente a otros paradigmas: sistemas HPC, Grid y BBDD relacionales. Explicar cuándo conviene utilizar cada uno.
  • BI vs BigData
  • Tecnologías Big Data
    • Plataformas
    • Principales diferencias entre ellas.
    • Módulos de una arquitectura, fuentes y destinos de los datos
    • Entorno Operativo.
      • Cloud vs On-Premise
      • IaaS, PaaS, SaaS
  • Perfiles profesionales en Big Data
  • Fases de un proyecto. Descripción, herramientas y perfiles involucrados
  • Regulación y normativa vigentes
  • Mercado de tecnologías y servicios Big Data.
    • Visión de qué se vende/comercializa en el sector y quién lo hace
    • Modelos de negocio
    • Actores principales incluyendo, por ejemplo, la Apache Software Foundation, no solo empresas.
  • Casos de éxito y casos de fracaso concretos.
  • Modelos de negocio
    • Modelos de negocio alrededor de los datos
Big Data – Conceptos Técnicos Y Operaciones
  • Arquitecturas lambda, kappa.
  • Hadoop Core. Fundamentos de almacenamiento y procesado distribuidos
    • Yarn
    • Serialización
  • Sequence file, AVRO y Parquet
  • Planificación de despliegue de la Plataformas.
  • Servicios Cloud. Introducción general a servicios cloud y equivalencia entre los bloques estudiados y los servicios en Azure.
  • Preparación de la Infraestructura.
  • Data Stack . Incluye práctica de instalación, despliegue y configuración.
    • Instalación de Ambari.
    • Instalación de Data Stack.
    • Configuración de los Servicios (Master, Slaves y Clientes)
    • Administración de nodos en el Cluster
    • Mantenimiento de nodos
    • configuración sobre los nodos.
    • Manager:
  • Administración de Servicios
  • Gestión de versiones de Configuración de los componentes.
  • Administración de versiones.
Programación – Introducción A Scala
  • Programación en Scala:
    • ¿Qué es Scala?.
    • Conceptos y sintaxis básica.
    • Objetos y Clases.
    • Estructuras de Control.
    • Excepciones
Big Data – Data Pipeline & Management
  • Ingesta: funciones de la etapa de ingesta, conceptos comunes a las tecnologías y comparativa de las mismas. Posibles fuentes (entradas) y sumideros (salidas) de cada una.
    • Flume: API y configuración
    • NiFi: processors, controllers & groups
    • Logstash, Kettle
  • Sistemas de mensajería: buses y colas. Diferenciación entre proveedores JMS y Kafka para entender cuándo es útil cada opción. Para cada una de las dos se abordarán conceptos, funcionamiento y ámbito de aplicación
    • JMS: AMQP, ActiveMQ, Rabbit….
    • Kafka
  • HDFS:
    • Alta disponibilidad.
    • Control de accesos.
    • Comandos básicos.
    • Snapshots
    • WebHDFS y NFS. Servicios de acceso a HDFS.
  • Gestión de recursos. YARN:
    • Overview
    • Capacity Scheduler
    • Consola de visualización de procesos.
    • Comandos básicos
  • Computación. Alternativas
    • MapReduce:
  • Desarrollo en batch.
    • Hive:
  • Metastore (metadata).
  • Consultas básicas.
    • Apache Spark. Principios generales
  • Arquitectura
  • Modelo de ejecución
  • Planificadores
    • Apache Storm. Principios generales
  • Arquitectura
  • Modelo de ejecución
  • Planificadores
  • Bases de datos, interfaces y motores de búsqueda. Conceptos y uso (APIs, CLI, Web…)
    • Categorías. Documents Store, Key/Value, Search.
    • Cassandra, Couchbase, MongoDB
    • Hive, Impala, Kudu
    • Elasticsearch, Solr
  • Apache Oozie:
    • Workflow Scheduler
  • Herramientas de Visusalización e Integración:
    • Grafana y/o Kibana
    • Herramientas clásicas de BI con conexión a KDS.
    • Visualización de Streaming.

Lugares de impartición

Sede Madrid

Calle Virgilio, 25, 28223 Pozuelo de Alarcón, Madrid. Metro Ligero. (Instalación de Keedio)

¿Te interesa recibir formación tecnológica de máximo nivel en las temáticas más demandadas en el mercado laboral Español?