Contratación tecnológica y Formación tecnológica en Introducción a Big data

Curso orientado a introducir y explicar los principales conceptos y tecnologías del campo Big Data.

 

Duración

Entre 150 y 500 horas

Modalidad

Presencial

Inicio

Abierta del 1 Septiembre al 31 Oct. 17

Impulsado por

Asime y Red.es

¿Te interesa ser contratado y recibir formación tecnológica de máximo nivel en las temáticas más demandadas en el mercado laboral Español?

Objetivos

Capacitar a las personas seleccionadas en una de las tecnologías más demandadas en el mercado laboral y garantizar la incorporación a este con funciones asociadas a las TIC y a la Economía Digital.

Coste

Formación gratuita. Retribución laboral acorde a convenio.
N

Requisitos de acceso

Inscribirse o estar adscrito en Garantía Juvenil: Menor de 30 años, estudios finalizados y en estado de desempleo.

}

Horario

Solicita información sin compromiso y te comentaremos los horarios y fechas para siguientes convocatorias.

Plan de estudios

Índice De Contenidos
INTRODUCCIÓN y TEORÍA – NEGOCIO, MERCADO Y CONCEPTOS GENERALES

  • Qué es y qué no es BigData
  • La cadena de valor de BigData.
  • Big Data frente a otros paradigmas: sistemas HPC, Grid y BBDD relacionales. Explicar cuándo conviene utilizar cada uno.
  • BI vs BigData
  • Tecnologías Big Data
    • Plataformas
    • Principales diferencias entre ellas.
    • Módulos de una arquitectura, fuentes y destinos de los datos
    • Entorno Operativo.
      • Cloud vs On-Premise
      • IaaS, PaaS, SaaS
  • Perfiles profesionales en Big Data
  • Fases de un proyecto. Descripción, herramientas y perfiles involucrados
  • Regulación y normativa vigentes
  • Mercado de tecnologías y servicios Big Data.
    • Visión de qué se vende/comercializa en el sector y quién lo hace
    • Modelos de negocio
    • Actores principales incluyendo, por ejemplo, la Apache Software Foundation, no solo empresas.
  • Casos de éxito y casos de fracaso concretos.
  • Modelos de negocio
    • Modelos de negocio alrededor de los datos
Big Data – Conceptos Técnicos Y Operaciones
  • Arquitecturas lambda, kappa.
  • Hadoop Core. Fundamentos de almacenamiento y procesado distribuidos
    • Yarn
    • Serialización
  • Sequence file, AVRO y Parquet
  • Planificación de despliegue de la Plataformas.
  • Servicios Cloud. Introducción general a servicios cloud y equivalencia entre los bloques estudiados y los servicios en Azure.
  • Preparación de la Infraestructura.
  • Data Stack . Incluye práctica de instalación, despliegue y configuración.
    • Instalación de Ambari.
    • Instalación de Data Stack.
    • Configuración de los Servicios (Master, Slaves y Clientes)
    • Administración de nodos en el Cluster
    • Mantenimiento de nodos
    • configuración sobre los nodos.
    • Manager:
  • Administración de Servicios
  • Gestión de versiones de Configuración de los componentes.
  • Administración de versiones.
Programación – Introducción A Scala
  • Programación en Scala:
    • ¿Qué es Scala?.
    • Conceptos y sintaxis básica.
    • Objetos y Clases.
    • Estructuras de Control.
    • Excepciones
Big Data – Data Pipeline & Management
  • Ingesta: funciones de la etapa de ingesta, conceptos comunes a las tecnologías y comparativa de las mismas. Posibles fuentes (entradas) y sumideros (salidas) de cada una.
    • Flume: API y configuración
    • NiFi: processors, controllers & groups
    • Logstash, Kettle
  • Sistemas de mensajería: buses y colas. Diferenciación entre proveedores JMS y Kafka para entender cuándo es útil cada opción. Para cada una de las dos se abordarán conceptos, funcionamiento y ámbito de aplicación
    • JMS: AMQP, ActiveMQ, Rabbit….
    • Kafka
  • HDFS:
    • Alta disponibilidad.
    • Control de accesos.
    • Comandos básicos.
    • Snapshots
    • WebHDFS y NFS. Servicios de acceso a HDFS.
  • Gestión de recursos. YARN:
    • Overview
    • Capacity Scheduler
    • Consola de visualización de procesos.
    • Comandos básicos
  • Computación. Alternativas
    • MapReduce:
  • Desarrollo en batch.
    • Hive:
  • Metastore (metadata).
  • Consultas básicas.
    • Apache Spark. Principios generales
  • Arquitectura
  • Modelo de ejecución
  • Planificadores
    • Apache Storm. Principios generales
  • Arquitectura
  • Modelo de ejecución
  • Planificadores
  • Bases de datos, interfaces y motores de búsqueda. Conceptos y uso (APIs, CLI, Web…)
    • Categorías. Documents Store, Key/Value, Search.
    • Cassandra, Couchbase, MongoDB
    • Hive, Impala, Kudu
    • Elasticsearch, Solr
  • Apache Oozie:
    • Workflow Scheduler
  • Herramientas de Visusalización e Integración:
    • Grafana y/o Kibana
    • Herramientas clásicas de BI con conexión a KDS.
    • Visualización de Streaming.

Lugares de impartición

Sede Madrid

Calle Virgilio, 25, 28223 Pozuelo de Alarcón, Madrid. Metro Ligero. (Instalación de Keedio)

¿Te interesa ser contratado y recibir formación tecnológica de máximo nivel en las temáticas más demandadas en el mercado laboral Español?