Cursos de Big Data

Cursos de Big Data

Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en España o en los centros de capacitación corporativa de NobleProg en España, la segunda se lleva a cabo a través de un escritorio remoto interactivo.

NobleProg -- The World's Local Trainer Provider

Testimonios

★★★★★
★★★★★

Programa del curso Big Data

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
21 horas
Descripción General
Apache Accumulo es un almacén de claves / valores ordenados y distribuidos que proporciona almacenamiento y recuperación de datos robustos y escalables. Está basado en el diseño de BigTable de Google y está impulsado por Apache Hadoop, Apache Zookeeper y Apache Thrift.

Este curso cubre los principios de trabajo detrás de Accumulo y guía a los participantes a través del desarrollo de una aplicación de muestra en Apache Accumulo.

Audiencia

Desarrolladores de aplicaciones
Ingenieros de software
Consultores técnicos

Formato del curso

Conferencia de parte, parte de discusión, desarrollo e implementación práctica, pruebas ocasionales para medir comprensión
7 horas
Descripción General
Kafka Streams es una biblioteca del lado del cliente para la creación de aplicaciones y microservicios cuyos datos se transmiten desde y hacia un sistema de mensajería Kafka. Tradicionalmente, Apache Kafka ha confiado en Apache Spark o Apache Storm para procesar datos entre productores de mensajes y consumidores. Al llamar a Kafka Streams API desde dentro de una aplicación, los datos se pueden procesar directamente dentro de Kafka, pasando por alto la necesidad de enviar los datos a un clúster separado para su procesamiento.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.

Al final de esta capacitación, los participantes podrán:

- Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
- Procesar datos de flujo directamente dentro de un clúster de Kafka
- Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
- Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
- Construye, empaqueta y despliega la aplicación

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
28 horas
Descripción General
MemSQL es un sistema de administración de bases de datos SQL distribuidas y en memoria para la nube y las instalaciones. Es un almacén de datos en tiempo real que brinda información de forma inmediata a partir de datos históricos y en vivo.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los elementos esenciales de MemSQL para el desarrollo y la administración.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos clave y las características de MemSQL
- Instalar, diseñar, mantener y operar MemSQL
- Optimizar esquemas en MemSQL
- Mejorar las consultas en MemSQL
- Rendimiento de referencia en MemSQL
- Construya aplicaciones de datos en tiempo real usando MemSQL

Audiencia

- Desarrolladores
- Administradores
- Ingenieros de operación

Formato del curso

- Conferencia de parte, discusiaón en parte, ejercicios y práctica práctica
21 horas
Descripción General
El análisis predictivo es el proceso de usar el análisis de datos para hacer predicciones sobre el futuro. Este proceso utiliza datos junto con la extracción de datos, estadísticas y técnicas de aprendizaje automático para crear un modelo predictivo para pronosticar eventos futuros.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar Matlab para construir modelos predictivos y aplicarlos a grandes conjuntos de datos de muestra para predecir eventos futuros basados en los datos.

Al final de esta capacitación, los participantes podrán:

- Crear modelos predictivos para analizar patrones en datos históricos y transaccionales
- Use modelos predictivos para identificar riesgos y oportunidades
- Cree modelos matemáticos que capturen tendencias importantes
- Use datos de dispositivos y sistemas comerciales para reducir el desperdicio, ahorrar tiempo o reducir costos

Audiencia

- Desarrolladores
- Ingenieros
- Expertos de dominio

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los conceptos básicos detrás de MapR Stream Architecture mientras desarrollan una aplicación de transmisión en tiempo real.

Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.

Audiencia

- Desarrolladores
- Administradores

Formato de la carrera

- Parte de lectura, parte de discusión, ejercicios y práctica práctica

Nota

- Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
14 horas
Descripción General
Magellan es un motor de ejecución distribuida de código abierto para el análisis geoespacial en big data. Implementado sobre Apache Spark, amplía Spark SQL y proporciona una abstracción relacional para el análisis geoespacial.

Esta capacitación en vivo dirigida por un instructor presenta los conceptos y enfoques para implementar el análisis geospacial y guía a los participantes a través de la creación de una aplicación de análisis predictivo utilizando Magellan en Spark.

Al final de esta capacitación, los participantes podrán:

- Consultar, analizar y unir datos geoespaciales de manera eficiente a escala
- Implementar datos geoespaciales en inteligencia empresarial y aplicaciones de análisis predictivo
- Utilice el contexto espacial para ampliar las capacidades de dispositivos móviles, sensores, registros y dispositivos portátiles

Audiencia

- Desarrolladores de aplicaciones

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Apache Kylin es un motor de análisis extremo y distribuido para Big Data.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real.

Al final de esta capacitación, los participantes podrán:

- Consume datos de transmisión en tiempo real usando Kylin
- Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano

Nota

- Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0)

Audiencia

- Grandes ingenieros de datos
- Analistas de Big Data

Formato del curso

Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
Confluent KSQL is a stream processing framework built on top of Apache Kafka. It enables real-time data processing using SQL operations.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.

By the end of this training, participants will be able to:

- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 horas
Descripción General
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 horas
Descripción General
KNIME Analytics Platform es una opción de código abierto líder para la innovación basada en datos, que le ayuda a descubrir el potencial oculto en sus datos, extraer nuevas ideas o predecir nuevos futuros. Con más de 1000 módulos, cientos de ejemplos listos para ejecutar, una amplia gama de herramientas integradas y la más amplia variedad de algoritmos avanzados disponibles, KNIME Analytics Platform es la caja de herramientas perfecta para cualquier científico de datos y analista de negocios.

Este curso para KNIME Analytics Platform es una oportunidad ideal para que los principiantes, usuarios avanzados y expertos de KNIME se presenten a KNIME , aprendan cómo usarlo de manera más efectiva y cómo crear informes claros y completos basados en los flujos de trabajo de KNIME
21 horas
Descripción General
El descubrimiento de conocimiento en bases de datos (KDD) es el proceso de descubrir conocimiento útil de una colección de datos. Las aplicaciones de la vida real para esta técnica de minería de datos incluyen marketing, detección de fraude, telecomunicaciones y fabricación.

En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos.

Audiencia

- Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas

Formato del curso

- Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
21 horas
Descripción General
A diferencia de otras tecnologías, IoT es mucho más complejo que abarca casi todas las ramas del núcleo de Ingeniería: Mecánica, Electrónica, Firmware, Middleware, Cloud, Analytics y Mobile. Para cada una de sus capas de ingeniería, hay aspectos de economía, estándares, regulaciones y estado de la técnica en evolución. Esto es para los primeros tiempos, se ofrece un curso modesto para cubrir todos estos aspectos críticos de la ingeniería de IoT.

Resumen

- Un programa de entrenamiento avanzado que cubre el estado actual del arte en Internet de las Cosas
- Cortes en múltiples dominios de tecnología para desarrollar el conocimiento de un sistema IoT y sus componentes y cómo puede ayudar a las empresas y organizaciones.
- Demo en vivo de las aplicaciones modelo IoT para mostrar implementaciones prácticas de IoT en diferentes dominios de la industria, como Industrial IoT, Smart Cities, Retail, Travel & Transportation y casos de uso relacionados con dispositivos conectados y cosas

Público objetivo

- Gerentes responsables de los procesos comerciales y operativos dentro de sus respectivas organizaciones y quieren saber cómo aprovechar IoT para hacer que sus sistemas y procesos sean más eficientes.
- Emprendedores e Inversores que buscan desarrollar nuevas empresas y desean desarrollar una mejor comprensión del panorama de la tecnología IoT para ver cómo pueden aprovecharla de manera efectiva.

Duración 3 días (8 horas / día)

Las estimaciones para Internet of Things o el valor de mercado de IoT son masivas, ya que, por definición, el IoT es una capa integrada y difusa de dispositivos, sensores y potencia informática que superpone a industrias de consumo, de empresa a empresa y gubernamentales. El IoT representará un número cada vez mayor de conexiones: 1.900 millones de dispositivos en la actualidad y 9.000 millones en 2018. Ese año, será aproximadamente igual a la cantidad de teléfonos inteligentes, televisores inteligentes, tabletas, computadoras portátiles y PC combinadas.

En el espacio para el consumidor, muchos productos y servicios ya han entrado en el IoT, incluyendo cocina y electrodomésticos, estacionamiento, RFID, productos de iluminación y calefacción, y varias aplicaciones en Internet Industrial.

Sin embargo, las tecnologías subyacentes de IoT no son nada nuevas, ya que la comunicación M2M existía desde el nacimiento de Internet. Sin embargo, lo que cambió en los últimos años es la aparición de tecnologías inalámbricas de bajo costo agregadas por la abrumadora adaptación de teléfonos inteligentes y tabletas en todos los hogares. El crecimiento explosivo de los dispositivos móviles condujo a la demanda actual de IoT.

Debido a las oportunidades ilimitadas en el negocio de IoT, un gran número de pequeños y medianos empresarios se subieron al carro de la fiebre del oro de IoT. También debido a la aparición de la electrónica de código abierto y la plataforma IoT, el costo de desarrollo del sistema IoT y la gestión adicional de su producción considerable es cada vez más asequible. Los propietarios de productos electrónicos existentes están experimentando presión para integrar su dispositivo con Internet o la aplicación móvil.

Esta capacitación está destinada a una revisión tecnológica y empresarial de una industria emergente para que los entusiastas / emprendedores de IoT puedan comprender los conceptos básicos de tecnología y negocio de IoT.

Objetivo del curso

El objetivo principal del curso es presentar opciones tecnológicas emergentes, plataformas y estudios de casos de implementación de IoT en automatización de hogares y ciudades (hogares y ciudades inteligentes), Internet Industrial, salud, Gobierno, Mobile Cellular y otras áreas.

- Introducción básica de todos los elementos de IoT-Mechanical, electrónica / plataforma de sensores, protocolos inalámbricos y alámbricos, integración móvil a electrónica, integración móvil a empresa, análisis de datos y plano de control total
- Protocolos inalámbricos M2M para IoT-WiFi, Zigbee / Zwave, Bluetooth, ANT +: ¿Cuándo y dónde usar cuál?
- Aplicación móvil / de escritorio / web para registro, adquisición de datos y control - Plataforma de adquisición de datos M2M disponible para IoT - Xively, Omega y NovoTech, etc.
- Problemas de seguridad y soluciones de seguridad para IoT
- Plataforma electrónica de código abierto / comercial para IoT-Raspberry Pi, Arduino, ArmMbedLPC, etc.
- Plataforma cloud de empresa abierta / comercial para aplicaciones AWS-IoT, Azure -IOT, Watson-IOT en la nube, además de otras nubes menores de IoT
- Estudios de negocios y tecnología de algunos de los dispositivos comunes de IoT como Domótica, Alarma de humo, vehículos, militares, salud en el hogar, etc.
28 horas
Descripción General
MonetDB es una base de datos de código abierto que fue pionera en el enfoque de la tecnología columna-tienda.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar MonetDB y cómo sacar el máximo provecho de ella.

Al final de esta capacitación, los participantes podrán:

- Comprender MonetDB y sus características
- Instalar y comenzar con MonetDB
- Explora y realiza diferentes funciones y tareas en MonetDB
- Acelere la entrega de su proyecto maximizando las capacidades de MonetDB

Audiencia

- Desarrolladores
- Expertos técnicos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
El procesamiento de flujo se refiere al procesamiento en tiempo real de "datos en movimiento", es decir, realizar cálculos sobre datos a medida que se reciben. Dichos datos se leen como flujos continuos de fuentes de datos tales como eventos de sensores, actividad de usuarios de sitios web, transacciones financieras, transferencias de tarjetas de crédito, transmisiones de clics, etc. Los marcos de procesamiento de flujos pueden leer grandes volúmenes de datos entrantes y proporcionar información valiosa casi instantáneamente.

En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.

Al final de esta capacitación, los participantes podrán:

- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios

Audiencia

- Desarrolladores
- Arquitectos de software

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
14 horas
Descripción General
Este curso es para

- Desarrolladores

Formato del curso

- Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
21 horas
Descripción General
Cloudera Impala es un motor de consulta SQL de procesamiento masivo paralelo (MPP) de código abierto para clústeres Apache Hadoop.

Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos.

Audiencia

Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL.

Después de este curso, los delegados podrán

- Extraer información significativa de los clústeres de Hadoop con Impala.
- Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
- Solucionar problemas de Impala.
7 horas
Descripción General
Este curso cubre cómo usar el lenguaje Hive SQL (AKA: Hive HQL, SQL en Hive, HiveQL) para personas que extraen datos de Hive
21 horas
Descripción General
Hortonworks Data Platform es una plataforma de soporte de Apache Hadoop de código abierto que proporciona una base estable para el desarrollo de soluciones de big data en el ecosistema de Apache Hadoop.

Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.

Al final de esta capacitación, los participantes podrán:

- Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
- Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
- Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.

Audiencia

- Administradores de Hadoop

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase.

Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
28 horas
Descripción General
Hadoop es un popular marco de procesamiento Big Data. Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
- Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
- Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
- Usa mrjob para escribir trabajos de MapReduce en Python
- Escribir programas Spark con Python
- Extienda la funcionalidad del cerdo usando las UDF de Python
- Administrar trabajos de MapReduce y scripts Pig utilizando Luigi

Audiencia

- Desarrolladores
- Profesionales de TI

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
28 horas
Descripción General
Audiencia:

Este curso pretende desmitificar la tecnología de datos / hadoop y demostrar que no es difícil de entender.
14 horas
Descripción General
A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data.

Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop.

En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI.

Audiencia

- Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente
- Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
This instructor-led, live training (onsite or remote) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
21 horas
Descripción General
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Apachi NiFi
- Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
- Automatice los flujos de datos
- Habilitar análisis de transmisión
- Aplicar varios enfoques para la ingestión de datos
- Transformar Big Data y en conocimientos empresariales

Audiencia

- Administradores del sistema
- Ingenieros de datos
- Desarrolladores
- DevOps

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Teradata es un popular sistema de Management Database Management Database relacionales para crear aplicaciones de almacenamiento de datos a gran escala. Teradata logra esto a través del paralelismo.

Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) está dirigida a desarrolladores e ingenieros de aplicaciones que desean dominar usos más sofisticados de la base de datos de Teradata .

Al final de esta capacitación, los participantes podrán:

- Administra el espacio de Teradata .
- Proteger y distribuir datos en Teradata .
- Leer Explicar el plan.
- Mejora el dominio de SQL .
- Utiliza las principales utilidades de Teradata .

Formato del curso

- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.

Opciones de personalización del curso

- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
35 horas
Descripción General
MLlib es la biblioteca de aprendizaje automático (ML) de Spark. Su objetivo es hacer que el aprendizaje práctico de la máquina sea escalable y fácil. Consiste en algoritmos comunes de aprendizaje y utilidades, incluyendo clasificación, regresión, agrupación, filtrado colaborativo, reducción de dimensionalidad, así como primitivas de optimización de nivel más bajo y API de oleoducto de nivel superior.

Se divide en dos paquetes:

- spark.mllib contiene la API original construida sobre RDDs.
- spark.ml proporciona una API de nivel superior construida en la parte superior de DataFrames para la construcción de tuberías de ML.

Audiencia

Este curso está dirigido a ingenieros y desarrolladores que buscan utilizar una biblioteca de máquinas construida para Apache Spark
14 horas
Descripción General
Apache Zeppelin es un portátil basado en web para capturar, explorar, visualizar y compartir datos basados en Hadoop y Spark.

Esta capacitación en vivo dirigida por un instructor presenta los conceptos detrás del análisis interactivo de datos y guía a los participantes a través de la implementación y el uso de Zeppelin en un entorno de usuario único o multiusuario.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Zeppelin
- Desarrollar, organizar, ejecutar y compartir datos en una interfaz basada en navegador
- Visualice resultados sin consultar la línea de comando o los detalles del clúster
- Ejecute y colabore en flujos de trabajo largos
- Trabaja con cualquiera de los lenguajes de plug-in / back-end de procesamiento de datos, como Scala (con Apache Spark), Python (con Apache Spark), Spark SQL, JDBC, Markdown y Shell.
- Integra Zeppelin con Spark, Flink y Map Reduce
- Asegure las instancias multiusuario de Zeppelin con Apache Shiro

Audiencia

- Ingenieros de datos
- Analistas de datos
- Científicos de datos
- Desarrolladores de software

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Vespa, un motor de procesamiento y publicación de grandes volúmenes de código abierto creado por Yahoo. Se utiliza para responder a las consultas de los usuarios, hacer recomendaciones y proporcionar contenido personalizado y publicidades en tiempo real.

Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real.

Al final de esta capacitación, los participantes podrán:

- Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
- Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
- Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios.

Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.

Al final de esta capacitación, los participantes podrán:

- Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
- Fuentes de flujo de procesos como Twitter y registros de servidor web
- Utilice Tigon para unir, filtrar y agregar secuencias rápidamente

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Teradata es uno de los sistemas de gestión de bases de datos relacionales. Es principalmente adecuado para la construcción de aplicaciones de almacenamiento a datos a gran escala. Teradata logró esto por el concepto de paralelismo.

Este curso introduce a los delegados a Teradata
Cursos de Fin de Semana de Big Data, Capacitación por la Tarde de Big Data, Big Data boot camp, Clases de Big Data, Capacitación de Fin de Semana de Big Data, Cursos por la Tarde de Big Data, Big Data coaching, Instructor de Big Data, Capacitador de Big Data, Big Data con instructor, Cursos de Formación de Big Data, Big Data en sitio, Cursos Privados de Big Data, Clases Particulares de Big Data, Capacitación empresarial de Big Data, Talleres para empresas de Big Data, Cursos en linea de Big Data, Programas de capacitación de Big Data, Clases de Big Data

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No vamos a pasar o vender su dirección a otros.
Siempre puede cambiar sus preferencias o anular la suscripción por completo.

Algunos de nuestros clientes

is growing fast!

We are looking to expand our presence in Spain!

As a Business Development Manager you will:

  • expand business in Spain
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!