Cursos de Big Data

Big Data Training

El Big Data o Datos masivos (datos a gran escala) es un concepto que hace referencia a la acumulación masiva de datos y a los procedimientos usados para identificar patrones recurrentes dentro de esos datos.
Soluciones Big Data se han desarrollado inicialmente por Google, sin embargo, ahora una gran cantidad de implementaciones de código abierto (open-source) están disponibles, incluyendo Apache Hadoop, Cassandra o Cloudera Impala. De acuerdo con informes de Gartner Big Data es el próximo gran paso en TI justo después de la computación en nube y será una tendencia principal en los próximos años.

Testimonios de los Clientes

Programas de los Cursos de Big Data

Código Nombre Duración Información General
hadoopadm1 Hadoop para Administradores 21 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos. "... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado " - Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising Audiencia Administradores de Hadoop Formato Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
glusterfs GlusterFS para administradores de sistemas 21 horas GlusterFS es un sistema de almacenamiento de archivos distribuidos de código abierto que puede escalar hasta petabytes de capacidad. GlusterFS está diseñado para proporcionar espacio adicional según los requisitos de almacenamiento del usuario. Una aplicación común para GlusterFS son los sistemas de almacenamiento en la nube. En esta capacitación guiada por un instructor, los participantes aprenderán cómo usar el hardware normal y listo para usar para crear e implementar un sistema de almacenamiento que sea escalable y esté siempre disponible. Al final del curso, los participantes podrán: Instale, configure y mantenga un sistema GlusterFS a escala completa. Implemente sistemas de almacenamiento a gran escala en diferentes tipos de entornos. Audiencia Administradores del sistema Administradores de almacenamiento Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica práctica.  
mdlmrah Model MapReduce y Apache Hadoop 14 horas El curso está destinado al especialista en TI que trabaja con el procesamiento distribuido de grandes conjuntos de datos a través de grupos de computadoras.
vespa Vespa: Sirve Datos a Gran Escala en Tiempo Real 14 horas Vespa, un motor de procesamiento y publicación de grandes volúmenes de código abierto creado por Yahoo. Se utiliza para responder a las consultas de los usuarios, hacer recomendaciones y proporcionar contenido personalizado y publicidades en tiempo real. Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real. Al final de esta capacitación, los participantes podrán: Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm. Audiencia Desarrolladores Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
matlabpredanalytics Matlab para Análisis Predictivo 21 horas El análisis predictivo es el proceso de usar el análisis de datos para hacer predicciones sobre el futuro. Este proceso utiliza datos junto con la extracción de datos, estadísticas y técnicas de aprendizaje automático para crear un modelo predictivo para pronosticar eventos futuros. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar Matlab para construir modelos predictivos y aplicarlos a grandes conjuntos de datos de muestra para predecir eventos futuros basados en los datos. Al final de esta capacitación, los participantes podrán: Crear modelos predictivos para analizar patrones en datos históricos y transaccionales Use modelos predictivos para identificar riesgos y oportunidades Cree modelos matemáticos que capturen tendencias importantes Use datos de dispositivos y sistemas comerciales para reducir el desperdicio, ahorrar tiempo o reducir costos Audiencia Desarrolladores Ingenieros Expertos de dominio Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
solrdev Solr para Desarrolladores 21 horas Este curso introduce a los estudiantes a la plataforma Solr. A través de una combinación de conferencias, discusiones y laboratorios, los estudiantes tendrán experiencia en la configuración de una búsqueda e indexación eficaces. La clase comienza con la instalación y configuración básica de Solr y enseña a los asistentes las funciones de búsqueda de Solr. Los estudiantes obtendrán experiencia con facetas, indexación y relevancia de búsqueda entre otras características centrales de la plataforma Solr. El curso se completa con una serie de temas avanzados, incluyendo corrección ortográfica, sugerencias, Multicore y SolrCloud.
kylin Apache Kylin: Del clásico OLAP al almacén de datos en tiempo real 14 horas Apache Kylin es un motor de análisis extremo y distribuido para Big Data. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real. Al final de esta capacitación, los participantes podrán: Consume datos de transmisión en tiempo real usando Kylin Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano Nota Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0) Audiencia Grandes ingenieros de datos Analistas de Big Data Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
rintrob Introducción R para Biólogos 28 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has also found followers among statisticians, engineers and scientists without computer programming skills who find it easy to use. Its popularity is due to the increasing use of data mining for various goals such as set ad prices, find new drugs more quickly or fine-tune financial models. R has a wide variety of packages for data mining.
ApacheIgnite Apache Ignite: Mejora la Velocidad, la Escala y la Disponibilidad con la Informática en la Memoria 14 horas Apache Ignite es una plataforma informática en memoria que se encuentra entre la aplicación y la capacidad de datos para mejorar la velocidad, la escala y la disponibilidad. En este entrenamiento en vivo dirigido por un instructor, los participantes aprendieron los principios detrás del almacenamiento persistente y puro en la memoria a medida que avanzan en la creación de un proyecto de ejemplo de computación en memoria. Al final de esta capacitación, los participantes podrán: Utilice Ignite para la memoria en la memoria, la persistencia en disco y una base de datos en memoria puramente distribuida Logre la persistencia sin sincronizar los datos a una base de datos relacionales Use Ignite para llevar a cabo SQL y Uniones Distribuidas Mejore el rendimiento moviendo los datos más cerca de la CPU, usando la RAM como almacenamiento Extienda conjuntos de datos en un clúster para lograr la escalabilidad horizontal Integre Ignite con RDBMS, NoSQL, Hadoop y procesadores de aprendizaje automático Audiencia Desarrolladores Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hadoopdev Hadoop para Desarrolladores (4 días) 28 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. Este curso presentará un desarrollador a varios componentes (HDFS, MapReduce, Pig, Hive y HBase) Hadoop ecosistema.
zeppelin Zeppelin para Análisis de Datos Interactivos 14 horas Apache Zeppelin es un portátil basado en web para capturar, explorar, visualizar y compartir datos basados en Hadoop y Spark. Esta capacitación en vivo dirigida por un instructor presenta los conceptos detrás del análisis interactivo de datos y guía a los participantes a través de la implementación y el uso de Zeppelin en un entorno de usuario único o multiusuario. Al final de esta capacitación, los participantes podrán: Instalar y configurar Zeppelin Desarrollar, organizar, ejecutar y compartir datos en una interfaz basada en navegador Visualice resultados sin consultar la línea de comando o los detalles del clúster Ejecute y colabore en flujos de trabajo largos Trabaja con cualquiera de los lenguajes de plug-in / back-end de procesamiento de datos, como Scala (con Apache Spark), Python (con Apache Spark), Spark SQL, JDBC, Markdown y Shell. Integra Zeppelin con Spark, Flink y Map Reduce Asegure las instancias multiusuario de Zeppelin con Apache Shiro Audiencia Ingenieros de datos Analistas de datos Científicos de datos Desarrolladores de software Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
kdd Descubrir Conocimiento en Bases de Datos 21 horas El descubrimiento de conocimiento en bases de datos (KDD) es el proceso de descubrir conocimiento útil de una colección de datos. Las aplicaciones de la vida real para esta técnica de minería de datos incluyen marketing, detección de fraude, telecomunicaciones y fabricación. En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos. Audiencia      Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas Formato del curso      Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
datameer Datameer para Analistas de Datos 14 horas Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos. Al final de esta capacitación, los participantes podrán: Crea, selecciona e interactivamente explora un lago de datos empresariales Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo Acceda a funciones preconstruidas para explorar relaciones de datos complejas Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas Audiencia Analistas de datos Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
68780 Apache Spark 14 horas
dataar Análisis de Datos con R 21 horas R es un entorno de código abierto muy popular para la informática estadística, análisis de datos y gráficos. Este curso introduce el lenguaje de programación R a los estudiantes. Cubre los fundamentos del lenguaje, las bibliotecas y los conceptos avanzados. Análisis de datos y gráficos avanzados con datos del mundo real. Audiencia Desarrolladores / análisis de datos Duración 3 días Formato Conferencias y prácticas
samza Samza para el Procesamiento de la Secuencia 14 horas Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos. Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos. Al final de esta capacitación, los participantes podrán: Usa Samza para simplificar el código necesario para producir y consumir mensajes Desacoplar el manejo de los mensajes de una aplicación Utilice Samza para implementar cálculos asincrónicos casi en tiempo real Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería Audiencia Desarrolladores Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
bdbiga Inteligencia de Negocios de Big Data para Agencias del Gobierno 35 horas Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que los negocios se llevan a cabo en muchas industrias, incluyendo el gobierno. Los índices de generación de gobierno y de archivos digitales están aumentando debido al rápido crecimiento de dispositivos y aplicaciones móviles, sensores y dispositivos inteligentes, soluciones de cloud computing y portales orientados a los ciudadanos. A medida que la información digital se expande y se vuelve más compleja, la gestión de la información, el procesamiento, el almacenamiento, la seguridad y la disposición también se vuelven más complejos. Las nuevas herramientas de captura, búsqueda, descubrimiento y análisis están ayudando a las organizaciones a obtener información sobre sus datos no estructurados. El mercado gubernamental está en un punto de inflexión, al darse cuenta de que la información es un activo estratégico y el gobierno necesita proteger, aprovechar y analizar información estructurada y no estructurada para servir mejor y cumplir con los requisitos de la misión. A medida que los líderes del gobierno se esfuerzan por evolucionar las organizaciones impulsadas por datos para cumplir con éxito la misión, están sentando las bases para correlacionar dependencias a través de eventos, personas, procesos e información. Las soluciones gubernamentales de alto valor se crearán a partir de un mashup de las tecnologías más perjudiciales: Dispositivos y aplicaciones móviles Servicios en la nube Tecnologías de redes sociales y redes Big Data y análisis IDC predice que para el año 2020, la industria de TI alcanzará los $ 5 billones, aproximadamente $ 1.7 trillones más que hoy, y que el 80% del crecimiento de la industria será impulsado por estas tecnologías de la 3ª Plataforma. A largo plazo, estas tecnologías serán herramientas clave para hacer frente a la complejidad del aumento de la información digital. Big Data es una de las soluciones inteligentes de la industria y permite al gobierno tomar mejores decisiones tomando medidas basadas en patrones revelados al analizar grandes volúmenes de datos relacionados y no relacionados, estructurados y no estructurados. Pero el logro de estas hazañas lleva mucho más que la simple acumulación de cantidades masivas de datos. "Haciendo sentido de estos volúmenes de Big Datarequires herramientas de vanguardia y" tecnologías que pueden analizar y extraer conocimiento útil de las corrientes de información vasta y diversa ", Tom Kalil y Fen Zhao de la Oficina de la Casa Blanca de Política Científica y Tecnológica escribió en un post en el blog de OSTP. La Casa Blanca dio un paso hacia ayudar a las agencias a encontrar estas tecnologías cuando estableció la Iniciativa Nacional de Investigación y Desarrollo de Grandes Datos en 2012. La iniciativa incluyó más de $ 200 millones para aprovechar al máximo la explosión de Big Data y las herramientas necesarias para analizarla . Los desafíos que plantea Big Data son casi tan desalentadores como su promesa es alentadora. El almacenamiento eficiente de los datos es uno de estos desafíos. Como siempre, los presupuestos son ajustados, por lo que las agencias deben minimizar el precio por megabyte de almacenamiento y mantener los datos de fácil acceso para que los usuarios puedan obtenerlo cuando lo deseen y cómo lo necesitan. Copia de seguridad de grandes cantidades de datos aumenta el reto. Otro gran desafío es analizar los datos de manera eficaz. Muchas agencias emplean herramientas comerciales que les permiten tamizar las montañas de datos, detectando tendencias que pueden ayudarles a operar de manera más eficiente. (Un estudio reciente de MeriTalk encontró que los ejecutivos federales de TI piensan que Big Data podría ayudar a las agencias a ahorrar más de 500.000 millones de dólares mientras cumplen los objetivos de la misión). Las herramientas de Big Data desarrolladas a medida también están permitiendo a las agencias abordar la necesidad de analizar sus datos. Por ejemplo, el Grupo de Análisis de Datos Computacionales del Laboratorio Nacional de Oak Ridge ha puesto a disposición de otras agencias su sistema de análisis de datos Piranha. El sistema ha ayudado a los investigadores médicos a encontrar un vínculo que puede alertar a los médicos sobre los aneurismas de la aorta antes de que hagan huelga. También se utiliza para tareas más mundanas, tales como tamizar a través de currículos para conectar candidatos de trabajo con los gerentes de contratación.
datavault Bóveda de Datos: Creación de un Almacén de Datos Escalable 28 horas El modelado de bóvedas de datos es una técnica de modelado de bases de datos que proporciona almacenamiento histórico a largo plazo de datos que provienen de múltiples fuentes. Una bóveda de datos almacena una única versión de los hechos, o "todos los datos, todo el tiempo". Su diseño flexible, escalable, consistente y adaptable abarca los mejores aspectos de la tercera forma normal (3NF) y el esquema de estrella. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a construir una Bóveda de datos. Al final de esta capacitación, los participantes podrán: Comprender los conceptos de arquitectura y diseño detrás de Data Vault 2.0 y su interacción con Big Data, NoSQL y AI. Utilice las técnicas de bóvedas de datos para habilitar la auditoría, el seguimiento y la inspección de datos históricos en un almacén de datos Desarrollar un proceso ETL consistente (consistente) y repetible (Extraer, Transformar, Cargar) Construya y despliegue almacenes altamente escalables y repetibles Audiencia Modeladores de datos Especialista en almacenamiento de datos Especialistas en inteligencia empresarial Ingenieros de datos Administradores de bases Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
68736 Hadoop for Developers (2 days) 14 horas
bigdatastore Big Data Solución de Almacenamiento - NoSQL 14 horas When traditional storage technologies don't handle the amount of data you need to store there are hundereds of alternatives. This course try to guide the participants what are alternatives for storing and analyzing Big Data and what are theirs pros and cons. This course is mostly focused on discussion and presentation of solutions, though hands-on exercises are available on demand.
flink Flink para Flujo Escalable y Procesamiento de Datos por Lotes 28 horas Apache Flink es un marco de código abierto para flujo escalable y procesamiento de datos por lotes. Este curso presencial, dirigido por un instructor, presenta los principios y enfoques detrás del procesamiento distribuido de datos en secuencia y por lotes, y guía a los participantes a través de la creación de una aplicación de transmisión de datos en tiempo real. Al final de esta capacitación, los participantes podrán: Configure un entorno para desarrollar aplicaciones de análisis de datos Empaque, ejecute y monitoree las aplicaciones de transmisión de datos basadas en Flink y tolerantes a fallas Administrar diversas cargas de trabajo Realice análisis avanzados usando Flink ML Configurar un clúster Flink multinodo Mida y optimice el rendimiento Integrar Flink con diferentes sistemas Big Data Compare las capacidades de Flink con las de otros marcos de procesamiento de big data Audiencia Desarrolladores Arquitectos Ingenieros de datos Profesionales de analítica Gerentes técnicos Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
datashrinkgov Data Shrinkage para el Gobierno 14 horas
deckgl deck.gl: Visualización de Datos Geoespaciales a Gran Escala 14 horas deck.gl es una biblioteca de fuente abierta, impulsada por WebGL para explorar y visualizar activos de datos a escala. Creado por Uber, es especialmente útil para obtener información de fuentes de datos geoespaciales, como datos en mapas. Esta capacitación en vivo dirigida por un instructor presenta los conceptos y la funcionalidad detrás de deck.gl y guía a los participantes a través de la configuración de un proyecto de demostración. Al final de esta capacitación, los participantes podrán: Tome datos de colecciones muy grandes y conviértalo en representaciones visuales convincentes Visualice los datos recopilados del transporte y los casos de uso relacionados con el viaje, como las experiencias de recogida y devolución, el tráfico de la red, etc. Aplicar técnicas de estratificación a datos geoespaciales para representar los cambios en los datos a lo largo del tiempo Integra deck.gl con React (para programación reactiva) y Mapbox GL (para visualizaciones en mapas basados ​​en Mapbox). Comprender y explorar otros casos de uso de deck.gl, que incluyen la visualización de puntos recopilados de un escaneo 3D en interiores, la visualización de modelos de aprendizaje automático para optimizar sus algoritmos, etc. Audiencia Desarrolladores Científicos de datos Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
bigdarch Big Data Architect 35 horas Day 1 - provides a high-level overview of essential Big Data topic areas. The module is divided into a series of sections, each of which is accompanied by a hands-on exercise. Day 2 - explores a range of topics that relate analysis practices and tools for Big Data environments. It does not get into implementation or programming details, but instead keeps coverage at a conceptual level, focusing on topics that enable participants to develop a comprehensive understanding of the common analysis functions and features offered by Big Data solutions. Day 3 - provides an overview of the fundamental and essential topic areas relating to Big Data solution platform architecture. It covers Big Data mechanisms required for the development of a Big Data solution platform and architectural options for assembling a data processing platform. Common scenarios are also presented to provide a basic understanding of how a Big Data solution platform is generally used.  Day 4 - builds upon Day 3 by exploring advanced topics relatng to Big Data solution platform architecture. In particular, different architectural layers that make up the Big Data solution platform are introduced and discussed, including data sources, data ingress, data storage, data processing and security.  Day 5 - covers a number of exercises and problems designed to test the delegates ability to apply knowledge of topics covered Day 3 and 4. 
hadoopba Hadoop para Analistas de Negocios 21 horas Apache Hadoop es el marco más popular para el procesamiento de Big Data. Hadoop proporciona una capacidad analítica rica y profunda, y está haciendo in-roads en el mundo analítico de BI tradicional. Este curso presentará a un analista a los componentes principales del sistema Hadoop eco y sus análisis Audiencia Analistas de Negocios Duración tres días Formato Conferencias y manos sobre laboratorios.
hadoopforprojectmgrs Hadoop para jefes de proyecto 14 horas A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data. Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop. En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI. Audiencia Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
bigddbsysfun Big Data & Fundamentos de Sistemas de Bases de Datos 14 horas El curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
datamin Minería de Datos 21 horas Curso puede ser proporcionado con cualquier herramienta, incluyendo libre de código abierto de minería de datos de software y aplicaciones
DM7 Introducción a DM7 21 horas Audience Beginner or intermediate database developers Beginner or intermediate database administrators Programmers Format of the course Heavy emphasis on hands-on practice. Most of the concepts are learned through samples, exercises and hands-on development
osovv Descripción de OpenStack 7 horas El curso está dedicado a ingenieros y arquitectos de TI que buscan una solución para alojar una nube IaaS (Infraestructura como servicio) privada o pública. Esta es también una gran oportunidad para que los administradores de TI obtengan conocimiento sobre las posibilidades que podrían ser habilitadas por OpenStack. Antes de gastar mucho dinero en la implementación de OpenStack, podría considerar todos los pros y contras asistiendo a nuestro curso. Este tema también está disponible como consultoría individual. Objetivo del curso: Obtener conocimientos básicos sobre OpenStack
apex Apache Apex: Procesamiento de Big Data-in-Motion 21 horas Apache Apex es una plataforma nativa de YARN que unifica la transmisión y el procesamiento por lotes. Procesa big data-in-motion de una manera que es escalable, de rendimiento, tolerante a fallas, con estado, seguro, distribuido y de fácil operación. Este curso en vivo dirigido por un instructor presenta la arquitectura de procesamiento de flujo unificado de Apache Apex y guía a los participantes a través de la creación de una aplicación distribuida usando Apex en Hadoop. Al final de esta capacitación, los participantes podrán: Comprender los conceptos de canalización de procesamiento de datos, como conectores para fuentes y sumideros, transformaciones de datos comunes, etc. Cree, escale y optimice una aplicación Apex Procesar flujos de datos en tiempo real de manera confiable y con mínima latencia Utilice Apex Core y la biblioteca Apex Malhar para permitir el desarrollo rápido de aplicaciones Use la API Apex para escribir y reutilizar el código Java existente Integra Apex en otras aplicaciones como un motor de procesamiento Sintonizar, probar y escalar aplicaciones Apex Audiencia Desarrolladores Arquitectos empresariales Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
rprogda Programación R para el Análisis de Datos 14 horas Este curso es parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología)
kdbplusandq kdb + yq: Analizan Datos de Series de Tiempo 21 horas kdb + es una base de datos en memoria, orientada a columnas yq es su lenguaje integrado e interpretado basado en vectores. En kdb +, las tablas son columnas de vectores yq se usa para realizar operaciones en los datos de la tabla como si fuera una lista. kdb + yq se utilizan comúnmente en el comercio de alta frecuencia y son populares entre las principales instituciones financieras, como Goldman Sachs, Morgan Stanley, Merrill Lynch, JP Morgan, etc. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo crear una aplicación de datos de series temporales utilizando kdb + yq. Al final de esta capacitación, los participantes podrán: Comprender la diferencia entre una base de datos orientada a filas y una base de datos orientada a columnas Seleccionar datos, escribir guiones y crear funciones para llevar a cabo análisis avanzados Analizar datos de series de tiempo tales como datos de stock y de intercambio de productos Use las capacidades en memoria de kdb + para almacenar, analizar, procesar y recuperar grandes conjuntos de datos a alta velocidad Piense en funciones y datos en un nivel más alto que el enfoque de función estándar (argumentos) común en lenguajes no vectores Explore otras aplicaciones sensibles al tiempo para kdb +, que incluyen el comercio de energía, telecomunicaciones, datos de sensores, datos de registro y monitoreo de uso de la máquina y la red Audiencia Desarrolladores Ingenieros de bases Científicos de datos Analistas de datos Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hadoopdeva Hadoop Avanzado para Desarrolladores 21 horas Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop. Audiencia: desarrolladores Duración: tres días Formato: conferencias (50%) y laboratorios prácticos (50%).
hadoopmapr Administración de Hadoop en MapR 28 horas Audiencia: Este curso pretende desmitificar la tecnología de datos / hadoop y demostrar que no es difícil de entender.
sparkdev Spark para Desarrolladores 21 horas This course will introduce Apache Spark. The students will learn how  Spark fits  into the Big Data ecosystem, and how to use Spark for data analysis.  The course covers Spark shell for interactive data analysis, Spark internals, Spark APIs, Spark SQL, Spark streaming, and machine learning and graphX. AUDIENCIA: Desarrolladores / analistas de datos
druid Druid:Construir un Sistema Rápido y en Tiempo Real de Análisis de Datos 21 horas Druid es un almacén de datos distribuido orientado a columnas y de código abierto escrito en Java. Fue diseñado para ingerir rápidamente cantidades masivas de datos de eventos y ejecutar consultas OLAP de baja latencia en esos datos. Druid se usa comúnmente en aplicaciones de inteligencia empresarial para analizar grandes volúmenes de datos históricos y en tiempo real. También es adecuado para alimentar cuadros de mandos analíticos rápidos e interactivos para usuarios finales. Druid es utilizado por compañías como Alibaba, Airbnb, Cisco, eBay, Netflix, Paypal y Yahoo. En este curso, exploramos algunas de las limitaciones de las soluciones de almacenamiento de datos y discutimos cómo Druid puede complementar esas tecnologías para formar una pila de análisis de transmisión flexible y escalable. Analizamos muchos ejemplos, ofreciendo a los participantes la oportunidad de implementar y probar soluciones basadas en Druid en un entorno de laboratorio. Audiencia     Desarrolladores de aplicaciones     Ingenieros de software     Consultores técnicos     Profesionales de DevOps     Ingenieros de arquitectura Formato del curso     Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
sparkpython Python and Spark for Big Data (PySpark) 21 horas Python is a high-level programming language famous for its clear syntax and code readibility. Spark is a data processing engine used in querying, analyzing, and transforming big data. PySpark allows users to interface Spark with Python. In this instructor-led, live training, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to: Learn how to use Spark with Python to analyze Big Data Work on exercises that mimic real world circumstances Use different tools and techniques for big data analysis using PySpark Audience Developers IT Professionals Data Scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
magellan Magellan: Geospatial Analytics with on Spark 14 horas Magellan is an open-source distributed execution engine for geospatial analytics on big data. Implemented on top of Apache Spark, it extends Spark SQL and provides a relational abstraction for geospatial analytics. This instructor-led, live training introduces the concepts and approaches for implementing geospacial analytics and walks participants through the creation of a predictive analysis application using Magellan on Spark. By the end of this training, participants will be able to: Efficiently query, parse and join geospatial datasets at scale Implement geospatial data in business intelligence and predictive analytics applications Use spatial context to extend the capabilities of mobile devices, sensors, logs, and wearables Audience Application developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
apachemdev Apache Mahout para Desarrolladores 14 horas Audiencia Desarrolladores involucrados en proyectos que usan el aprendizaje automático con Apache Mahout. Formato Manos en la introducción al aprendizaje de la máquina. El curso se imparte en un formato de laboratorio basado en casos reales de uso práctico.
graphcomputing Introduction to Graph Computing 28 horas A large number of real world problems can be described in terms of graphs. For example, the Web graph, the social network graph, the train network graph and the language graph. These graphs tend to be extremely large; processing them requires a specialized set of tools and mindset referred to as graph computing. In this instructor-led, live training, participants will learn about the various technology offerings and implementations for processing graph data. The aim is to identify real-world objects, their characteristics and relationships, then model these relationships and process them as data using graph computing approaches. We start with a broad overview and narrow in on specific tools as we step through a series of case studies, hands-on exercises and live deployments. By the end of this training, participants will be able to: Understand how graph data is persisted and traversed Select the best framework for a given task (from graph databases to batch processing frameworks) Implement Hadoop, Spark, GraphX and Pregel to carry out graph computing across many machines in parallel View real-world big data problems in terms of graphs, processes and traversals Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
ApHadm1 Apache Hadoop: manipulación y transformación del rendimiento de los datos 21 horas Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular. El enfoque principal del curso es la manipulación y transformación de datos. Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos. Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento. El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
apachedrill Apache Drill for On-the-Fly Analysis of Multiple Big Data Formats 21 horas Apache Drill is a schema-free, distributed, in-memory columnar SQL query engine for Hadoop, NoSQL and and other Cloud and file storage systems. Apache Drill's power lies in its ability to join data from multiple data stores using a single query. Apache Drill supports numerous NoSQL databases and file systems, including HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS and local files. In this instructor-led, live training, participants will learn the fundamentals of Apache Drill, then leverage the power and convenience of SQL to interactively query big data without writing code. Participants will also learn how to optimize their Drill queries for distributed SQL execution. By the end of this training, participants will be able to: Perform "self-service" exploration on structured and semi-structured data on Hadoop Query known as well as unknown data using SQL queries Understand how Apache Drills receives and executes queries Write SQL queries to analyze different types of data, including structured data in Hive, semi-structured data in HBase or MapR-DB tables, and data saved in files such as Parquet and JSON. Use Apache Drill to perform on-the-fly schema discovery, bypassing the need for complex ETL and schema operations Integrate Apache Drill with BI (Business Intelligence) tools such as Tableau, Qlikview, MicroStrategy and Excel Audience Data analysts Data scientists SQL programmers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
IntroToAvro Apache Avro: Serialización de Datos para Aplicaciones Distribuidas 14 horas Este curso es para Desarrolladores Formato del curso Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
bdbitcsp Inteligencia de Negocios Big Data para Proveedores de Servicios de Comunicaciones y Telecomunicaciones 35 horas Los proveedores de servicios de comunicaciones (CSP) se enfrentan a presiones para reducir los costos y maximizar el ingreso promedio por usuario (ARPU), a la vez que garantizan una excelente experiencia del cliente, pero los volúmenes de datos siguen creciendo. El tráfico global de datos móviles crecerá a una tasa de crecimiento anual compuesta (CAGR) de 78 por ciento a 2016, alcanzando 10.8 exabytes al mes. Mientras tanto, los CSP están generando grandes volúmenes de datos, incluyendo registros de detalle de llamadas (CDR), datos de red y datos de clientes. Las empresas que explotan plenamente estos datos ganan una ventaja competitiva. Según una encuesta reciente de The Economist Intelligence Unit, las empresas que utilizan la toma de decisiones orientada a datos disfrutan de un aumento de 5-6% en la productividad. Sin embargo, el 53% de las empresas aprovechan sólo la mitad de sus datos valiosos, y una cuarta parte de los encuestados señaló que gran cantidad de datos útiles no se explotan. Los volúmenes de datos son tan altos que el análisis manual es imposible, y la mayoría de los sistemas de software heredados no pueden mantenerse al día, lo que resulta en que los datos valiosos sean descartados o ignorados. Con el software de datos grande y escalable de Big Data & Analytics, los CSP pueden extraer todos sus datos para una mejor toma de decisiones en menos tiempo. Diferentes productos y técnicas de Big Data proporcionan una plataforma de software de extremo a extremo para recopilar, preparar, analizar y presentar información sobre grandes datos. Las áreas de aplicación incluyen monitoreo del rendimiento de la red, detección de fraude, detección de churn del cliente y análisis de riesgo de crédito. Big Data & Analytics escala de productos para manejar terabytes de datos, pero la implementación de tales herramientas necesitan un nuevo tipo de sistema de base de datos basado en nube como Hadoop o procesador de cálculo paralelo a gran escala (KPU, etc.) Este curso de trabajo sobre Big Data BI para Telco cubre todas las nuevas áreas emergentes en las que los CSP están invirtiendo para obtener ganancias de productividad y abrir nuevos flujos de ingresos empresariales. El curso proporcionará una visión completa de 360 ​​grados de Big Data BI en Telco para que los tomadores de decisiones y los gerentes puedan tener una visión muy amplia y completa de las posibilidades de Big Data BI en Telco para la productividad y la ganancia de ingresos. Objetivos del Curso El objetivo principal del curso es introducir nuevas técnicas de Business Intelligence de Big Data en 4 sectores de Telecom Business (Marketing / Ventas, Operación de Red, Operación Financiera y Gestión de Relaciones con Clientes). Los estudiantes serán presentados a: Introducción a Big Data-lo que es 4Vs (volumen, velocidad, variedad y veracidad) en Big Data-Generation, extracción y gestión desde la perspectiva de Telco Cómo el analista de Big Data difiere de los analistas de datos heredados Justificación interna de Big Data - perspectiva de Tcco Introducción al ecosistema de Hadoop - familiaridad con todas las herramientas de Hadoop como colmena, cerdo, SPARC - cuándo y cómo se utilizan para resolver el problema de Big Data Cómo se extraen los datos grandes para analizar para la herramienta de análisis-cómo Business Analysis puede reducir sus puntos de dolor de la recopilación y el análisis de datos a través del enfoque de panel integrado de Hadoop Introducción básica de análisis de Insight, análisis de visualización y análisis predictivo para Telco Analítica de Churn de clientes y datos grandes: cómo Big Data analítico puede reducir el abandono de clientes y la insatisfacción de los clientes en los estudios de casos de Telco Análisis de fracaso de la red y fallos de servicio de Metadatos de red e IPDR Análisis financiero-fraude, desperdicio y estimación de ROI de ventas y datos operativos Problema de adquisición de clientes: marketing objetivo, segmentación de clientes y ventas cruzadas a partir de datos de ventas Introducción y resumen de todos los productos analíticos de Big Data y donde encajan en el espacio analítico de Telco Conclusión: cómo tomar un enfoque paso a paso para introducir Big Data Business Intelligence en su organización Público objetivo Operaciones de red, Gerentes Financieros, Gerentes de CRM y altos gerentes de TI en la oficina de Telco CIO. Analistas de Negocios en Telco Gerentes / analistas de oficina de CFO Gerentes operacionales Gerentes de control de calidad
hdp Hortonworks Data Platform (HDP) para Administradores 21 horas Hortonworks Data Platform es una plataforma de soporte de Apache Hadoop de código abierto que proporciona una base estable para el desarrollo de soluciones de big data en el ecosistema de Apache Hadoop. Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop. Al final de esta capacitación, los participantes podrán: Use Hortonworks para ejecutar confiablemente Hadoop a gran escala Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark. Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo. Audiencia Administradores de Hadoop Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica  
cassdev Cassandra para Desarrolladores 21 horas Este curso presentará Cassandra - una popular base de datos NoSQL. Cubrirá los principios de Cassandra, la arquitectura y el modelo de datos. Los estudiantes aprenderán el modelado de datos en CQL (Cassandra Query Language) en laboratorios prácticos e interactivos. Esta sesión también discute Cassandra internals y algunos temas de administración. Duración: 3 días Audiencia: Desarrolladores
BigData_ Una introducción práctica al análisis de datos y Big Data 35 horas Los participantes que completen esta capacitación obtendrán una comprensión práctica y real de Big Data y sus tecnologías, metodologías y herramientas relacionadas. Los participantes tendrán la oportunidad de poner este conocimiento en práctica a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor conforman un componente importante de la clase. El curso comienza con una introducción a los conceptos elementales de Big Data, luego avanza hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de datos. Finalmente, discutimos las herramientas y la infraestructura que permiten el almacenamiento de Big Data, el procesamiento distribuido y la escalabilidad. Audiencia Desarrolladores / programadores Consultores de TI Formato del curso Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
voldemort Voldemort: configuración de un almacén de datos distribuidos de clave-valor 14 horas Voldemort es un almacén de datos distribuidos de código abierto que está diseñado como una tienda de valores clave. Se utiliza en LinkedIn por numerosos servicios críticos que alimentan una gran parte del sitio. Este curso presentará la arquitectura y las capacidades de Voldomort y guiará a los participantes a través de la configuración y la aplicación de un almacén de datos distribuidos de valor clave. Audiencia      Desarrolladores de software      Administradores del sistema      Ingenieros de DevOps Formato del curso      Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
hadoopadm Administración de Hadoop 21 horas El curso está dedicado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en entornos de sistemas distribuidos Objetivo del curso: Obtención de conocimientos sobre la administración de clúster de Hadoop
alluxio Alluxio: Unificando Sistemas de Almacenamiento Dispares 7 horas Alexio es un sistema de almacenamiento distribuido virtual de código abierto que unifica sistemas de almacenamiento dispares y permite que las aplicaciones interactúen con datos a la velocidad de la memoria. Es utilizado por compañías como Intel, Baidu y Alibaba. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio. Al final de esta capacitación, los participantes podrán: Desarrolle una aplicación con Alluxio Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento Mejorar el rendimiento de la carga de trabajo Implemente y administre Alluxio de forma independiente o en clúster Audiencia Científico de datos Desarrollador Administrador de sistema Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
cassadmin Administración de Cassandra 14 horas Este curso presentará Cassandra, una popular base de datos NoSQL. Cubrirá los principios, la arquitectura y el modelo de datos de Cassandra. Los estudiantes aprenderán a modelar datos en CQL (Lenguaje de consulta de Cassandra) en prácticas, laboratorios interactivos. Esta sesión también trata sobre las internas de Cassandra y algunos temas de administración.
aifortelecom AI Awareness for Telecom 14 horas AI is a collection of technologies for building intelligent systems capable of understanding data and the activities surrounding the data to make "intelligent decisions". For Telecom providers, building applications and services that make use of AI could open the door for improved operations and servicing in areas such as maintenance and network optimization. In this course we examine the various technologies that make up AI and the skill sets required to put them to use. Throughout the course, we examine AI's specific applications within the Telecom industry. Audience Network engineers Network operations personnel Telecom technical managers Format of the course     Part lecture, part discussion, hands-on exercises
matlabfundamentalsfinance Fundamentos de MATLAB - Personalizado 35 horas Este curso proporciona una introducción completa al entorno informático técnico de MATLAB + una introducción al uso de MATLAB para aplicaciones financieras. El curso está dirigido a usuarios principiantes y aquellos que buscan una revisión. No se asume experiencia previa en programación o conocimiento de MATLAB. Los temas de análisis de datos, visualización, modelado y programación se exploran a lo largo del curso. Los temas incluyen: Trabajando con la interfaz de usuario de MATLAB Ingresando comandos y creando variables Analizando vectores y matrices Visualización de datos vectoriales y matriciales Trabajando con archivos de datos Trabajando con tipos de datos Automatización de comandos con scripts Escritura de programas con lógica y control de flujo Funciones de escritura Uso de Financial Toolbox para el análisis cuantitativo
apacheh Capacitación de Administrador para Apache Hadoop 35 horas Audiencia: El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido Gol: Conocimiento profundo sobre administración de clúster de Hadoop.
PentahoDI Fundamentos de Integración de Datos Pentaho 21 horas Pentaho Data Integration es una herramienta de integración de datos de código abierto para definir trabajos y transformaciones de datos. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar las poderosas capacidades de ETL de Pentaho Data Integration y su rica GUI para administrar todo un ciclo de vida de big data, maximizando el valor de los datos para la organización. Al final de esta capacitación, los participantes podrán: Crear, previsualizar y ejecutar transformaciones de datos básicas que contengan pasos y saltos Configure y asegure el Repositorio de Pentaho Enterprise Aproveche fuentes de datos dispares y genere una única versión unificada de la verdad en un formato listo para análisis. Proporcionar resultados a aplicaciones de terceros para su posterior procesamiento Audiencia Analista de datos Desarrolladores de ETL Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
iotemi Internet de las Cosas (IoT) para Empresarios, Gerentes e Inversores 21 horas A diferencia de otras tecnologías, IoT es mucho más complejo que abarca casi todas las ramas del núcleo de Ingeniería: Mecánica, Electrónica, Firmware, Middleware, Cloud, Analytics y Mobile. Para cada una de sus capas de ingeniería, hay aspectos de economía, estándares, regulaciones y estado de la técnica en evolución. Esto es para los primeros tiempos, se ofrece un curso modesto para cubrir todos estos aspectos críticos de la ingeniería de IoT. Resumen Un programa de entrenamiento avanzado que cubre el estado actual del arte en Internet de las Cosas Cortes en múltiples dominios de tecnología para desarrollar el conocimiento de un sistema IoT y sus componentes y cómo puede ayudar a las empresas y organizaciones. Demo en vivo de las aplicaciones modelo IoT para mostrar implementaciones prácticas de IoT en diferentes dominios de la industria, como Industrial IoT, Smart Cities, Retail, Travel & Transportation y casos de uso relacionados con dispositivos conectados y cosas Público objetivo Gerentes responsables de los procesos comerciales y operativos dentro de sus respectivas organizaciones y quieren saber cómo aprovechar IoT para hacer que sus sistemas y procesos sean más eficientes. Emprendedores e Inversores que buscan desarrollar nuevas empresas y desean desarrollar una mejor comprensión del panorama de la tecnología IoT para ver cómo pueden aprovecharla de manera efectiva. Duración 3 días (8 horas / día) Las estimaciones para Internet of Things o el valor de mercado de IoT son masivas, ya que, por definición, el IoT es una capa integrada y difusa de dispositivos, sensores y potencia informática que superpone a industrias de consumo, de empresa a empresa y gubernamentales. El IoT representará un número cada vez mayor de conexiones: 1.900 millones de dispositivos en la actualidad y 9.000 millones en 2018. Ese año, será aproximadamente igual a la cantidad de teléfonos inteligentes, televisores inteligentes, tabletas, computadoras portátiles y PC combinadas. En el espacio para el consumidor, muchos productos y servicios ya han entrado en el IoT, incluyendo cocina y electrodomésticos, estacionamiento, RFID, productos de iluminación y calefacción, y varias aplicaciones en Internet Industrial. Sin embargo, las tecnologías subyacentes de IoT no son nada nuevas, ya que la comunicación M2M existía desde el nacimiento de Internet. Sin embargo, lo que cambió en los últimos años es la aparición de tecnologías inalámbricas de bajo costo agregadas por la abrumadora adaptación de teléfonos inteligentes y tabletas en todos los hogares. El crecimiento explosivo de los dispositivos móviles condujo a la demanda actual de IoT. Debido a las oportunidades ilimitadas en el negocio de IoT, un gran número de pequeños y medianos empresarios se subieron al carro de la fiebre del oro de IoT. También debido a la aparición de la electrónica de código abierto y la plataforma IoT, el costo de desarrollo del sistema IoT y la gestión adicional de su producción considerable es cada vez más asequible. Los propietarios de productos electrónicos existentes están experimentando presión para integrar su dispositivo con Internet o la aplicación móvil. Esta capacitación está destinada a una revisión tecnológica y empresarial de una industria emergente para que los entusiastas / emprendedores de IoT puedan comprender los conceptos básicos de tecnología y negocio de IoT. Objetivo del curso El objetivo principal del curso es presentar opciones tecnológicas emergentes, plataformas y estudios de casos de implementación de IoT en automatización de hogares y ciudades (hogares y ciudades inteligentes), Internet Industrial, salud, Gobierno, Mobile Cellular y otras áreas. Introducción básica de todos los elementos de IoT-Mechanical, electrónica / plataforma de sensores, protocolos inalámbricos y alámbricos, integración móvil a electrónica, integración móvil a empresa, análisis de datos y plano de control total Protocolos inalámbricos M2M para IoT-WiFi, Zigbee / Zwave, Bluetooth, ANT +: ¿Cuándo y dónde usar cuál? Aplicación móvil / de escritorio / web para registro, adquisición de datos y control - Plataforma de adquisición de datos M2M disponible para IoT - Xively, Omega y NovoTech, etc. Problemas de seguridad y soluciones de seguridad para IoT Plataforma electrónica de código abierto / comercial para IoT-Raspberry Pi, Arduino, ArmMbedLPC, etc. Plataforma cloud de empresa abierta / comercial para aplicaciones AWS-IoT, Azure -IOT, Watson-IOT en la nube, además de otras nubes menores de IoT Estudios de negocios y tecnología de algunos de los dispositivos comunes de IoT como Domótica, Alarma de humo, vehículos, militares, salud en el hogar, etc.
hypertable Hypertable: Implementar una base de datos tipo BigTable 14 horas Hypertable es un sistema de gestión de bases de datos de software de código abierto basado en el diseño de Bigtable de Google. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a configurar y administrar un sistema de base de datos Hypertable. Al final de esta capacitación, los participantes podrán: Instalar, configurar y actualizar una instancia de Hypertable Configurar y administrar un clúster Hypertable Monitorear y optimizar el rendimiento de la base de datos Diseña un esquema Hypertable Trabaja con la API de Hypertable Solucionar problemas operativos Audiencia Desarrolladores Ingenieros de operaciones Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica Conferencia de parte, discusión en parte, ejercicios y práctica práctica
pythonmultipurpose Python Avanzado 28 horas En esta capacitación guiada por un instructor, los participantes aprenderán técnicas avanzadas de programación de Python, que incluyen cómo aplicar este versátil lenguaje para resolver problemas en áreas tales como aplicaciones distribuidas, finanzas, análisis y visualización de datos, programación de IU y scripting de mantenimiento. Audiencia Desarrolladores Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica Notas Si desea agregar, eliminar o personalizar cualquier sección o tema de este curso, contáctenos para organizarlo.
smtwebint Descripción de la Web Semántica 7 horas La Web Semántica es un movimiento de colaboración dirigido por el World Wide Web Consortium (W3C) que promueve formatos comunes para los datos en la World Wide Web. La Web Semántica proporciona un marco común que permite que los datos sean compartidos y reutilizados a través de límites de aplicaciones, empresas y comunidades.
dmmlr Minería de Datos y Aprendizaje Automático con R 14 horas R is an open-source free programming language for statistical computing, data analysis, and graphics. R is used by a growing number of managers and data analysts inside corporations and academia. R has a wide variety of packages for data mining.
rneuralnet Red Neuronal en R 14 horas Este curso es una introducción a la aplicación de redes neuronales en problemas del mundo real utilizando el software R-project.
flockdb Flockdb: Una Base de Datos de Gráficos Simple para Redes Sociales 7 horas FlockDB es una base de datos de gráficos tolerante a fallas, distribuida y de código abierto para administrar gráficos de red anchos pero poco profundos. Inicialmente fue utilizado por Twitter para almacenar las relaciones entre los usuarios. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a configurar y usar una base de datos FlockDB para ayudar a responder las preguntas de las redes sociales, como quién sigue a quién, quién bloquea a quién, etc. Al final de esta capacitación, los participantes podrán: Instalar y configurar FlockDB Comprenda las características únicas de FlockDB, en relación con otras bases de datos de gráficos, como Neo4j Use FlockDB para mantener un gran conjunto de datos de gráficos Use FlockDB junto con MySQL para proporcionar capacidades de almacenamiento distribuido Consulta, crea y actualiza gráficos extremadamente rápidos Escale FlockDB horizontalmente para su uso en entornos web on-line, de baja latencia y alto rendimiento Audiencia Desarrolladores Ingenieros de bases Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
scylladb Base de Datos Scylla 21 horas Scylla es una tienda de datos NoSQL distribuida de código abierto. Es compatible con Apache Cassandra pero tiene un rendimiento significativamente más alto y latencias más bajas. En este curso, los participantes aprenderán sobre las características y la arquitectura de Scylla mientras obtienen experiencia práctica con la configuración, administración, monitoreo y resolución de problemas de Scylla. Audiencia Administradores de bases Desarrolladores Ingenieros de sistema Formato del curso El curso es interactivo e incluye discusiones sobre los principios y enfoques para implementar y administrar bases de datos y clústeres distribuidos por Scylla. El curso incluye un componente pesado de ejercicios prácticos y práctica.
matlab2 Fundamentos de MATLAB 21 horas Este curso de tres días proporciona una integración exhaustiva para el MATLAB técnico de la técnica de comparación. El curso está diseñado para los usuarios finales y aquellos que buscan la revisión. En el prior de programación de la experiencia o el conocimiento de MATLAB es. Los temas de análisis de fecha, visualización, modelado y programación se exploran en todo el curso. Los temas incluyen: Working with the MATLAB interfaz de usuario Introducir comandos y crear variables Analice vectores y matrices Visualización vectorial y matriz data Trabajar con archivos de fecha Working with data types Automatización de comandos con secuencias de comandos Los programas de escritura con el control de flujo y de flujo Funciones de escritura
d2dbdpa De los Datos a la Decisión con Big Data y Análisis Predictivo 21 horas Audiencia Si intenta dar sentido a los datos a los que tiene acceso o desea analizar datos no estructurados disponibles en la red (como Twitter, Linked in, etc ...) este curso es para usted. Está dirigido principalmente a los tomadores de decisiones y las personas que necesitan elegir qué datos vale la pena recopilar y qué vale la pena analizar. No está dirigido a las personas que configuran la solución, esas personas se beneficiarán de la imagen grande sin embargo. Modo de entrega Durante el curso se presentarán a los delegados ejemplos prácticos de la mayoría de las tecnologías de código abierto. Las conferencias cortas serán seguidas por la presentación y los ejercicios simples por los participantes Contenido y software utilizados Todo el software utilizado se actualiza cada vez que se ejecuta el curso, así que verificamos las versiones más recientes posibles. Cubre el proceso de obtener, formatear, procesar y analizar los datos, para explicar cómo automatizar el proceso de toma de decisiones con el aprendizaje automático.
neo4j Más allá de la Base de Datos Relacional: neo4j 21 horas Las bases de datos relacionales basadas en tablas, como Oracle y MySQL, han sido durante mucho tiempo el estándar para organizar y almacenar datos. Sin embargo, el tamaño creciente y la fluidez de los datos han dificultado que estos sistemas tradicionales ejecuten eficientemente consultas muy complejas sobre los datos. Imagínese reemplazar el almacenamiento de datos basado en filas y columnas con el almacenamiento de datos basado en objetos, por medio del cual las entidades (por ejemplo, una persona) podrían ser almacenadas como nodos de datos y luego ser consultadas fácilmente sobre la base de su vasta relación multi lineal con otros nodos . E imaginar la consulta de estas conexiones y sus objetos asociados y propiedades utilizando una sintaxis compacta, hasta 20 veces más ligero que el SQL? Esto es lo que ofrecen las bases de datos gráficas, como neo4j. En este curso práctico, estableceremos un proyecto en vivo y pondremos en práctica las habilidades para modelar, gestionar y acceder a sus datos. Comparamos y comparamos bases de datos gráficas con bases de datos basadas en SQL, así como otras bases de datos NoSQL y aclaramos cuándo y dónde tiene sentido implementar cada una dentro de su infraestructura. Audiencia Administradores de bases de datos (DBA) Analistas de datos Desarrolladores Administradores del sistema Ingenieros de DevOps Analistas de Negocios Directores de tecnología Directores de informática Formato del curso Fuerte énfasis en práctica práctica. La mayoría de los conceptos se aprenden a través de muestras, ejercicios y desarrollo práctico.
TalendDI Talend Open Studio for Data Integration 28 horas Talend Open Studio for Data Integration es un producto de integración de datos de código abierto que se utiliza para combinar, convertir y actualizar datos en varias ubicaciones de una empresa. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar la herramienta Talend ETL para llevar a cabo la transformación de datos, la extracción de datos y la conectividad con Hadoop, Hive y Pig. Al final de esta capacitación, los participantes podrán: Explicar los conceptos detrás de ETL (Extraer, Transformar, Cargar) y la propagación Definir métodos ETL y herramientas ETL para conectarse con Hadoop Amasar, recuperar, digerir, consumir, transformar y dar forma de manera eficiente a big data de acuerdo con los requisitos del negocio Audiencia Profesionales de inteligencia de negocios Gerentes de proyecto Profesionales de bases Desarrolladores de SQL Desarrolladores de ETL Arquitectos de soluciones Arquitectos de datos Profesionales de almacenamiento de datos Administradores e integradores de sistemas Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
altdomexp Pericia en el Dominio de Analytics 7 horas Este curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Analytics Domain Expertise).
accumulo Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data 21 horas Apache Accumulo es un almacén de claves / valores ordenados y distribuidos que proporciona almacenamiento y recuperación de datos robustos y escalables. Está basado en el diseño de BigTable de Google y está impulsado por Apache Hadoop, Apache Zookeeper y Apache Thrift.   Este curso cubre los principios de trabajo detrás de Accumulo y guía a los participantes a través del desarrollo de una aplicación de muestra en Apache Accumulo. Audiencia      Desarrolladores de aplicaciones      Ingenieros de software      Consultores técnicos Formato del curso      Conferencia de parte, parte de discusión, desarrollo e implementación práctica, pruebas ocasionales para medir comprensión  
dsbda Ciencia de Datos para Big Data Analytics 35 horas Big data is data sets that are so voluminous and complex that traditional data processing application software are inadequate to deal with them. Big data challenges include capturing data, data storage, data analysis, search, sharing, transfer, visualization, querying, updating and information privacy.
bigdatar Programación con Big Data en R 21 horas
nifi Apache NiFi para administradores 21 horas Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo. Al final de esta capacitación, los participantes podrán: Instalar y configurar Apachi NiFi Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes. Automatice los flujos de datos Habilitar análisis de transmisión Aplicar varios enfoques para la ingestión de datos Transformar Big Data y en conocimientos empresariales Audiencia Administradores del sistema Ingenieros de datos Desarrolladores DevOps Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hbasedev HBase para Desarrolladores 21 horas Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase. Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
storm Curso de Apache Storm 28 horas Apache Storm es un motor de computación distribuido en tiempo real que se utiliza para habilitar la inteligencia empresarial en tiempo real. Lo hace al permitir que las aplicaciones procesen de forma confiable flujos de datos ilimitados (a.k.a. procesamiento de flujo). "Storm es para procesar en tiempo real lo que Hadoop es para el procesamiento por lotes". En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar y configurar Apache Storm, luego desarrollarán e implementarán una aplicación Apache Storm para procesar Big Data en tiempo real. Algunos de los temas incluidos en esta capacitación incluyen: Apache Storm en el contexto de Hadoop Trabajando con datos ilimitados Cálculo continuo Análisis en tiempo real Procesamiento distribuido de RPC y ETL ¡Solicite este curso ahora! Audiencia Desarrolladores de software y ETL Profesionales de mainframe Científicos de datos Analistas de Big Data Profesionales de Hadoop Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
psr Introduction to Recommendation Systems 7 horas Audience Marketing department employees, IT strategists and other people involved in decisions related to the design and implementation of recommender systems. Format Short theoretical background follow by analysing working examples and short, simple exercises.
bigdatabicriminal Big Data Business Intelligence for Criminal Intelligence Analysis 35 horas Advances in technologies and the increasing amount of information are transforming how law enforcement is conducted. The challenges that Big Data pose are nearly as daunting as Big Data's promise. Storing data efficiently is one of these challenges; effectively analyzing it is another. In this instructor-led, live training, participants will learn the mindset with which to approach Big Data technologies, assess their impact on existing processes and policies, and implement these technologies for the purpose of identifying criminal activity and preventing crime. Case studies from law enforcement organizations around the world will be examined to gain insights on their adoption approaches, challenges and results. By the end of this training, participants will be able to: Combine Big Data technology with traditional data gathering processes to piece together a story during an investigation Implement industrial big data storage and processing solutions for data analysis Prepare a proposal for the adoption of the most adequate tools and processes for enabling a data-driven approach to criminal investigation Audience Law Enforcement specialists with a technical background Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
nifidev Apache NiFi para desarrolladores 7 horas Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi. Al final de esta capacitación, los participantes podrán: Comprender los conceptos de arquitectura y flujo de datos de NiFi Desarrollar extensiones utilizando NiFi y API de terceros Desarrolla a medida su propio procesador Apache Nifi Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos Audiencia Desarrolladores Ingenieros de datos Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica  

Próximos Cursos

CursoFechaPrecio del Curso [A distancia / Presencial]
Model MapReduce y Apache Hadoop - GranadaJue, 2018-03-15 09:302700EUR / 2900EUR
Minería de Datos - A CoruñaLun, 2018-03-19 09:303900EUR / 4100EUR
Cursos de Fin de Semana de Big Data, Capacitación por la Tarde de Big Data, Big Data boot camp, Clases de Big Data , Cursos por la Tarde de Big Data, Cursos Privados de Big Data, Talleres para empresas de Big Data, Capacitador de Big Data, Programas de capacitación de Big Data, Cursos en linea de Big Data, Capacitación empresarial de Big Data, Big Data en sitio, Clases de Big Data , Instructor de Big Data, Clases Particulares de Big Data, Big Data con instructor, Big Data coaching, Cursos de Formación de Big Data

Promociones

Curso Ubicación Fecha Precio del Curso [A distancia / Presencial]
MongoDB for Developers Madrid Mar, 2018-03-06 09:30 2520EUR / 3420EUR
Red Neuronal en R Zaragoza Jue, 2018-03-15 09:30 3357EUR / 3557EUR
Agile Software Testing Madrid Mié, 2018-03-21 09:30 2430EUR / 3330EUR
Introducción MoDAF/NAF Madrid Vie, 2018-03-23 09:30 1422EUR / 1972EUR
Hadoop for Data Analysts Valencia Jue, 2018-06-14 09:30 3672EUR / 3872EUR

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No vamos a pasar o vender su dirección a otros.
Siempre puede cambiar sus preferencias o anular la suscripción por completo.

Algunos de nuestros clientes