
Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en España o en los centros de capacitación corporativa de NobleProg en España, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
NobleProg -- The World's Local Trainer Provider
Testimonios
El conocer que hay un programa que tiene muchas aplicaciones potenciales para el trabajo que desarrollo
Jorge Alberto Martinez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
La interación del profesor con el alumno, que esperaba a cada alumno jy explicaba si era necesario repetidas veces.
Daniela Guadalupe Tenorio Rodríguez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
En realidad todo estuvo interesante
Alvaro Lopez Zenteno Cato - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
Los temas los maneja muy bien y resuelve las dudas, además nos llevaba paso a paso en las prácticas.
Francisco Javier Hernández Sánchez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
Los temas los maneja muy bien y resuelve las dudas, además nos llevaba paso a paso en las prácticas.
Francisco Javier Hernández Sánchez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
El dominio del tema
Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
La exposición Excelente
SANDRA RAMIREZ - Alejandra Nava Huerta, Organización Internacional del Trabajo
Curso: Apache NiFi for Developers
la explicación
Alejandra Nava Huerta, Organización Internacional del Trabajo
Curso: Apache NiFi for Developers
APRENDIZAJE DE UNA HERRAMIENTA NUEVA
MARIA ELENA DOMINGUEZ ESCUDERO - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
La capacitacidad de la herramienta
Gerardo Avila - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
El instructor tenia solidos conocimientos del tema y mucha paciencia y ganas de aportar. Toda la materia se explico con ejemplos practicos.
Nicol Macarena Bravo Castillo, Servicio de Impuestos Internos
Curso: Spark for Developers
Los conocimientos de instructor sobre el tema
Juan Francisco Trejo Escoto
Curso: Advanced Teradata
EL instructor explica muy bien.
Gerardo Hurtado
Curso: Advanced Teradata
La primer parte del curso donde vimos los aspectos básicos de Kafka, tuvo una organización, estructura y detalle adecuado.
Daniela Valdez Romero, BANCO DE MEXICO
Curso: Stream Processing with Kafka Streams
Que el profesor ya tenía preparados los ejemplos y no se perdió tiempo desarrollándolos.
Daniela Valdez Romero, BANCO DE MEXICO
Curso: Stream Processing with Kafka Streams
La variedad de ejemplos y tener la máquina en la plataforma, sin embargo, luego estaba muy lenta y eso atrasaba el ritmo de la clase.
Daniela Valdez Romero, BANCO DE MEXICO
Curso: Stream Processing with Kafka Streams
Los ejemplos ya se encontraban preparados y no se perdió tiempo en codificarlos.
Daniela Valdez Romero, BANCO DE MEXICO
Curso: Stream Processing with Kafka Streams
Las explicaciones eran muy buenas, si bien algunas preguntas pudieron ahorrarse si se hubieran tocado esos puntos al inicio de los temas se notó un buen dominio y experiencia en el tema.
Alan Jaime Rodríguez García - Daniela Valdez Romero, BANCO DE MEXICO
Curso: Stream Processing with Kafka Streams
me gusto mucho el manejo del tema del instructor, nos demostraba con claridad los conceptos que exponia.
Curso: Greenplum Database
la metodologia de trabajo
Banco de Crédito e Inversiones
Curso: Apache Airflow
Todo en general.
Banco de Crédito e Inversiones
Curso: Apache Airflow
Que el entrenador presentó el programa del curso, los temas que veríamos cada día y me agradó que siempre nos mostraba ejemplos y luego nos invita a practicar en la maquina virtual
Miguel Orellana Concha - Banco de Crédito e Inversiones
Curso: Apache Airflow
la facilidad de manejo de las maquinas virtuales .... muy bien
Luis Amigo Peñaloza - Banco de Crédito e Inversiones
Curso: Apache Airflow
me gusto mucho el manejo del tema del instructor, nos demostraba con claridad los conceptos que exponia.
Curso: Greenplum Database
Programa del curso Big Data
-
Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python.
Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop.
Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes.
Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume).
Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google.
Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
-
Instalar y configurar Weka
Comprender el entorno y el banco de trabajo.
Realizar tareas de minería de datos utilizando Weka.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
-
Comprender los fundamentos de la minería de datos.
Aprende cómo importar y evaluar la calidad de los datos con el Modeler.
Desarrollar, implementar y evaluar de manera eficiente los modelos de datos.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Consultores de TI Formato del curso Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
- Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas
- Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
- Consume datos de transmisión en tiempo real usando Kylin
- Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano
- Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0)
- Grandes ingenieros de datos
- Analistas de Big Data
- Crea, selecciona e interactivamente explora un lago de datos empresariales
- Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
- Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
- Acceda a funciones preconstruidas para explorar relaciones de datos complejas
- Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
- Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas
- Analistas de datos
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Explore datos con Excel para realizar minería y análisis de datos.
- Use algoritmos de Microsoft para la minería de datos.
- Comprender conceptos en la minería de datos de Excel .
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
- Instalar y configurar Dremio
- Ejecutar consultas en múltiples fuentes de datos, independientemente de la ubicación, el tamaño o la estructura
- Integre Dremio con BI y fuentes de datos como Tableau y Elasticsearch
- Científicos de datos
- Analistas comerciales
- Ingenieros de datos
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
- Realizar exploración de "autoservicio" en datos estructurados y semiestructurados en Hadoop
- Consultar datos conocidos y desconocidos mediante consultas SQL
- Comprender cómo Apache Drills recibe y ejecuta consultas
- Escribir consultas SQL para analizar diferentes tipos de datos, incluidos datos estructurados en Hive, datos semiestructurados en tablas HBase o MapR-DB, y datos guardados en archivos como Parquet y JSON.
- Utilice Apache Drill para realizar el descubrimiento de esquemas sobre la marcha, evitando la necesidad de complejas operaciones ETL y esquemas
- Integre Apache Drill con herramientas de BI (Business Intelligence) como Tableau, Qlikview, MicroStrategy y Excel
- Analistas de datos
- Científicos de datos
- Programadores de SQL
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Install and configure Apache Arrow in a distributed clustered environment
- Use Apache Arrow to access data from disparate data sources
- Use Apache Arrow to bypass the need for constructing and maintaining complex ETL pipelines
- Analyze data across disparate data sources without having to consolidate it into a centralized repository
- Data scientists
- Data engineers
- Part lecture, part discussion, exercises and heavy hands-on practice
- To request a customized training for this course, please contact us to arrange.
- Consultar grandes cantidades de datos de forma eficiente.
- Comprender Big Data cómo el sistema almacena y recupera datos
- Utilice los últimos sistemas de big data disponibles
- Reunar los datos de los sistemas de datos en los sistemas de informes
- Aprenda a SQL escribir consultas en:
- My SQL
- Postgres
- Hive Lenguaje de Hive consulta ( QL/HQL)
- Redshift
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
- Dispositivos y aplicaciones móviles
- Servicios en la nube
- Tecnologías de redes sociales y redes
- Big Data y análisis
- Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
- Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
- Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.
- Desarrolladores
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos
proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde
el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir
cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que
Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que
ser de beneficio mutuo entre los reguladores y los CSP. 2 días de curso: 8 módulos, 2 horas cada uno = 16 horas
- Combine la tecnología Big Data con procesos tradicionales de recopilación de datos para armar una historia durante una investigación
- Implementar soluciones industriales de almacenamiento y procesamiento de big data para el análisis de datos
- Preparar una propuesta para la adopción de las herramientas y procesos más adecuados para permitir un enfoque basado en datos para la investigación criminal
- Especialistas en aplicación de la ley con experiencia técnica
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
- Ingiera big data con Sqoop y Flume.
- Ingerique datos de varios orígenes de datos.
- Mover datos de bases de datos relacionales a HDFS y Hive.
- Exporte datos de HDFS a una base de datos relacional.
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
-
Instalar y configurar Talend Open Studio para Big Data.
Conecta con sistemas como Cloudera, HortonWorks, MapR, Amazon EMR y Apache.
Comprender y configurar los grandes componentes de datos de Open Studio y los conectores.
Configure los parámetros para generar automáticamente el código MapReduce.
Use Open Studio's drag-and-drop interface para ejecutar trabajos.
El prototipo de los grandes tubos de datos.
Proyectos de integración automática de grandes datos.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
(solapa activa)