Cursos de Big Data

Cursos de Big Data

Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en España o en los centros de capacitación corporativa de NobleProg en España, la segunda se lleva a cabo a través de un escritorio remoto interactivo.

NobleProg -- The World's Local Trainer Provider

Testimonios

★★★★★
★★★★★

Programa del curso Big Data

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
21 horas
Python es un lenguaje de programación escalable, flexible y ampliamente utilizado para la ciencia de datos y el aprendizaje por máquina. Spark es un motor de procesamiento de datos utilizado en la búsqueda, análisis y transformación de datos grandes, mientras que Hadoop es un marco de biblioteca de software para almacenamiento y procesamiento de datos de gran escala. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a desarrolladores que desean utilizar y integrar Spark, Hadoop, y Python para procesar, analizar y transformar grandes y complejos conjuntos de datos. Al final de este curso, los participantes podrán:
    Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python. Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop. Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes. Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume). Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google. Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
14 horas
Waikato Environment for Knowledge Analysis (Weka) es un software de visualización de minería de datos de código abierto. Ofrece una colección de algoritmos de aprendizaje de máquina para la preparación de datos, clasificación, clustering y otras actividades de minería de datos. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a analistas de datos y científicos de datos que desean utilizar Weka para realizar tareas de minería de datos. Al final de este curso, los participantes podrán:
    Instalar y configurar Weka Comprender el entorno y el banco de trabajo. Realizar tareas de minería de datos utilizando Weka.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
14 horas
IBM SPSS Modeler es un software utilizado para minería de datos y análisis de texto. Ofrece un conjunto de herramientas de minería de datos que pueden construir modelos predictivos y realizar tareas de análisis de datos. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a analistas de datos o a cualquiera que desee utilizar SPSS Modeler para realizar actividades de minería de datos. Al final de este curso, los participantes podrán:
    Comprender los fundamentos de la minería de datos. Aprende cómo importar y evaluar la calidad de los datos con el Modeler. Desarrollar, implementar y evaluar de manera eficiente los modelos de datos.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
35 horas
Los participantes que completen esta capacitación obtendrán una comprensión práctica y real de Big Data y sus tecnologías, metodologías y herramientas relacionadas. Los participantes tendrán la oportunidad de poner este conocimiento en práctica a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor conforman un componente importante de la clase. El curso comienza con una introducción a los conceptos elementales de Big Data, luego avanza hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de datos. Finalmente, discutimos las herramientas y la infraestructura que permiten el almacenamiento de Big Data, el procesamiento distribuido y la escalabilidad. Audiencia Desarrolladores / programadores
Consultores de TI Formato del curso Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
21 horas
In this instructor-led, live training in España, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to:
  • Learn how to use Spark with Python to analyze Big Data.
  • Work on exercises that mimic real world cases.
  • Use different tools and techniques for big data analysis using PySpark.
7 horas
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
21 horas
El descubrimiento de conocimiento en bases de datos (KDD) es el proceso de descubrir conocimiento útil de una colección de datos. Las aplicaciones de la vida real para esta técnica de minería de datos incluyen marketing, detección de fraude, telecomunicaciones y fabricación. En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos. Audiencia
  •      Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas
Formato del curso
  •      Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
14 horas
Apache Kylin es un motor de análisis extremo y distribuido para Big Data. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real. Al final de esta capacitación, los participantes podrán:
  • Consume datos de transmisión en tiempo real usando Kylin
  • Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano
Nota
  • Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0)
Audiencia
  • Grandes ingenieros de datos
  • Analistas de Big Data
Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos. Al final de esta capacitación, los participantes podrán:
  • Crea, selecciona e interactivamente explora un lago de datos empresariales
  • Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
  • Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
  • Acceda a funciones preconstruidas para explorar relaciones de datos complejas
  • Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
  • Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas
Audiencia
  • Analistas de datos
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
La minería de datos es el proceso de identificar patrones en big data con métodos de ciencia de datos como el aprendizaje automático. Usando Excel como un conjunto de análisis de datos, los usuarios pueden realizar minería y análisis de datos. Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) está dirigida a científicos de datos que desean usar Excel para la minería de datos. Al final de esta capacitación, los participantes podrán:
  • Explore datos con Excel para realizar minería y análisis de datos.
  • Use algoritmos de Microsoft para la minería de datos.
  • Comprender conceptos en la minería de datos de Excel .
Formato del curso
  • Conferencia interactiva y discusión.
  • Muchos ejercicios y práctica.
  • Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
  • Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
21 horas
Dremio es una plataforma de datos de autoservicio de código abierto que acelera la consulta de diferentes tipos de fuentes de datos. Dremio se integra con bases de datos relacionales, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch y otras fuentes de datos. Es compatible con SQL y proporciona una interfaz de usuario web para generar consultas. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar, configurar y usar Dremio como una capa unificadora para las herramientas de análisis de datos y los repositorios de datos subyacentes. Al final de esta capacitación, los participantes podrán:
  • Instalar y configurar Dremio
  • Ejecutar consultas en múltiples fuentes de datos, independientemente de la ubicación, el tamaño o la estructura
  • Integre Dremio con BI y fuentes de datos como Tableau y Elasticsearch
Audiencia
  • Científicos de datos
  • Analistas comerciales
  • Ingenieros de datos
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
  • Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
21 horas
Apache Drill es un motor de consulta SQL sin columnas, distribuido y en memoria para Hadoop, NoSQL y otros sistemas de almacenamiento en la nube y en la nube. El poder de Apache Drill radica en su capacidad para unir datos de múltiples almacenes de datos con una sola consulta. Apache Drill admite numerosas bases de datos y sistemas de archivos NoSQL, incluidos HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS y archivos locales. Apache Drill es la versión de código abierto del sistema Dremel de Google, que está disponible como un servicio de infraestructura llamado Google BigQuery. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de Apache Drill, luego aprovecharán el poder y la conveniencia de SQL para consultar de manera interactiva big data en múltiples fuentes de datos, sin escribir código. Los participantes también aprenderán a optimizar sus consultas de exploración para la ejecución de SQL distribuido. Al final de esta capacitación, los participantes podrán:
  • Realizar exploración de "autoservicio" en datos estructurados y semiestructurados en Hadoop
  • Consultar datos conocidos y desconocidos mediante consultas SQL
  • Comprender cómo Apache Drills recibe y ejecuta consultas
  • Escribir consultas SQL para analizar diferentes tipos de datos, incluidos datos estructurados en Hive, datos semiestructurados en tablas HBase o MapR-DB, y datos guardados en archivos como Parquet y JSON.
  • Utilice Apache Drill para realizar el descubrimiento de esquemas sobre la marcha, evitando la necesidad de complejas operaciones ETL y esquemas
  • Integre Apache Drill con herramientas de BI (Business Intelligence) como Tableau, Qlikview, MicroStrategy y Excel
Audiencia
  • Analistas de datos
  • Científicos de datos
  • Programadores de SQL
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Apache Arrow is an open-source in-memory data processing framework. It is often used together with other data science tools for accessing disparate data stores for analysis. It integrates well with other technologies such as GPU databases, machine learning libraries and tools, execution engines, and data visualization frameworks. In this onsite instructor-led, live training, participants will learn how to integrate Apache Arrow with various Data Science frameworks to access data from disparate data sources. By the end of this training, participants will be able to:
  • Install and configure Apache Arrow in a distributed clustered environment
  • Use Apache Arrow to access data from disparate data sources
  • Use Apache Arrow to bypass the need for constructing and maintaining complex ETL pipelines
  • Analyze data across disparate data sources without having to consolidate it into a centralized repository
Audience
  • Data scientists
  • Data engineers
Format of the Course
  • Part lecture, part discussion, exercises and heavy hands-on practice
Note
  • To request a customized training for this course, please contact us to arrange.
14 horas
Esta formación en vivo dirigida por un instructor (in situ o remota) está dirigida a desarrolladores de software, gerentes y analistas de negocios que desean utilizar sistemas de big data para almacenar y recuperar grandes cantidades de datos. Al final de esta formación, los participantes podrán:
  • Consultar grandes cantidades de datos de forma eficiente.
  • Comprender Big Data cómo el sistema almacena y recupera datos
  • Utilice los últimos sistemas de big data disponibles
  • Reunar los datos de los sistemas de datos en los sistemas de informes
  • Aprenda a SQL escribir consultas en:
    • My SQL
    • Postgres
    • Hive Lenguaje de Hive consulta ( QL/HQL)
    • Redshift
Formato del curso
  • Conferencia interactiva y discusión.
  • Muchos ejercicios y práctica.
  • Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
  • Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
14 horas
The objective of the course is to enable participants to gain a mastery of how to work with the SQL language in Oracle database for data extraction at intermediate level.
35 horas
Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que los negocios se llevan a cabo en muchas industrias, incluyendo el gobierno. Los índices de generación de gobierno y de archivos digitales están aumentando debido al rápido crecimiento de dispositivos y aplicaciones móviles, sensores y dispositivos inteligentes, soluciones de cloud computing y portales orientados a los ciudadanos. A medida que la información digital se expande y se vuelve más compleja, la gestión de la información, el procesamiento, el almacenamiento, la seguridad y la disposición también se vuelven más complejos. Las nuevas herramientas de captura, búsqueda, descubrimiento y análisis están ayudando a las organizaciones a obtener información sobre sus datos no estructurados. El mercado gubernamental está en un punto de inflexión, al darse cuenta de que la información es un activo estratégico y el gobierno necesita proteger, aprovechar y analizar información estructurada y no estructurada para servir mejor y cumplir con los requisitos de la misión. A medida que los líderes del gobierno se esfuerzan por evolucionar las organizaciones impulsadas por datos para cumplir con éxito la misión, están sentando las bases para correlacionar dependencias a través de eventos, personas, procesos e información. Las soluciones gubernamentales de alto valor se crearán a partir de un mashup de las tecnologías más perjudiciales:
  • Dispositivos y aplicaciones móviles
  • Servicios en la nube
  • Tecnologías de redes sociales y redes
  • Big Data y análisis
IDC predice que para el año 2020, la industria de TI alcanzará los $ 5 billones, aproximadamente $ 1.7 trillones más que hoy, y que el 80% del crecimiento de la industria será impulsado por estas tecnologías de la 3ª Plataforma. A largo plazo, estas tecnologías serán herramientas clave para hacer frente a la complejidad del aumento de la información digital. Big Data es una de las soluciones inteligentes de la industria y permite al gobierno tomar mejores decisiones tomando medidas basadas en patrones revelados al analizar grandes volúmenes de datos relacionados y no relacionados, estructurados y no estructurados. Pero el logro de estas hazañas lleva mucho más que la simple acumulación de cantidades masivas de datos. "Haciendo sentido de estos volúmenes de Big Datarequires herramientas de vanguardia y" tecnologías que pueden analizar y extraer conocimiento útil de las corrientes de información vasta y diversa ", Tom Kalil y Fen Zhao de la Oficina de la Casa Blanca de Política Científica y Tecnológica escribió en un post en el blog de OSTP. La Casa Blanca dio un paso hacia ayudar a las agencias a encontrar estas tecnologías cuando estableció la Iniciativa Nacional de Investigación y Desarrollo de Grandes Datos en 2012. La iniciativa incluyó más de $ 200 millones para aprovechar al máximo la explosión de Big Data y las herramientas necesarias para analizarla . Los desafíos que plantea Big Data son casi tan desalentadores como su promesa es alentadora. El almacenamiento eficiente de los datos es uno de estos desafíos. Como siempre, los presupuestos son ajustados, por lo que las agencias deben minimizar el precio por megabyte de almacenamiento y mantener los datos de fácil acceso para que los usuarios puedan obtenerlo cuando lo deseen y cómo lo necesitan. Copia de seguridad de grandes cantidades de datos aumenta el reto. Otro gran desafío es analizar los datos de manera eficaz. Muchas agencias emplean herramientas comerciales que les permiten tamizar las montañas de datos, detectando tendencias que pueden ayudarles a operar de manera más eficiente. (Un estudio reciente de MeriTalk encontró que los ejecutivos federales de TI piensan que Big Data podría ayudar a las agencias a ahorrar más de 500.000 millones de dólares mientras cumplen los objetivos de la misión). Las herramientas de Big Data desarrolladas a medida también están permitiendo a las agencias abordar la necesidad de analizar sus datos. Por ejemplo, el Grupo de Análisis de Datos Computacionales del Laboratorio Nacional de Oak Ridge ha puesto a disposición de otras agencias su sistema de análisis de datos Piranha. El sistema ha ayudado a los investigadores médicos a encontrar un vínculo que puede alertar a los médicos sobre los aneurismas de la aorta antes de que hagan huelga. También se utiliza para tareas más mundanas, tales como tamizar a través de currículos para conectar candidatos de trabajo con los gerentes de contratación.
21 horas
Audiencia Si intenta dar sentido a los datos a los que tiene acceso o desea analizar datos no estructurados disponibles en la red (como Twitter, Linked in, etc ...) este curso es para usted. Está dirigido principalmente a los tomadores de decisiones y las personas que necesitan elegir qué datos vale la pena recopilar y qué vale la pena analizar. No está dirigido a las personas que configuran la solución, esas personas se beneficiarán de la imagen grande sin embargo. Modo de entrega Durante el curso se presentarán a los delegados ejemplos prácticos de la mayoría de las tecnologías de código abierto. Las conferencias cortas serán seguidas por la presentación y los ejercicios simples por los participantes Contenido y software utilizados Todo el software utilizado se actualiza cada vez que se ejecuta el curso, así que verificamos las versiones más recientes posibles. Cubre el proceso de obtener, formatear, procesar y analizar los datos, para explicar cómo automatizar el proceso de toma de decisiones con el aprendizaje automático.
35 horas
Día 1: proporciona una descripción general de alto nivel de las áreas temáticas esenciales de Big Data . El módulo se divide en una serie de secciones, cada una de las cuales se acompaña de un ejercicio práctico. Día 2: explora una variedad de temas que relacionan las prácticas y herramientas de análisis para entornos de Big Data . No entra en detalles de implementación o programación, sino que mantiene la cobertura a nivel conceptual, centrándose en temas que permiten a los participantes desarrollar una comprensión integral de las funciones y características de análisis comunes que ofrecen las soluciones de Big Data . Día 3: proporciona una descripción general de las áreas temáticas fundamentales y esenciales relacionadas con la arquitectura de la plataforma de soluciones de Big Data . Cubre los mecanismos de Big Data necesarios para el desarrollo de una plataforma de solución de Big Data y las opciones arquitectónicas para ensamblar una plataforma de procesamiento de datos. También se presentan escenarios comunes para proporcionar una comprensión básica de cómo se utiliza generalmente una plataforma de solución de Big Data . Día 4: se basa en el Día 3 explorando temas avanzados relacionados con la arquitectura de la plataforma de soluciones de Big Data . En particular, se presentan y discuten diferentes capas arquitectónicas que conforman la plataforma de solución Big Data , incluidas las fuentes de datos, el ingreso de datos, el almacenamiento de datos, el procesamiento de datos y la seguridad. Día 5: cubre una serie de ejercicios y problemas diseñados para evaluar la capacidad de los delegados para aplicar el conocimiento de los temas cubiertos en los días 3 y 4.
21 horas
Big Data es un término que se refiere a las soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrolladas por Go ogle inicialmente, estas soluciones de Big Data han evolucionado e inspirado a otros proyectos similares, muchos de los cuales están disponibles como código abierto. R es un lenguaje de programación popular en la industria financiera.
14 horas
Cuando las tecnologías de almacenamiento tradicionales no manejan la cantidad de datos que necesita almacenar, hay cientos de alternativas Este curso intenta guiar a los participantes sobre las alternativas para almacenar y analizar Big Data y cuáles son sus ventajas y desventajas Este curso se enfoca principalmente en la discusión y presentación de soluciones, aunque hay disponibles ejercicios manuales a pedido .
14 horas
El curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
35 horas
Big data son conjuntos de datos que son tan voluminosos y complejos que el software de aplicación de procesamiento de datos tradicional es inadecuado para manejarlos. Los grandes desafíos de datos incluyen la captura de datos, el almacenamiento de datos, el análisis de datos, la búsqueda, el intercambio, la transferencia, la visualización, la consulta, la actualización y la privacidad de la información.
14 horas
Vespa, un motor de procesamiento y publicación de grandes volúmenes de código abierto creado por Yahoo. Se utiliza para responder a las consultas de los usuarios, hacer recomendaciones y proporcionar contenido personalizado y publicidades en tiempo real. Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real. Al final de esta capacitación, los participantes podrán:
  • Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
  • Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
  • Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.
Audiencia
  • Desarrolladores
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Para cumplir con el cumplimiento de los reguladores, los CSP (proveedores de servicios de comunicación) pueden acceder a Big
Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos
proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde
el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir
cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que
Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que
ser de beneficio mutuo entre los reguladores y los CSP. 2 días de curso: 8 módulos, 2 horas cada uno = 16 horas
35 horas
Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que se lleva a cabo la aplicación de la ley. Los desafíos que plantea Big Data son casi tan desalentadores como la promesa de Big Data. Almacenar datos de manera eficiente es uno de estos desafíos; analizarlo efectivamente es otro. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán la mentalidad con la cual abordarán las tecnologías de Big Data, evaluarán su impacto en los procesos y políticas existentes, e implementarán estas tecnologías con el propósito de identificar la actividad delictiva y prevenir el delito. Se examinarán estudios de casos de organizaciones de orden público de todo el mundo para obtener información sobre sus enfoques, desafíos y resultados de adopción. Al final de esta capacitación, los participantes podrán:
  • Combine la tecnología Big Data con procesos tradicionales de recopilación de datos para armar una historia durante una investigación
  • Implementar soluciones industriales de almacenamiento y procesamiento de big data para el análisis de datos
  • Preparar una propuesta para la adopción de las herramientas y procesos más adecuados para permitir un enfoque basado en datos para la investigación criminal
Audiencia
  • Especialistas en aplicación de la ley con experiencia técnica
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
This classroom based training session will explore Big Data. Delegates will have computer based examples and case study exercises to undertake with relevant big data tools
14 horas
Objetivo: Este curso de capacitación tiene como objetivo ayudar a los asistentes a entender por qué Big Data está cambiando nuestras vidas y cómo está alterando la forma en que las empresas nos ven como consumidores. De hecho, los usuarios de Big Data en las empresas encuentran que los grandes datos liberan una gran cantidad de información y conocimientos que se traducen en mayores ganancias, menores costos y menos riesgos. Sin embargo, la desventaja era la frustración a veces cuando se hacía demasiado hincapié en las tecnologías individuales y no se prestaba suficiente atención a los pilares de la gestión de big data. Los asistentes aprenderán durante este curso cómo administrar los big data utilizando sus tres pilares de integración de datos, control de datos y seguridad de datos para convertir big data en valor comercial real. Diferentes ejercicios realizados en un estudio de caso de la gestión de clientes ayudarán a los asistentes a comprender mejor los procesos subyacentes.
7 horas
This instructor-led, live training in España (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data. By the end of this training, participants will:
  • Understand the evolution and trends for machine learning.
  • Know how machine learning is being used across different industries.
  • Become familiar with the tools, skills and services available to implement machine learning within an organization.
  • Understand how machine learning can be used to enhance data mining and analysis.
  • Learn what a data middle backend is, and how it is being used by businesses.
  • Understand the role that big data and intelligent applications are playing across industries.
7 horas
Apache Sqoop es una interfaz de línea de comandos para mover datos desde bases de datos relacionales y Hadoop. Apache Flume es un software distribuido para la gestión de big data. Con Sqoop y Flume, los usuarios pueden transferir datos entre sistemas e importar big data a arquitecturas de almacenamiento como Hadoop. Esta formación en vivo dirigida por un instructor (in situ o remota) está dirigida a ingenieros de software que deseen utilizar Sqoop y Flume para transferir datos entre sistemas. Al final de esta formación, los participantes podrán:
  • Ingiera big data con Sqoop y Flume.
  • Ingerique datos de varios orígenes de datos.
  • Mover datos de bases de datos relacionales a HDFS y Hive.
  • Exporte datos de HDFS a una base de datos relacional.
Formato del curso
  • Conferencia interactiva y discusión.
  • Muchos ejercicios y práctica.
  • Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
  • Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
28 horas
Talend Open Studio for Big Data es una herramienta ETL de código abierto para el procesamiento de datos grandes. Incluye un entorno de desarrollo para interactuar con Big Data fuentes y objetivos, y ejecutar trabajos sin tener que escribir código. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a personas técnicas que desean implementar Talend Open Studio para Big Data para simplificar el proceso de lectura y crunching a través de Big Data. Al final de este curso, los participantes podrán:
    Instalar y configurar Talend Open Studio para Big Data. Conecta con sistemas como Cloudera, HortonWorks, MapR, Amazon EMR y Apache. Comprender y configurar los grandes componentes de datos de Open Studio y los conectores. Configure los parámetros para generar automáticamente el código MapReduce. Use Open Studio's drag-and-drop interface para ejecutar trabajos. El prototipo de los grandes tubos de datos. Proyectos de integración automática de grandes datos.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.

(solapa activa)

Cursos de Fin de Semana de Big Data, Capacitación por la Tarde de Big Data, Big Data boot camp, Clases de Big Data, Capacitación de Fin de Semana de Big Data, Cursos por la Tarde de Big Data, Big Data coaching, Instructor de Big Data, Capacitador de Big Data, Big Data con instructor, Cursos de Formación de Big Data, Big Data en sitio, Cursos Privados de Big Data, Clases Particulares de Big Data, Capacitación empresarial de Big Data, Talleres para empresas de Big Data, Cursos en linea de Big Data, Programas de capacitación de Big Data, Clases de Big Data

Promociones

No hay descuentos de cursos por ahora.

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No vamos a pasar o vender su dirección a otros.
Siempre puede cambiar sus preferencias o anular la suscripción por completo.

Algunos de nuestros clientes

is growing fast!

We are looking for a good mixture of IT and soft skills in Spain!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

Este sitio en otros países / regiones