
Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en España o en los centros de capacitación corporativa de NobleProg en España, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
NobleProg -- The World's Local Trainer Provider
Testimonios
La capacitacidad de la herramienta
Gerardo Avila - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
APRENDIZAJE DE UNA HERRAMIENTA NUEVA
MARIA ELENA DOMINGUEZ ESCUDERO - Reckitt Benckizer
Curso: KNIME Analytics Platform for BI
El hecho de que todos los datos y el software estaban listos para usar en una máquina virtual ya preparada, proporcionada por el capacitador en discos externos.
vyzVoice
Curso: Hadoop for Developers and Administrators
Machine Translated
rango de material
Maciej Jonczyk
Curso: From Data to Decision with Big Data and Predictive Analytics
Machine Translated
sistematizar el conocimiento en el campo de ML
Orange Polska
Curso: From Data to Decision with Big Data and Predictive Analytics
Machine Translated
Una gran cantidad de problemas que pueden ser explorados después del entrenamiento
Klaudia Kłębek
Curso: Data Mining z wykorzystaniem R
Machine Translated
El capacitador estaba tan bien informado e incluyó áreas en las que estaba interesado.
Mohamed Salama
Curso: Data Mining & Machine Learning with R
Machine Translated
Muy adaptado a las necesidades.
Yashan Wang
Curso: Data Mining with R
Machine Translated
Richard es muy tranquilo y metódico, con una visión analítica, exactamente las cualidades necesarias para presentar este tipo de curso.
Kieran Mac Kenna
Curso: Spark for Developers
Machine Translated
Me gustan los ejercicios realizados.
Nour Assaf
Curso: Data Mining and Analysis
Machine Translated
El ejercicio práctico y la capacidad del entrenador para explicar temas complejos en términos simples.
youssef chamoun
Curso: Data Mining and Analysis
Machine Translated
La información brindada fue interesante y la mejor parte fue hacia el final cuando recibimos datos de Durex y trabajamos en datos con los que estamos familiarizados y realizamos operaciones para obtener resultados.
Jessica Chaar
Curso: Data Mining and Analysis
Machine Translated
En general, me gustó que el entrenador diera ejemplos en vivo.
Simon Hahn
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté de las grandes competencias de Trainer.
Grzegorz Gorski
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté las muchas sesiones prácticas.
Jacek Pieczątka
Curso: Administrator Training for Apache Hadoop
Machine Translated
compartir diagrama conceptual y también muestra para manos sucias
Mark Yang - FMR
Curso: Spark for Developers
Machine Translated
Pensé que la información era interesante.
Allison May
Curso: Data Visualization
Machine Translated
Realmente aprecié que Jeff utilizara datos y ejemplos que fueran aplicables a los datos educativos. Lo hizo interesante e interactivo.
Carol Wells Bazzichi
Curso: Data Visualization
Machine Translated
Aprender sobre todos los tipos de gráficos y para qué se utilizan. Aprendiendo el valor del desorden. Aprendiendo sobre los métodos para mostrar datos de tiempo.
Susan Williams
Curso: Data Visualization
Machine Translated
Entrenador estaba entusiasmado.
Diane Lucas
Curso: Data Visualization
Machine Translated
Me gustó mucho el contenido / Instructor.
Craig Roberson
Curso: Data Visualization
Machine Translated
Soy un aprendiz práctico y esto fue algo que hizo mucho.
Lisa Comfort
Curso: Data Visualization
Machine Translated
Me gustaron los ejemplos.
Peter Coleman
Curso: Data Visualization
Machine Translated
En general, me beneficio de los ejemplos.
Peter Coleman
Curso: Data Visualization
Machine Translated
Disfruté los buenos ejemplos del mundo real, las revisiones de los informes existentes.
Ronald Parrish
Curso: Data Visualization
Machine Translated
Casos y casos aplicables
zhaopeng liu - Fmr
Curso: Spark for Developers
Machine Translated
Análisis de caso
国栋 张
Curso: Spark for Developers
Machine Translated
todas las partes de esta sesión
Eric Han - Fmr
Curso: Spark for Developers
Machine Translated
Realmente me beneficié de la buena disposición del entrenador para compartir más.
Balaram Chandra Paul
Curso: A practical introduction to Data Analysis and Big Data
Machine Translated
Sabemos mucho más sobre todo el entorno.
John Kidd
Curso: Spark for Developers
Machine Translated
El entrenador hizo la clase interesante y entretenida, lo que ayuda bastante con el entrenamiento de todo el día.
Ryan Speelman
Curso: Spark for Developers
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Me gustó mucho la forma interactiva de aprender.
Luigi Loiacono
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fue un entrenamiento muy práctico, me gustaron los ejercicios prácticos.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Me beneficié de la buena visión general, un buen equilibrio entre la teoría y los ejercicios.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Disfruté de la interacción dinámica y "manos a la obra" del tema, gracias a la Máquina Virtual, ¡muy estimulante !.
Philippe Job
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Ernesto hizo un gran trabajo al explicar los conceptos de alto nivel del uso de Spark y sus diversos módulos.
Michael Nemerouf
Curso: Spark for Developers
Machine Translated
Me beneficié de la competencia y el conocimiento del entrenador.
Jonathan Puvilland
Curso: Data Analysis with Hive/HiveQL
Machine Translated
En general, me beneficié de la presentación de tecnologías.
Continental AG / Abteilung: CF IT Finance
Curso: A practical introduction to Data Analysis and Big Data
Machine Translated
En general, el contenido fue bueno.
Sameer Rohadia
Curso: A practical introduction to Data Analysis and Big Data
Machine Translated
Ejercicios de ejemplo; intercambio de experiencias prácticas de trabajo
澳新银行
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
Cubo y DV
Alan Xie
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
El maestro tiene un conocimiento exhaustivo del almacén de datos.
澳新银行
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
El maestro explicó en detalle y discutió el ambiente
澳新银行
Curso: Data Vault: Building a Scalable Data Warehouse
Machine Translated
Michael the trainer es muy conocedor y habilidoso sobre el tema de Big Data y R. Es muy flexible y personaliza rápidamente la capacitación que satisface las necesidades de los clientes. Él también es muy capaz de resolver problemas técnicos y de temas sobre la marcha. Fantástico y profesional entrenamiento !.
Xiaoyuan Geng - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
Realmente disfruté la presentación de nuevos paquetes.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
El tutor, el Sr. Michael Yan, interactuó muy bien con la audiencia, la instrucción fue clara. El tutor también hace todo lo posible para agregar más información basada en las solicitudes de los estudiantes durante la capacitación.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
El tema y el ritmo fueron perfectos.
Tim - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programming with Big Data in R
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Programa del curso Big Data
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a desarrolladores que desean utilizar y integrar Spark, Hadoop, y Python para procesar, analizar y transformar grandes y complejos conjuntos de datos.
Al final de este curso, los participantes podrán:
Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python. Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop. Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes. Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume). Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google. Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
Formato del curso
Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a analistas de datos y científicos de datos que desean utilizar Weka para realizar tareas de minería de datos.
Al final de este curso, los participantes podrán:
Instalar y configurar Weka Comprender el entorno y el banco de trabajo. Realizar tareas de minería de datos utilizando Weka.
Formato del curso
Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a analistas de datos o a cualquiera que desee utilizar SPSS Modeler para realizar actividades de minería de datos.
Al final de este curso, los participantes podrán:
Comprender los fundamentos de la minería de datos. Aprende cómo importar y evaluar la calidad de los datos con el Modeler. Desarrollar, implementar y evaluar de manera eficiente los modelos de datos.
Formato del curso
Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Los participantes tendrán la oportunidad de poner este conocimiento en práctica a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor conforman un componente importante de la clase.
El curso comienza con una introducción a los conceptos elementales de Big Data, luego avanza hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de datos. Finalmente, discutimos las herramientas y la infraestructura que permiten el almacenamiento de Big Data, el procesamiento distribuido y la escalabilidad.
Audiencia
Desarrolladores / programadores
Consultores de TI
Formato del curso
Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
By the end of this training, participants will be able to:
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos.
Audiencia
- Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas
Formato del curso
- Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real.
Al final de esta capacitación, los participantes podrán:
- Consume datos de transmisión en tiempo real usando Kylin
- Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano
Nota
- Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0)
Audiencia
- Grandes ingenieros de datos
- Analistas de Big Data
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos.
Al final de esta capacitación, los participantes podrán:
- Crea, selecciona e interactivamente explora un lago de datos empresariales
- Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
- Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
- Acceda a funciones preconstruidas para explorar relaciones de datos complejas
- Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
- Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas
Audiencia
- Analistas de datos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) está dirigida a científicos de datos que desean usar Excel para la minería de datos.
Al final de esta capacitación, los participantes podrán:
- Explore datos con Excel para realizar minería y análisis de datos.
- Use algoritmos de Microsoft para la minería de datos.
- Comprender conceptos en la minería de datos de Excel .
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar, configurar y usar Dremio como una capa unificadora para las herramientas de análisis de datos y los repositorios de datos subyacentes.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Dremio
- Ejecutar consultas en múltiples fuentes de datos, independientemente de la ubicación, el tamaño o la estructura
- Integre Dremio con BI y fuentes de datos como Tableau y Elasticsearch
Audiencia
- Científicos de datos
- Analistas comerciales
- Ingenieros de datos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de Apache Drill, luego aprovecharán el poder y la conveniencia de SQL para consultar de manera interactiva big data en múltiples fuentes de datos, sin escribir código. Los participantes también aprenderán a optimizar sus consultas de exploración para la ejecución de SQL distribuido.
Al final de esta capacitación, los participantes podrán:
- Realizar exploración de "autoservicio" en datos estructurados y semiestructurados en Hadoop
- Consultar datos conocidos y desconocidos mediante consultas SQL
- Comprender cómo Apache Drills recibe y ejecuta consultas
- Escribir consultas SQL para analizar diferentes tipos de datos, incluidos datos estructurados en Hive, datos semiestructurados en tablas HBase o MapR-DB, y datos guardados en archivos como Parquet y JSON.
- Utilice Apache Drill para realizar el descubrimiento de esquemas sobre la marcha, evitando la necesidad de complejas operaciones ETL y esquemas
- Integre Apache Drill con herramientas de BI (Business Intelligence) como Tableau, Qlikview, MicroStrategy y Excel
Audiencia
- Analistas de datos
- Científicos de datos
- Programadores de SQL
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En esta capacitación en vivo dirigida por un instructor en el sitio, los participantes aprenderán cómo integrar Apache Arrow con varios marcos de Data Science para acceder a datos de fuentes de datos dispares.
Al final de esta capacitación, los participantes podrán:
- Instale y configure Apache Arrow en un entorno agrupado distribuido
- Use Apache Arrow para acceder a datos de fuentes de datos dispares
- Use Apache Arrow para evitar la necesidad de construir y mantener tuberías complejas de ETL
- Analice datos a través de fuentes de datos dispares sin tener que consolidarlos en un repositorio centralizado.
Audiencia
- Científicos de datos
- Ingenieros de datos
Formato del curso
- Conferencia parcial, discusión parcial, ejercicios y práctica práctica.
Nota
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Al final de esta formación, los participantes podrán:
- Consultar grandes cantidades de datos de forma eficiente.
- Comprender Big Data cómo el sistema almacena y recupera datos
- Utilice los últimos sistemas de big data disponibles
- Reunar los datos de los sistemas de datos en los sistemas de informes
- Aprenda a SQL escribir consultas en:
- My SQL
- Postgres
- Hive Lenguaje de Hive consulta ( QL/HQL)
- Redshift
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
Las soluciones gubernamentales de alto valor se crearán a partir de un mashup de las tecnologías más perjudiciales:
- Dispositivos y aplicaciones móviles
- Servicios en la nube
- Tecnologías de redes sociales y redes
- Big Data y análisis
IDC predice que para el año 2020, la industria de TI alcanzará los $ 5 billones, aproximadamente $ 1.7 trillones más que hoy, y que el 80% del crecimiento de la industria será impulsado por estas tecnologías de la 3ª Plataforma. A largo plazo, estas tecnologías serán herramientas clave para hacer frente a la complejidad del aumento de la información digital. Big Data es una de las soluciones inteligentes de la industria y permite al gobierno tomar mejores decisiones tomando medidas basadas en patrones revelados al analizar grandes volúmenes de datos relacionados y no relacionados, estructurados y no estructurados.
Pero el logro de estas hazañas lleva mucho más que la simple acumulación de cantidades masivas de datos. "Haciendo sentido de estos volúmenes de Big Datarequires herramientas de vanguardia y" tecnologías que pueden analizar y extraer conocimiento útil de las corrientes de información vasta y diversa ", Tom Kalil y Fen Zhao de la Oficina de la Casa Blanca de Política Científica y Tecnológica escribió en un post en el blog de OSTP.
La Casa Blanca dio un paso hacia ayudar a las agencias a encontrar estas tecnologías cuando estableció la Iniciativa Nacional de Investigación y Desarrollo de Grandes Datos en 2012. La iniciativa incluyó más de $ 200 millones para aprovechar al máximo la explosión de Big Data y las herramientas necesarias para analizarla .
Los desafíos que plantea Big Data son casi tan desalentadores como su promesa es alentadora. El almacenamiento eficiente de los datos es uno de estos desafíos. Como siempre, los presupuestos son ajustados, por lo que las agencias deben minimizar el precio por megabyte de almacenamiento y mantener los datos de fácil acceso para que los usuarios puedan obtenerlo cuando lo deseen y cómo lo necesitan. Copia de seguridad de grandes cantidades de datos aumenta el reto.
Otro gran desafío es analizar los datos de manera eficaz. Muchas agencias emplean herramientas comerciales que les permiten tamizar las montañas de datos, detectando tendencias que pueden ayudarles a operar de manera más eficiente. (Un estudio reciente de MeriTalk encontró que los ejecutivos federales de TI piensan que Big Data podría ayudar a las agencias a ahorrar más de 500.000 millones de dólares mientras cumplen los objetivos de la misión).
Las herramientas de Big Data desarrolladas a medida también están permitiendo a las agencias abordar la necesidad de analizar sus datos. Por ejemplo, el Grupo de Análisis de Datos Computacionales del Laboratorio Nacional de Oak Ridge ha puesto a disposición de otras agencias su sistema de análisis de datos Piranha. El sistema ha ayudado a los investigadores médicos a encontrar un vínculo que puede alertar a los médicos sobre los aneurismas de la aorta antes de que hagan huelga. También se utiliza para tareas más mundanas, tales como tamizar a través de currículos para conectar candidatos de trabajo con los gerentes de contratación.
Si intenta dar sentido a los datos a los que tiene acceso o desea analizar datos no estructurados disponibles en la red (como Twitter, Linked in, etc ...) este curso es para usted.
Está dirigido principalmente a los tomadores de decisiones y las personas que necesitan elegir qué datos vale la pena recopilar y qué vale la pena analizar.
No está dirigido a las personas que configuran la solución, esas personas se beneficiarán de la imagen grande sin embargo.
Modo de entrega
Durante el curso se presentarán a los delegados ejemplos prácticos de la mayoría de las tecnologías de código abierto.
Las conferencias cortas serán seguidas por la presentación y los ejercicios simples por los participantes
Contenido y software utilizados
Todo el software utilizado se actualiza cada vez que se ejecuta el curso, así que verificamos las versiones más recientes posibles.
Cubre el proceso de obtener, formatear, procesar y analizar los datos, para explicar cómo automatizar el proceso de toma de decisiones con el aprendizaje automático.
Día 2: explora una variedad de temas que relacionan las prácticas y herramientas de análisis para entornos de Big Data . No entra en detalles de implementación o programación, sino que mantiene la cobertura a nivel conceptual, centrándose en temas que permiten a los participantes desarrollar una comprensión integral de las funciones y características de análisis comunes que ofrecen las soluciones de Big Data .
Día 3: proporciona una descripción general de las áreas temáticas fundamentales y esenciales relacionadas con la arquitectura de la plataforma de soluciones de Big Data . Cubre los mecanismos de Big Data necesarios para el desarrollo de una plataforma de solución de Big Data y las opciones arquitectónicas para ensamblar una plataforma de procesamiento de datos. También se presentan escenarios comunes para proporcionar una comprensión básica de cómo se utiliza generalmente una plataforma de solución de Big Data .
Día 4: se basa en el Día 3 explorando temas avanzados relacionados con la arquitectura de la plataforma de soluciones de Big Data . En particular, se presentan y discuten diferentes capas arquitectónicas que conforman la plataforma de solución Big Data , incluidas las fuentes de datos, el ingreso de datos, el almacenamiento de datos, el procesamiento de datos y la seguridad.
Día 5: cubre una serie de ejercicios y problemas diseñados para evaluar la capacidad de los delegados para aplicar el conocimiento de los temas cubiertos en los días 3 y 4.
Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real.
Al final de esta capacitación, los participantes podrán:
- Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
- Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
- Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos
proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde
el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir
cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que
Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que
ser de beneficio mutuo entre los reguladores y los CSP.
2 días de curso: 8 módulos, 2 horas cada uno = 16 horas
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán la mentalidad con la cual abordarán las tecnologías de Big Data, evaluarán su impacto en los procesos y políticas existentes, e implementarán estas tecnologías con el propósito de identificar la actividad delictiva y prevenir el delito. Se examinarán estudios de casos de organizaciones de orden público de todo el mundo para obtener información sobre sus enfoques, desafíos y resultados de adopción.
Al final de esta capacitación, los participantes podrán:
- Combine la tecnología Big Data con procesos tradicionales de recopilación de datos para armar una historia durante una investigación
- Implementar soluciones industriales de almacenamiento y procesamiento de big data para el análisis de datos
- Preparar una propuesta para la adopción de las herramientas y procesos más adecuados para permitir un enfoque basado en datos para la investigación criminal
Audiencia
- Especialistas en aplicación de la ley con experiencia técnica
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Los asistentes aprenderán durante este curso cómo administrar los big data utilizando sus tres pilares de integración de datos, control de datos y seguridad de datos para convertir big data en valor comercial real. Diferentes ejercicios realizados en un estudio de caso de la gestión de clientes ayudarán a los asistentes a comprender mejor los procesos subyacentes.
By the end of this training, participants will:
- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
Esta formación en vivo dirigida por un instructor (in situ o remota) está dirigida a ingenieros de software que deseen utilizar Sqoop y Flume para transferir datos entre sistemas.
Al final de esta formación, los participantes podrán:
- Ingiera big data con Sqoop y Flume.
- Ingerique datos de varios orígenes de datos.
- Mover datos de bases de datos relacionales a HDFS y Hive.
- Exporte datos de HDFS a una base de datos relacional.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a personas técnicas que desean implementar Talend Open Studio para Big Data para simplificar el proceso de lectura y crunching a través de Big Data.
Al final de este curso, los participantes podrán:
Instalar y configurar Talend Open Studio para Big Data. Conecta con sistemas como Cloudera, HortonWorks, MapR, Amazon EMR y Apache. Comprender y configurar los grandes componentes de datos de Open Studio y los conectores. Configure los parámetros para generar automáticamente el código MapReduce. Use Open Studio's drag-and-drop interface para ejecutar trabajos. El prototipo de los grandes tubos de datos. Proyectos de integración automática de grandes datos.
Formato del curso
Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Last Updated: