Cursos de Deep Learning

Deep Learning Training

Deep machine learning, deep structured learning, hierarchical learning, DL courses

Testi...Client Testimonials

Introduction to Deep Learning

The topic is very interesting

Wojciech Baranowski - Dolby Poland Sp. z o.o.

Introduction to Deep Learning

Trainers theoretical knowledge and willingness to solve the problems with the participants after the training

Grzegorz Mianowski - Dolby Poland Sp. z o.o.

Introduction to Deep Learning

Topic. Very interesting!

Piotr - Dolby Poland Sp. z o.o.

Introduction to Deep Learning

Exercises after each topic were really helpful, despite there were too complicated at the end. In general, the presented material was very interesting and involving! Exercises with image recognition were great.

- Dolby Poland Sp. z o.o.

Advanced Deep Learning

The global overview of deep learning

Bruno Charbonnier - OSONES

Advanced Deep Learning

The exercises are sufficiently practical and do not need a high knowledge in Python to be done.

Alexandre GIRARD - OSONES

Advanced Deep Learning

Doing exercises on real examples using Keras. Mihaly totally understood our expectations about this training.

Paul Kassis - OSONES

Introduction to Deep Learning

Interesting subject

Wojciech Wilk - Dolby Poland Sp. z o.o.

Neural Networks Fundamentals using TensorFlow as Example

Knowledgeable trainer

Sridhar Voorakkara - INTEL R&D IRELAND LIMITED

Neural Networks Fundamentals using TensorFlow as Example

I was amazed at the standard of this class - I would say that it was university standard.

David Relihan - INTEL R&D IRELAND LIMITED

Neural Networks Fundamentals using TensorFlow as Example

Very good all round overview.Good background into why Tensorflow operates as it does.

Kieran Conboy - INTEL R&D IRELAND LIMITED

Neural Networks Fundamentals using TensorFlow as Example

I liked the opportunities to ask questions and get more in depth explanations of the theory.

Sharon Ruane - INTEL R&D IRELAND LIMITED

Machine Learning and Deep Learning

We have gotten a lot more insight in to the subject matter. Some nice discussion were made with some real subjects within our company

Sebastiaan Holman - Travix International

Machine Learning and Deep Learning

The training provided the right foundation that allows us to further to expand on, by showing how theory and practice go hand in hand. It actually got me more interested in the subject than I was before.

Jean-Paul van Tillo - Travix International

Machine Learning and Deep Learning

Coverage and depth of topics

Anirban Basu - Travix International

Introduction to Deep Learning

The deep knowledge of the trainer about the topic.

Sebastian Görg - FANUC Europe Corporation

TensorFlow for Image Recognition

Very updated approach or api (tensorflow, kera, tflearn) to do machine learning

Paul Lee - Hong Kong Productivity Council

Artificial Neural Networks, Machine Learning and Deep Thinking

Very flexible

Frank Ueltzhöffer - Robert Bosch GmbH

Artificial Neural Networks, Machine Learning and Deep Thinking

flexibility

Werner Philipp - Robert Bosch GmbH

Artificial Neural Networks, Machine Learning and Deep Thinking

flexibility

Werner Philipp - Robert Bosch GmbH

Artificial Neural Networks, Machine Learning and Deep Thinking

flexibility

Werner Philipp - Robert Bosch GmbH

Artificial Neural Networks, Machine Learning and Deep Thinking

flexibility

Werner Philipp - Robert Bosch GmbH

Neural Networks Fundamentals using TensorFlow as Example

Given outlook of the technology: what technology/process might become more important in the future; see, what the technology can be used for

Commerzbank AG

Neural Networks Fundamentals using TensorFlow as Example

Topic selection. Style of training. Practice orientation

Commerzbank AG

Neural Networks Fundamentals using TensorFlow as Example

Topic selection. Style of training. Practice orientation

Commerzbank AG

Subcategorías

Programas de los Cursos de Deep Learning

Código Nombre Duración Información General
embeddingprojector Embedding Projector: Visualizing your Training Data 14 horas Embedding Projector is an open-source web application for visualizing the data used to train machine learning systems. Created by Google, it is part of TensorFlow. This instructor-led, live training introduces the concepts behind Embedding Projector and walks participants through the setup of a demo project. By the end of this training, participants will be able to: Explore how data is being interpreted by machine learning models Navigate through 3D and 2D views of data to understand how a machine learning algorithm interprets it Understand the concepts behind Embeddings and their role in representing mathematical vectors for images, words and numerals. Explore the properties of a specific embedding to understand the behavior of a model Apply Embedding Project to real-world use cases such building a song recommendation system for music lovers Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
mlbankingr Machine Learning for Banking (with R) 28 horas In this instructor-led, live training, participants will learn how to apply machine learning techniques and tools for solving real-world problems in the banking industry. R will be used as the programming language. Participants first learn the key principles, then put their knowledge into practice by building their own machine learning models and using them to complete live team projects. Introduction Difference between statistical learning (statistical analysis) and machine learning Adoption of machine learning technology by finance and banking companies Different Types of Machine Learning Supervised learning vs unsupervised learning Iteration and evaluation Bias-variance trade-off Combining supervised and unsupervised learning (semi-supervised learning) Machine Learning Languages and Toolsets Open source vs proprietary systems and software R vs Python vs Matlab Libraries and frameworks Machine Learning Case Studies Consumer data and big data Assessing risk in consumer and business lending Improving customer service through sentiment analysis Detecting identity fraud, billing fraud and money laundering Introduction to R Installing the RStudio IDE Loading R packages Data structures Vectors Factors Lists Data Frames Matrixes and Arrays How to Load Machine Learning Data Databases, data warehouses and streaming data Distributed storage and processing with Hadoop and Spark Importing data from a database Importing data from Excel and CSV Modeling Business Decisions with Supervised Learning Classifying your data (classification) Using regression analysis to predict outcome Choosing from available machine learning algorithms Understanding decision tree algorithms Understanding random forest algorithms Model evaluation Exercise Regression Analysis Linear regression Generalizations and Nonlinearity Exercise Classification Bayesian refresher Naive Bayes Logistic regression K-Nearest neighbors Exercise Hands-on: Building an Estimation Model Assessing lending risk based on customer type and history Evaluating the performance of Machine Learning Algorithms Cross-validation and resampling Bootstrap aggregation (bagging) Exercise Modeling Business Decisions with Unsupervised Learning K-means clustering Challenges of unsupervised learning Beyond K-means Exercise Hands-on: Building a Recommendation System Analyzing past customer behavior to improve new service offerings Extending your company's capabilities Developing models in the cloud Accelerating machine learning with additional GPUs Beyond machine learning: Artificial Intelligence (AI) Applying Deep Learning neural networks for computer vision, voice recognition and text analysis Closing Remarks
openface OpenFace: Creating Facial Recognition Systems 14 horas OpenFace is Python and Torch based open-source, real-time facial recognition software based on Google’s FaceNet research. In this instructor-led, live training, participants will learn how to use OpenFace's components to create and deploy a sample facial recognition application. By the end of this training, participants will be able to: Work with OpenFace's components, including dlib, OpenVC, Torch, and nn4 to implement face detection, alignment, and transformation. Apply OpenFace to real-world applications such as surveillance, identity verification, virtual reality, gaming, and identifying repeat customers, etc. Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
mlbankingpython_ Machine Learning for Banking (with Python) 21 horas In this instructor-led, live training, participants will learn how to apply machine learning techniques and tools for solving real-world problems in the banking industry. Python will be used as the programming language. Participants first learn the key principles, then put their knowledge into practice by building their own machine learning models and using them to complete live team projects. Introduction Difference between statistical learning (statistical analysis) and machine learning Adoption of machine learning technology and talent by finance and banking companies Different Types of Machine Learning Supervised learning vs unsupervised learning Iteration and evaluation Bias-variance trade-off Combining supervised and unsupervised learning (semi-supervised learning) Machine Learning Languages and Toolsets Open source vs proprietary systems and software Python vs R vs Matlab Libraries and frameworks Machine Learning Case Studies Consumer data and big data Assessing risk in consumer and business lending Improving customer service through sentiment analysis Detecting identity fraud, billing fraud and money laundering Hands-on: Python for Machine Learning Preparing the Development Environment Obtaining Python machine learning libraries and packages Working with scikit-learn and PyBrain How to Load Machine Learning Data Databases, data warehouses and streaming data Distributed storage and processing with Hadoop and Spark Exported data and Excel Modeling Business Decisions with Supervised Learning Classifying your data (classification) Using regression analysis to predict outcome Choosing from available machine learning algorithms Understandind decision tree algorithms Understanding random forest algorithms Model evaluation Exercise Regression Analysis Linear regression Generalizations and Nonlinearity Exercise Classification Bayesian refresher Naive Bayes Logistic regression K-Nearest neighbors Exercise Hands-on: Building an Estimation Model Assessing lending risk based on customer type and history Evaluating the performance of Machine Learning Algorithms Cross-validation and resampling Bootstrap aggregation (bagging) Exercise Modeling Business Decisions with Unsupervised Learning K-means clustering Challenges of unsupervised learning Beyond K-means Exercise Hands-on: Building a Recommendation System Analyzing past customer behavior to improve new service offerings Extending your company's capabilities Developing models in the cloud Accelerating machine learning with GPU Beyond machine learning: Artificial Intelligence (AI) Applying Deep Learning neural networks for computer vision, voice recognition and text analysis Closing Remarks
t2t T2T: Creating Sequence to Sequence models for generalized learning 7 horas Tensor2Tensor (T2T) is a modular, extensible library for training AI models in different tasks, using different types of training data, for example: image recognition, translation, parsing, image captioning, and speech recognition. It is maintained by the Google Brain team. In this instructor-led, live training, participants will learn how to prepare a deep-learning model to resolve multiple tasks. By the end of this training, participants will be able to: Install tensor2tensor, select a data set, and train and evaluate an AI model Customize a development environment using the tools and components included in Tensor2Tensor Create and use a single model to concurrently learn a number of tasks from multiple domains Use the model to learn from tasks with a large amount of training data and apply that knowledge to tasks where data is limited Obtain satisfactory processing results using a single GPU Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
deeplearning1 Introducción al Aprendizaje Profundo 21 horas Este curso es una visión general de Deep Learning sin profundizar en ningún método específico. Es adecuado para las personas que quieren empezar a usar el aprendizaje profundo para mejorar su precisión de la predicción. Backprop, modelos modulares Módulo Logsum Red RBF MAP / Pérdida MLE Transformaciones espaciales de parámetros Módulo convolucional Aprendizaje basado en gradientes Energía para inferencia, Objetivo para el aprendizaje PCA; NLL: Modelos de variables latentes Probabilística LVM Función de pérdida Reconocimiento de escritura a mano
radvml Advanced Machine Learning with R 21 horas In this instructor-led, live training, participants will learn advanced techniques for Machine Learning with R as they step through the creation of a real-world application. By the end of this training, participants will be able to: Use techniques as hyper-parameter tuning and deep learning Understand and implement unsupervised learning techniques Put a model into production for use in a larger application Audience Developers Analysts Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
Fairseq Fairseq: Setting up a CNN-based machine translation system 7 horas Fairseq is an open-source sequence-to-sequence learning toolkit created by Facebok for use in Neural Machine Translation (NMT). In this training participants will learn how to use Fairseq to carry out translation of sample content. By the end of this training, participants will have the knowledge and practice needed to implement a live Fairseq based machine translation solution. Source and target language content samples can be prepared according to audience's requirements. Audience Localization specialists with a technical background Global content managers Localization engineers Software developers in charge of implementing global content solutions Format of the course     Part lecture, part discussion, heavy hands-on practice Introduction     Why Neural Machine Translation? Overview of the Torch project Overview of a Convolutional Neural Machine Translation model     Convolutional Sequence to Sequence Learning     Convolutional Encoder Model for Neural Machine Translation     Standard LSTM-based model Overview of training approaches     About GPUs and CPUs     Fast beam search generation Installation and setup Evaluating pre-trained models Preprocessing your data Training the model Translating Converting a trained model to use CPU-only operations Joining to the community Closing remarks
pythonadvml Python for Advanced Machine Learning 21 horas In this instructor-led, live training, participants will learn the most relevant and cutting-edge machine learning techniques in Python as they build a series of demo applications involving image, music, text, and financial data. By the end of this training, participants will be able to: Implement machine learning algorithms and techniques for solving complex problems Apply deep learning and semi-supervised learning to applications involving image, music, text, and financial data Push Python algorithms to their maximum potential Use libraries and packages such as NumPy and Theano Audience Developers Analysts Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
dladv Aprendizaje Profundo (Deep Learning) Avanzado 28 horas Este curso visa proporcionar todas as ferramentas e explicitar todos os apectos necessários para que os participantes possam adquirir conhecimetos únicos e funcionais acerca do Deep learning avançado, com o objetivo de que possam aplicar-lo em seu uso cotidiano. Limitaciones del aprendizaje de la máquina Aprendizaje de máquinas, asignaciones no lineales Redes neuronales Optimización no lineal, gradiente estocástico / MiniBatch Decente Propagación trasera Codificación Dispersa Profunda Autocodificadores escamosos (SAE) Redes Neuronales Convolucionales (CNNs) Éxitos: Descriptor Matching Obstáculo basado en estéreo Evitación para Robótica Agrupación e invariancia Visualización / Redes Deconvolucionarias Las Redes Neuronales Recurrentes (RNN) y su optimización Aplicaciones a la PNL Las RNN continuaron, Optimización de Hessian-Free Análisis del lenguaje: vectores de palabras / frases, análisis sintáctico, análisis de sentimientos, etc. Modelos gráficos probabilísticos Hopfield Nets, Máquinas Boltzmann, Máquinas Boltzmann Restringidas Hopfield Networks, (Restringido) Máquinas de Bolzmann Deep Belief Nets, RBMs apilados Aplicaciones a NLP, Pose y Reconocimiento de Actividad en Videos Avances recientes Aprendizaje a Gran Escala Máquinas de Turing Neural
singa Dominando Apache SINGA 21 horas SINGA es una plataforma de aprendizaje profundo distribuida para la formación de grandes modelos de aprendizaje profundo sobre grandes conjuntos de datos. Está diseñado con un modelo de programación intuitivo basado en la abstracción de capas. Se admite una variedad de modelos populares de aprendizaje profundo, a saber, los modelos de feed-forward que incluyen redes neuronales convolucionales (CNN), modelos energéticos como la máquina Boltzmann restringida (RBM) y redes neuronales recurrentes (RNN). Muchas capas integradas se proporcionan para los usuarios. La arquitectura de SINGA es lo suficientemente flexible como para ejecutar marcos de formación síncronos, asíncronos e híbridos. SINGA también soporta diferentes esquemas de particionamiento de red neural para paralelizar el entrenamiento de grandes modelos, a saber, partición en la dimensión de lote, dimensión de entidad o partición híbrida. Audiencia Este curso está dirigido a investigadores, ingenieros y desarrolladores que buscan utilizar Apache SINGA como un marco de aprendizaje profundo. Después de completar este curso, los delegados: entender la estructura y los mecanismos de implementación de SINGA ser capaz de llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración ser capaz de evaluar la calidad del código, realizar depuración, ser capaz de implementar la producción avanzada como modelos de entrenamiento, términos de inclusión, gráficos de construcción y registro Introducción Instalación Inicio rápido Programación NeuralNet Capa Param Tren a la venta Actualizador Entrenamiento Distribuido Preparación de datos Punto de control y reanudación Enlace de Python Prueba de rendimiento y extracción de características Entrenamiento en GPU Ejemplos Modelos de feed-forward CNN MLP RBM + Auto-encoder RNN de vainilla para el modelado del lenguaje Char-RNN
tf101 Aprendizaje Profundo con TensorFlow 21 horas TensorFlow es una API de segunda generación de la biblioteca de software de código abierto de Google para Deep Learning. El sistema está diseñado para facilitar la investigación en aprendizaje de máquina, y para hacer rápida y fácil la transición del prototipo de investigación al sistema de producción. Audiencia Este curso está dirigido a ingenieros que buscan usar TensorFlow para sus proyectos de Aprendizaje Profundo Después de completar este curso, los delegados: entender la estructura y los mecanismos de despliegue de TensorFlow ser capaz de llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración ser capaz de evaluar la calidad del código, realizar depuración, ser capaz de implementar producción avanzada como los modelos de entrenamiento, la construcción de gráficos y registro Aprendizaje Automático y Redes Neuronales Recursivas (RNN) NN y RNN Backprogation La memoria de largo plazo (LSTM) Fundamentos de TensorFlow Creación, inicialización, almacenamiento y restauración de variables TensorFlow Alimentación, lectura y precarga de los datos de TensorFlow Cómo usar la infraestructura de TensorFlow para entrenar modelos a escala Visualización y evaluación de modelos con TensorBoard TensorFlow Mecánica 101 Preparar los datos Descargar Entradas y marcadores de posición Construir el gráfico Inferencia Pérdida Formación Entrenar el modelo La gráfica La sesión Tren de bucle Evaluar el modelo Construir el Gráfico de Eval Salida de Eval Uso Avanzado Enhebrado y Colas Distribuido TensorFlow Escribir documentación y compartir su modelo Personalización de lectores de datos Uso de GPU¹ Manipulación de archivos de modelo TensorFlow Servicio TensorFlow Introducción Tutorial de servicio básico Tutorial de servicio avanzado Tutorial del modelo de inicio de servicio ¹ El tema Uso avanzado, "Uso de GPUs", no está disponible como parte de un curso remoto. Este módulo puede ser entregado durante los cursos en el aula, pero sólo con un acuerdo previo, y solo si el entrenador y todos los participantes tienen computadoras portátiles con GPU NVIDIA compatibles, con Linux de 64 bits instalado (no proporcionado por NobleProg). NobleProg no puede garantizar la disponibilidad de capacitadores con el hardware necesario.
bspkannmldt Redes Neuronales Artificiales, Pensamiento Profundo y Aprendizaje Automático 21 horas 1. Comprensión de la clasificación con los vecinos más cercanos El algoritmo kNN Calculando la distancia Elegir un k apropiado Preparación de datos para su uso con kNN ¿Por qué el algoritmo kNN es perezoso? 2. Entendiendo Bayes ingenuos Conceptos básicos de los métodos bayesianos Probabilidad Probabilidad conjunta Probabilidad condicional con el teorema de Bayes El ingenioso algoritmo de Bayes La ingenua clasificación de Bayes El estimador de Laplace Utilizar funciones numéricas con bayes ingenuos 3.Comprensión de árboles de decisión Divide y conquistaras El algoritmo del árbol de decisiones C5.0 Elegir la mejor división Podar el árbol de decisiones 4. Descripción de las reglas de clasificación Separa y conquista El algoritmo de una regla El algoritmo RIPPER Reglas de árboles de decisión 5.Comprensión de la regresión Regresión lineal simple Estimación de mínimos cuadrados ordinarios Correlaciones Regresión lineal múltiple 6. Entender árboles de regresión y árboles modelo Agregando regresión a los árboles 7. Entender las redes neuronales De las neuronas biológicas a las artificiales Funciones de activación Topología de la red El número de capas La dirección del viaje de información El número de nodos en cada capa Entrenamiento de redes neuronales con backpropagation 8. Comprensión de las máquinas de soporte vectorial Clasificación con hiperplanos Determinación del margen máximo El caso de datos linealmente separables El caso de datos no linealmente separables Uso de kernels para espacios no lineales 9. Entender las reglas de asociación El algoritmo Apriori para el aprendizaje de reglas de asociación Medición del interés de la regla - apoyo y confianza Construir un conjunto de reglas con el principio Apriori 10. Entender el agrupamiento Agrupación como tarea de aprendizaje automático El algoritmo k-means para la agrupación Uso de la distancia para asignar y actualizar clústeres Elegir el número apropiado de clusters 11. Medición del rendimiento para la clasificación Trabajar con datos de predicción de clasificación Una mirada más cercana a las matrices de confusión Uso de matrices de confusión para medir el rendimiento Más allá de la precisión - otras medidas de rendimiento La estadística kappa Sensibilidad y especificidad Precisión y recordación La medida F Visualización de compensaciones de rendimiento Curvas ROC Estimación del rendimiento futuro El método holdout Validación cruzada Muestreo Bootstrap 12. Ajuste de modelos de stock para un mejor rendimiento Uso del cursor para la sintonización automática de parámetros Creación de un modelo sintonizado simple Personalización del proceso de sintonización Mejorar el rendimiento del modelo con meta-aprendizaje Entendiendo conjuntos Harpillera Impulsando Bosques al azar Formación de bosques al azar Evaluación del rendimiento forestal aleatorio 13. Aprendizaje Profundo Tres Clases de Aprendizaje Profundo Autocodificadores profundos Redes Neuronales Profundas Pre-entrenadas Redes apiladoras profundas 14. Discusión de Áreas de Aplicación Específicas
facebooknmt Facebook NMT: Setting up a neural machine translation system 7 horas Fairseq is an open-source sequence-to-sequence learning toolkit created by Facebok for use in Neural Machine Translation (NMT). In this training participants will learn how to use Fairseq to carry out translation of sample content. By the end of this training, participants will have the knowledge and practice needed to implement a live Fairseq based machine translation solution. Audience Localization specialists with a technical background Global content managers Localization engineers Software developers in charge of implementing global content solutions Format of the course Part lecture, part discussion, heavy hands-on practice Note If you wish to use specific source and target language content, please contact us to arrange. Introduction     Why Neural Machine Translation?     Borrowing from image recognition techniques Overview of the Torch and Caffe2 projects Overview of a Convolutional Neural Machine Translation model     Convolutional Sequence to Sequence Learning     Convolutional Encoder Model for Neural Machine Translation     Standard LSTM-based model Overview of training approaches     About GPUs and CPUs     Fast beam search generation Installation and setup Evaluating pre-trained models Preprocessing your data Training the model Translating Converting a trained model to use CPU-only operations Joining to the community Closing remarks
dl4j Dominando Deeplearning4j 21 horas Deeplearning4j es la primera biblioteca de aprendizaje profundo, de código abierto y de código abierto, escrita para Java y Scala. Integrado con Hadoop y Spark, DL4J está diseñado para ser utilizado en entornos empresariales en GPUs y CPU distribuidas. Audiencia Este curso está dirigido a ingenieros y desarrolladores que buscan utilizar Deeplearning4j en sus proyectos. Después de este curso, los delegados podrán: Empezando Inicio rápido: Ejecución de ejemplos y DL4J en sus proyectos Guía de configuración completa Introducción a las redes neuronales Máquinas restringidas de Boltzmann Redes Convolucionales (ConvNets) Unidades de Memoria a Corto Plazo (LSTM) Denoising Autoencoders Redes Neurales Multicapa Red de creencias profundas AutoEncoder Profundo Autoencoders apilados Denoising Tutoriales Uso de redes recurrentes en DL4J Tutorial de MNIST DBN Iris Flower Tutorial Canova: Vectorization Lib for ML Tools Actualizadores Neuronales: SGD, Adam, Adagrad, Adadelta, RMSProp Conjuntos de datos Conjuntos de datos y aprendizaje de máquinas Conjuntos de datos personalizados Cargas de datos CSV Poner a escala Reducir Iterativo Definido Multiprocesador / Clustering Ejecución de los nodos de los trabajadores Texto Marco NLP de DL4J Word2vec para Java y Scala Análisis Textual y DL Bolsa de palabras Sentencia y segmentación de documentos Tokenization Caché de Vocab Advanced DL2J Construir localmente desde Master Contribuir a DL4J (Guía para desarrolladores) Elija una red neuronal Utilizar la herramienta Maven Build Vectorizar datos con Canova Construir una tubería de datos Ejecutar puntos de referencia Configurar DL4J en Ivy, Gradle, SBT, etc Buscar una clase o método DL4J Guardar y cargar modelos Interpretar la salida neural de la red Visualice los datos con t-SNE Swap CPUs para GPUs Personalizar un pipeline de imagen Realizar la regresión con redes neuronales Solucionar problemas de formación y seleccionar hiperparámetros de red Visualice, monitoree y depure el aprendizaje en red Acelerar la chispa con binarios nativos Construir un motor de recomendación con DL4J Utilizar redes recurrentes en DL4J Construya arquitecturas complejas de la red con el gráfico de la computación Redes de trenes que usan detención temprana Descargar Snapshots With Maven Personalizar una función de pérdida
tpuprogramming TPU Programming: Building Neural Network Applications on Tensor Processing Units 7 horas The Tensor Processing Unit (TPU) is the architecture which Google has used internally for several years, and is just now becoming available for use by the general public. It includes several optimizations specifically for use in neural networks, including streamlined matrix multiplication, and 8-bit integers instead of 16-bit in order to return appropriate levels of precision. In this instructor-led, live training, participants will learn how to take advantage of the innovations in TPU processors to maximize the performance of their own AI applications. By the end of the training, participants will be able to: Train various types of neural networks on large amounts of data Use TPUs to speed up the inference process by up to two orders of magnitude Utilize TPUs to process intensive applications such as image search, cloud vision and photos Audience Developers Researchers Engineers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
Neuralnettf Fundamentos de Redes Neuronales Usando TensorFlow como Ejemplo 28 horas Este curso le proporcionará conocimientos en redes neuronales y, en general, en algoritmos de aprendizaje automático, aprendizaje profundo (algoritmos y aplicaciones). Este entrenamiento se enfoca más en los fundamentos, pero lo ayudará a elegir la tecnología adecuada: TensorFlow, Caffe, Teano, DeepDrive, Keras, etc. Los ejemplos están hechos en TensorFlow. Conceptos básicos de TensorFlow Creación, inicialización, almacenamiento y restauración de variables de TensorFlow Alimentando, leyendo y precargando los datos de TensorFlow Cómo usar la infraestructura de TensorFlow para entrenar modelos a escala Visualización y evaluación de modelos con TensorBoard Mecánica TensorFlow Entradas y marcadores de posición Construye los GraphS Inferencia Pérdida Formación Entrenar el modelo La gráfica La sesión Train Loop Evaluar el modelo Construye el Gráfico Eval Salida Eval El Perceptron Funciones de activación El algoritmo de aprendizaje perceptron Clasificación binaria con el perceptrón Clasificación de documentos con el perceptrón Limitaciones del perceptrón Desde Perceptron hasta Support Vector Machines Kernels y el truco del kernel Máxima clasificación de márgenes y vectores de soporte Redes neuronales artificiales Límites de decisión no lineal Feedforward y feedback redes neuronales artificiales Perceptrones multicapa Minimizando la función de costo Propagación hacia adelante Reproducción posterior Mejorando la forma en que las redes neuronales aprenden Redes neuronales convolucionales Metas Arquitectura modelo Principios Organización de código Lanzamiento y entrenamiento del modelo Evaluar un modelo
tfir TensorFlow para Reconocimiento de Imágenes 28 horas Este curso explora, con ejemplos específicos, la aplicación de Flujo Tensor a los propósitos de reconocimiento de imagen Audiencia Este curso está dirigido a ingenieros que buscan utilizar TensorFlow para los propósitos de reconocimiento de imágenes Después de completar este curso, los delegados podrán: entender la estructura y los mecanismos de despliegue de TensorFlow llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración evaluar la calidad del código, realizar depuración, monitoreo implementar la producción avanzada como modelos de formación, creación de gráficos y registro Aprendizaje Automático y Redes Neuronales Recursivas (RNN) NN y RNN Backprogation La memoria de largo plazo (LSTM) Fundamentos de TensorFlow Creación, inicialización, almacenamiento y restauración de variables TensorFlow Alimentación, lectura y precarga de los datos de TensorFlow Cómo usar la infraestructura de TensorFlow para entrenar modelos a escala Visualización y evaluación de modelos con TensorBoard TensorFlow Mecánica 101 Archivos de Tutorial Preparar los datos Descargar Entradas y marcadores de posición Construir el gráfico Inferencia Pérdida Formación Entrenar el modelo La gráfica La sesión Tren de bucle Evaluar el modelo Construir el Gráfico de Eval Salida de Eval Uso Avanzado Enhebrado y Colas Distribuido TensorFlow Escribir documentación y compartir su modelo Personalización de lectores de datos Uso de GPU¹ Manipulación de archivos de modelo TensorFlow Servicio TensorFlow Introducción Tutorial de servicio básico Tutorial de servicio avanzado Tutorial del modelo de inicio de servicio Redes Neuronales Convolucionales Visión de conjunto Metas Aspectos destacados del tutorial Arquitectura del Modelo Organización del código Modelo CIFAR-10 Entradas del modelo Predicción de modelo Formación Modelo Lanzamiento y formación del modelo Evaluación de un modelo Formación de un modelo con varias tarjetas GPU¹ Colocación de variables y operaciones en dispositivos Lanzamiento y entrenamiento del modelo en múltiples tarjetas GPU Aprendizaje profundo para MNIST Preparar Carga de datos MNIST Iniciar TensorFlow InteractiveSession Construir un modelo de regresión Softmax Marcadores de posición Variables Función de clase y costo pronosticada Entrenar el modelo Evaluar el modelo Construir una red convolucional multicapa Inicialización del peso Convolución y agrupación Primera capa convolucional Segunda capa convolucional Capa Densamente Conectada Capa de lectura Entrenar y evaluar el modelo Reconocimiento de imagen Inception-v3 C ++ Java ¹ Los temas relacionados con el uso de GPUs no están disponibles como parte de un curso remoto. Pueden ser entregados durante los cursos en el aula, pero sólo con un acuerdo previo, y solo si el entrenador y todos los participantes tienen computadoras portátiles con GPU NVIDIA compatibles, con Linux de 64 bits instalado (no proporcionado por NobleProg). NobleProg no puede garantizar la disponibilidad de capacitadores con el hardware necesario.
mldt Aprendizaje Automático y Aprendizaje Profundo 21 horas Este curso cubre IA (enfatizando Aprendizaje automático y Aprendizaje profundo)   Introducción al aprendizaje automático Aplicaciones de aprendizaje automático Aprendizaje supervisado versus no supervisado Algoritmos de aprendizaje automático Regresión Clasificación Agrupación Sistema de recomendación Detección de anomalías Aprendizaje reforzado Regresión Regresión simple y múltiple Método menos cuadrado Estimando los coeficientes Evaluar la precisión de las estimaciones del coeficiente Evaluar la precisión del modelo Análisis de post-estimación Otras consideraciones en los modelos de regresión Predictores Cualitativos Extensiones de los modelos lineales Problemas potenciales Variación sesgo-varianza [ajuste insuficiente / ajuste excesivo] para modelos de regresión Métodos de remuestreo Validación cruzada El enfoque del conjunto de validación Cross-Validation Leave-One-Out Validación Cruzada k-Fold Bias-Variance Trade-Off para k-Fold El Bootstrap Selección de modelos y regularización Selección del subconjunto [Selección del mejor subconjunto, Selección por pasos, Elección del modelo óptimo] Métodos de contracción / Regularización [Ridge Regression, Lasso & Elastic Net] Seleccionar el parámetro de ajuste Métodos de reducción de dimensiones Regresión de componentes principales Mínimos cuadrados parciales Clasificación Regresión logística La función de costo del Modelo Logístico Estimando los coeficientes Haciendo predicciones Odds Ratio Matrices de evaluación de desempeño [Sensibilidad / Especificidad / PPV / NPV, precisión, curva ROC, etc.] Regresión logística múltiple Regresión logística para> 2 clases de respuesta Regresión logística regularizada Análisis discriminante lineal Usando el teorema de Bayes para la clasificación Análisis discriminante lineal para p = 1 Análisis discriminante lineal para p> 1 Análisis discriminante cuadrático K-Vecinos más cercanos Clasificación con límites de decisión no lineales Soporte Vector Machines Objetivo de optimización El clasificador de margen máximo Núcleos Clasificación One-Versus-One Clasificación One-Versus-All Comparación de los métodos de clasificación Introducción al Aprendizaje Profundo Estructura ANN Neuronas biológicas y neuronas artificiales Hipótesis no lineal Representación del modelo Ejemplos e intuiciones Función de transferencia / Funciones de activación Clases típicas de arquitecturas de red Avance ANN. Estructuras de redes de feed feed multicapa Algoritmo de propagación de la espalda Back propagation - entrenamiento y convergencia Aproximación funcional con propagación hacia atrás Problemas prácticos y de diseño del aprendizaje de propagación de retorno Aprendizaje profundo Inteligencia Artificial y Aprendizaje Profundo Regresión de Softmax Aprendizaje autodidacta Redes profundas Demos y Aplicaciones Laboratorio: Comenzando con R Introducción a R Comandos básicos y bibliotecas Manipulación de datos Importación y exportación de datos Resúmenes gráficos y numéricos Funciones de escritura Regresión Regresión lineal simple y múltiple Términos de interacción Transformaciones no lineales Regresión variable ficticia Cross-Validation y Bootstrap Métodos de selección de subconjuntos Penalización [Ridge, Lasso, Elastic Net] Clasificación Regresión logística, LDA, QDA y KNN, Remuestreo y Regularización Máquinas de vectores soporte Remuestreo y Regularización Nota: Para los algoritmos de ML, se usarán estudios de casos para analizar su aplicación, ventajas y posibles problemas. El análisis de diferentes conjuntos de datos se realizará utilizando R
tsflw2v Procesamiento del Lenguaje Natural con TensorFlow 35 horas TensorFlow ™ es una biblioteca de software de código abierto para computación numérica utilizando gráficos de flujo de datos. SyntaxNet es una estructura de procesamiento de lenguaje natural de la red neuronal para TensorFlow. Word2Vec se utiliza para el aprendizaje de representaciones vectoriales de palabras, llamadas "embeddings palabra". Word2vec es un modelo predictivo particularmente computacionalmente eficiente para aprender las incorporaciones de palabras a partir de texto en bruto. Viene en dos sabores, el modelo continuo de la bolsa-de-palabras (CBOW) y el modelo de Skip-Gram (capítulo 3.1 y 3.2 en Mikolov y otros). Utilizado en tándem, SyntaxNet y Word2Vec permite a los usuarios generar modelos de incorporación aprendida de entrada de lenguaje natural. Audiencia Este curso está dirigido a desarrolladores e ingenieros que tienen la intención de trabajar con los modelos SyntaxNet y Word2Vec en sus gráficos TensorFlow. Después de completar este curso, los delegados: Entender la estructura y los mecanismos de despliegue de TensorFlow ser capaz de llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración ser capaz de evaluar la calidad del código, realizar depuración, ser capaz de implementar la producción avanzada como modelos de entrenamiento, términos de inclusión, gráficos de construcción y registro Empezando Instalación e instalación Fundamentos de TensorFlow Creación, inicialización, almacenamiento y restauración de variables TensorFlow Alimentación, lectura y precarga de los datos de TensorFlow Cómo usar la infraestructura de TensorFlow para entrenar modelos a escala Visualización y evaluación de modelos con TensorBoard TensorFlow Mecánica 101 Preparar los datos Descargar Entradas y marcadores de posición Construir el gráfico Inferencia Pérdida Formación Entrenar el modelo La gráfica La sesión Tren de bucle Evaluar el modelo Construir el Gráfico de Eval Salida de Eval Uso Avanzado Enhebrado y Colas Distribuido TensorFlow Escribir documentación y compartir su modelo Personalización de lectores de datos Uso de GPUs Manipulación de archivos de modelo TensorFlow Servicio TensorFlow Introducción Tutorial de servicio básico Tutorial de servicio avanzado Tutorial del modelo de inicio de servicio Introducción a SyntaxNet Análisis de entrada estándar Anotar un Corpus Configuración de los scripts de Python Construyendo un oleoducto de PNL con SyntaxNet Obtención de datos Etiquetado de parte del habla Entrenamiento del sintaxis POS Tagger Preprocesamiento con el Tagger Análisis de dependencia: Análisis basado en la transición Entrenamiento de un analizador Paso 1: Pretraining local Formación de un analizador Paso 2: Formación global Representaciones Vectoriales de Palabras Motivación: ¿Por qué aprender las incorporaciones de palabras? Aumentar la escala con el entrenamiento con interferencia de ruido El modelo Skip-gram Construyendo el Gráfico Formación del modelo Visualización de los Embeddings aprendidos Evaluación de Embeddings: Razonamiento analógico Optimización de la implementación
tensorflowserving TensorFlow Serving 7 horas TensorFlow Serving is a system for serving machine learning (ML) models to production. In this instructor-led, live training, participants will learn how to configure and use TensorFlow Serving to deploy and manage ML models in a production environment. By the end of this training, participants will be able to: Train, export and serve various TensorFlow models Test and deploy algorithms using a single architecture and set of APIs Extend TensorFlow Serving to serve other types of models beyond TensorFlow models Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
w2vdl4j NLP con Deeplearning4j 14 horas Deeplearning4j es una biblioteca de código abierto y de aprendizaje profundo escrita para Java y Scala. Integrado con Hadoop y Spark, DL4J está diseñado para ser utilizado en entornos empresariales en GPUs y CPU distribuidas. Word2Vec es un método de computación de representaciones vectoriales de palabras introducidas por un equipo de investigadores de Google liderado por Tomas Mikolov. Audiencia Este curso está dirigido a investigadores, ingenieros y desarrolladores que buscan utilizar Deeplearning4J para construir modelos Word2Vec. Empezando Ejemplos de DL4J en unos pocos pasos sencillos Uso de DL4J en sus propios proyectos: Configuración del archivo POM.xml Word2Vec Introducción Embellecimientos de palabras neuronales Amusing Word2vec Resultados el código Anatomía de Word2Vec Configuración, carga y tren Un ejemplo de código Solución de problemas y ajuste Word2Vec Casos de uso de Word2vec Idiomas extranjeros GloVe (vectores globales) y Doc2Vec
datamodeling Reconocimiento de Patrones 35 horas Este curso proporciona una introducción en el campo del reconocimiento de patrones y el aprendizaje automático. Se trata de aplicaciones prácticas en estadística, informática, procesamiento de señales, visión por computadora, minería de datos y bioinformática. El curso es interactivo e incluye muchos ejercicios prácticos, comentarios de los instructores y pruebas de los conocimientos y habilidades adquiridos. Audiencia      Analistas de datos      Estudiantes de doctorado, investigadores y profesionales Introducción Teoría de la probabilidad, selección del modelo, teoría de la decisión e información Distribuciones de probabilidad Modelos lineales para regresión y clasificación Redes neuronales Métodos Kernel Máquinas kernel esparcidas Modelos gráficos Modelos de mezcla y EM Inferencia aproximada Métodos de muestreo Variables latentes continuas Datos secuenciales Combinando modelos
dl4jir DeepLearning4J para el Reconocimiento de Imágenes 21 horas Deeplearning4j es un software Open-Source Deep-Learning para Java y Scala en Hadoop y Spark. Audiencia Este curso está dirigido a ingenieros y desarrolladores que buscan utilizar DeepLearning4J en sus proyectos de reconocimiento de imágenes. Empezando Inicio rápido: Ejecución de ejemplos y DL4J en sus proyectos Guía de configuración completa Redes Neuronales Convolucionales Introducción a la red convolucional Las imágenes son 4-D Tensors? Definición de ConvNet Cómo funcionan las redes convolucionales Maxpooling / Downsampling DL4J Ejemplo de código Otros recursos Conjuntos de datos Conjuntos de datos y aprendizaje de máquinas Conjuntos de datos personalizados Cargas de datos CSV Poner a escala Reducir Iterativo Definido Multiprocesador / Clustering Ejecución de los nodos de los trabajadores Advanced DL2J Construir localmente desde Master Utilizar la herramienta Maven Build Vectorizar datos con Canova Construir una tubería de datos Ejecutar puntos de referencia Configurar DL4J en Ivy, Gradle, SBT, etc Buscar una clase o método DL4J Guardar y cargar modelos Interpretar la salida neural de la red Visualice los datos con t-SNE Swap CPUs para GPUs Personalizar un pipeline de imagen Realizar la regresión con redes neuronales Solucionar problemas de formación y seleccionar hiperparámetros de red Visualice, monitoree y depure el aprendizaje en red Acelerar la chispa con binarios nativos Construir un motor de recomendación con DL4J Utilizar redes recurrentes en DL4J Construya arquitecturas complejas de la red con el gráfico de la computación Redes de trenes que usan detención temprana Descargar Snapshots With Maven Personalizar una función de pérdida
Torch Torch: Introducción a Máquina y Aprendizaje Profundo 21 horas Torch es una biblioteca de aprendizaje de máquina de código abierto y un marco informático científico basado en el lenguaje de programación Lua. Proporciona un entorno de desarrollo para numéricos, aprendizaje automático y visión por computadora, con un énfasis particular en aprendizaje profundo y redes convolucionales. Es uno de los marcos más rápidos y flexibles para Machine and Deep Learning y lo utilizan compañías como Facebook, Google, Twitter, NVIDIA, AMD, Intel y muchas otras. En este curso, cubrimos los principios de Torch, sus características únicas y cómo se puede aplicar en aplicaciones del mundo real. Pasamos por numerosos ejercicios prácticos en todas partes, demostrando y practicando los conceptos aprendidos. Al final del curso, los participantes comprenderán a fondo las características y capacidades subyacentes de Torch, así como su rol y contribución dentro del espacio de IA en comparación con otros marcos y bibliotecas. Los participantes también habrán recibido la práctica necesaria para implementar Torch en sus propios proyectos. Audiencia      Desarrolladores de software y programadores que deseen habilitar Machine and Deep Learning dentro de sus aplicaciones Formato del curso      Descripción general de Machine and Deep Learning      Ejercicios de integración y codificación en clase      Preguntas de prueba salpicadas en el camino para verificar la comprensión Introducción a la antorcha     Como NumPy pero con implementación de CPU y GPU     Uso de la antorcha en aprendizaje automático, visión por computadora, procesamiento de señales, procesamiento paralelo, imagen, video, audio y redes Instalación de la antorcha     Linux, Windows, Mac     Bitmapi y Docker Instalación de paquetes Torch     Usando el administrador de paquetes LuaRocks Elegir un IDE para la antorcha     ZeroBrane Studio     Plugin de Eclipse para Lua Trabajando con el lenguaje de scripts Lua y LuaJIT     Integración de Lua con C / C ++     Sintaxis de Lua: tipos de datos, bucles y condicionales, funciones, funciones, tablas y archivos de E / S.     Orientación de objetos y serialización en Torch     Ejercicio de codificación Cargando un conjunto de datos en Torch     MNIST     CIFAR-10, CIFAR-100     Imagenet Aprendizaje automático en Torch     Aprendizaje profundo         Extracción manual de características frente a redes convolucionales     Aprendizaje supervisado y no supervisado         Construyendo una red neuronal con Torch     Matrices N-dimensionales Análisis de imagen con antorcha     Paquete de imagen     La biblioteca Tensor Trabajando con el intérprete REPL Trabajando con bases de datos Redes y antorcha Soporte de GPU en Torch Antorcha integradora     C, Python y otros Antorcha de incrustación     iOS y Android Otros marcos y bibliotecas     Módulos y contenedores de aprendizaje profundo optimizados de Facebook Creando tu propio paquete Pruebas y depuración Liberando su aplicación El futuro de la IA y la Antorcha
caffe Aprendizaje Profundo para la Visión con Caffe 21 horas Caffe es un marco de aprendizaje profundo hecho con expresión, velocidad y modularidad en mente. Este curso explora la aplicación de Caffe como un marco de aprendizaje profundo para el reconocimiento de imágenes utilizando el MNIST como ejemplo Audiencia Este curso es adecuado para los investigadores e ingenieros de Deep Learning interesados en utilizar Caffe como marco. Después de completar este curso, los delegados podrán: entender la estructura de Caffe y los mecanismos de despliegue llevar a cabo las tareas de instalación / producción de entorno / arquitectura y configuración evaluar la calidad del código, realizar depuración, monitoreo implementar la producción avanzada como modelos de entrenamiento, implementación de capas y registro Instalación Estibador Ubuntu Instalación de RHEL / CentOS / Fedora Ventanas Información acerca de Caffe Redes, Capas y Blobs: la anatomía de un modelo Caffe. Forward / Backward: los cálculos esenciales de los modelos de composición en capas. Pérdida: la tarea a ser aprendida es definida por la pérdida. Solver: el solver coordina la optimización del modelo. Catálogo de capa: la capa es la unidad fundamental de modelado y cálculo. El catálogo de Caffe incluye capas para modelos de última generación. Interfaces: línea de comandos, Python y MATLAB Caffe. Datos: cómo cafeína los datos para la entrada del modelo. Caffeinated Convolution: cómo Caffe calcula las circunvoluciones. Nuevos modelos y nuevo código Detección con Fast R-CNN Secuencias con LSTMs y Vision + Language con LRCN Predicción Pixelwise con FCNs Diseño del marco y futuro Ejemplos: MNIST
OpenNN OpenNN: Implementación de Redes Neuronales 14 horas OpenNN es una biblioteca de clases de código abierto escrita en C ++ que implementa redes neuronales para su uso en aprendizaje automático. En este curso repasaremos los principios de las redes neuronales y utilizaremos OpenNN para implementar una aplicación de muestra. Audiencia      Desarrolladores de software y programadores que deseen crear aplicaciones de Deep Learning. Formato del curso      Conferencia y discusión junto con ejercicios prácticos. Introducción a OpenNN, Machine Learning y Deep Learning Descargando OpenNN Trabajando con Neural Designer      Uso de Neural Designer para análisis descriptivos, de diagnóstico, predictivos y prescriptivos Arquitectura OpenNN      Paralelización de CPU Clases OpenNN      Conjunto de datos, red neuronal, índice de pérdida, estrategia de entrenamiento, selección de modelo, análisis de prueba      Vector y plantillas de matriz Construyendo una aplicación de red neuronal      Elegir una red neuronal adecuada      Formular el problema variacional (índice de pérdida)      Resolviendo el problema de optimización de función reducida (estrategia de entrenamiento) Trabajando con datasets       La matriz de datos (columnas como variables y filas como instancias) Tareas de aprendizaje      Regresión de funciones      Reconocimiento de patrones Compilando con QT Creator Integrando, probando y depurando su aplicación El futuro de las redes neuronales y OpenNN
MicrosoftCognitiveToolkit Microsoft Cognitive Toolkit 2.x 21 horas Microsoft Cognitive Toolkit 2.x (previously CNTK) is an open-source, commercial-grade toolkit that trains deep learning algorithms to learn like the human brain. According to Microsoft, CNTK can be 5-10x faster than TensorFlow on recurrent networks, and 2 to 3 times faster than TensorFlow for image-related tasks. In this instructor-led, live training, participants will learn how to use Microsoft Cognitive Toolkit to create, train and evaluate deep learning algorithms for use in commercial-grade AI applications involving multiple types of data such data, speech, text, and images. By the end of this training, participants will be able to: Access CNTK as a library from within a Python, C#, or C++ program Use CNTK as a standalone machine learning tool through its own model description language (BrainScript) Use the CNTK model evaluation functionality from a Java program Combine feed-forward DNNs, convolutional nets (CNNs), and recurrent networks (RNNs/LSTMs) Scale computation capacity on CPUs, GPUs and multiple machines Access massive datasets using existing programming languages and algorithms Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice Note If you wish to customize any part of this training, including the programming language of choice, please contact us to arrange. To request a customized course outline for this training, please contact us.
matlabdl Matlab for Deep Learning 14 horas In this instructor-led, live training, participants will learn how to use Matlab to design, build, and visualize a convolutional neural network for image recognition. By the end of this training, participants will be able to: Build a deep learning model Automate data labeling Work with models from Caffe and TensorFlow-Keras Train data using multiple GPUs, the cloud, or clusters Audience Developers Engineers Domain experts Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.
dlv Aprendizaje Profundo para Vision 21 horas Audiencia Este curso es adecuado para los investigadores e ingenieros de Deep Learning interesados en utilizar las herramientas disponibles (en su mayoría de código abierto) para analizar imágenes de computadora Este curso proporciona ejemplos prácticos. Aprendizaje Profundo vs Aprendizaje de Máquina vs Otros Métodos Cuando Deep Learning es adecuado Límites del Aprendizaje Profundo Comparación de la precisión y el costo de diferentes métodos Métodos Redes y capas Forward / Backward: los cálculos esenciales de los modelos de composición en capas. Pérdida: la tarea a ser aprendida es definida por la pérdida. Solver: el solver coordina la optimización del modelo. Layer Catalog: la capa es la unidad fundamental de modelado y cálculo Convolución Métodos y modelos Backprop, modelos modulares Módulo Logsum Red RBF MAP / Pérdida MLE Transformaciones espaciales de parámetros Módulo Convolucional Aprendizaje basado en gradientes Energía para inferencia, Objetivo para el aprendizaje PCA; NLL: Modelos de variables latentes LVM Probabilístico Función de pérdida Detección con Fast R-CNN Secuencias con LSTMs y Vision + Language con LRCN Predicción Pixelwise con FCNs Diseño del marco y futuro Tools Caffe Tensorflow R Matlab Otros...
dsstne Amazon DSSTNE: Build a recommendation system 7 horas Amazon DSSTNE is an open-source library for training and deploying recommendation models. It allows models with weight matrices that are too large for a single GPU to be trained on a single host. In this instructor-led, live training, participants will learn how to use DSSTNE to build a recommendation application. By the end of this training, participants will be able to: Train a recommendation model with sparse datasets as input Scale training and prediction models over multiple GPUs Spread out computation and storage in a model-parallel fashion Generate Amazon-like personalized product recommendations Deploy a production-ready application that can scale at heavy workloads Audience Developers Data scientists Format of the course Part lecture, part discussion, exercises and heavy hands-on practice To request a customized course outline for this training, please contact us.  

Próximos Cursos

Other regions

Cursos de Fin de Semana de Deep Learning, Capacitación por la Tarde de Deep Learning, Deep Learning boot camp, Clases de Deep Learning , Cursos Privados de Deep Learning, Clases Particulares de Deep Learning, Capacitación empresarial de Deep Learning, Talleres para empresas de Deep Learning,Capacitación de Fin de Semana de Deep Learning, Instructor de Deep Learning, Cursos por la Tarde de Deep Learning, Deep Learning coaching, Cursos en linea de Deep Learning, Cursos de Formación de Deep Learning, Deep Learning con instructor, Programas de capacitación de Deep Learning, Clases de Deep Learning , Deep Learning en sitio

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No vamos a pasar o vender su dirección a otros.
Siempre puede cambiar sus preferencias o anular la suscripción por completo.

Algunos de nuestros clientes