Programa del Curso
DÍA 1 - REDES NEURONALES ARTIFICIALES
Introducción y estructura de ANN.
- Bioneuronas lógicas y neuronas artificiales.
- Modelo de una ANN.
- Funciones de activación utilizadas en las ANN.
- Clases típicas de arquitecturas de red .
Mathematical Fundamentos y mecanismos de aprendizaje.
- Revisión del álgebra vectorial y matricial.
- Conceptos de espacio de estados.
- Conceptos de optimización.
- Aprendizaje de corrección de errores.
- Aprendizaje basado en la memoria.
- Aprendizaje hebbiano.
- Aprendizaje competitivo.
Perceptrones de una sola capa.
- Estructura y aprendizaje de los perceptrones.
- Clasificador de patrones: introducción y clasificadores de Bayes.
- Perceptrón como clasificador de patrones.
- Convergencia de perceptrones.
- Limitaciones de los perceptrones.
Feedforward ANN.
- Estructuras de redes feedforward multicapa.
- Algoritmo de propagación hacia atrás.
- Retropropagación: formación y convergencia.
- Aproximación funcional con retropropagación.
- Cuestiones prácticas y de diseño del aprendizaje de la retropropagación.
Redes de función de base radial.
- Separabilidad e interpolación de patrones.
- Teoría de la Regularización.
- Redes de regularización y RBF.
- Diseño y formación de redes RBF.
- Propiedades de aproximación de RBF.
Aprendizaje competitivo y autoorganización ANN.
- Procedimientos generales de agrupación.
- Cuantización de vectores de aprendizaje (LVQ).
- Algoritmos y arquitecturas de aprendizaje competitivos.
- Mapas de características autoorganizados.
- Propiedades de los mapas de características.
Difuso Neural Networks.
- Sistemas neuro-difusos.
- Antecedentes de conjuntos difusos y lógica.
- Diseño de tallos peludos.
- Diseño de ANNs difusas.
Aplicaciones
- Se discutirán algunos ejemplos de aplicaciones de redes neuronales, sus ventajas y problemas.
DÍA -2 APRENDIZAJE AUTOMÁTICO
- El marco de aprendizaje del PAC
- Garantías para un conjunto finito de hipótesis: caso coherente
- Garantías para un conjunto finito de hipótesis: caso inconsistente
- Generalidades
- CV determinista. Escenarios estocásticos
- Ruido de error de Bayes
- Errores de estimación y aproximación
- Selección de modelos
- Radmeacher Complejidad y VC – Dimensión
- Sesgo: compensación de varianza
- Regularización
- Sobreajuste
- Validación
- Máquinas de vectores de soporte
- Kriging (regresión del proceso gaussiano)
- PCA y PCA del kernel
- Mapas de Autoorganización (SOM)
- Espacio vectorial inducido por el kernel
- Mercer Kernels y Kernel: métricas de similitud inducida
- Reinforcement Learning
DÍA 3 - APRENDIZAJE PROFUNDO
Esto se enseñará en relación a los temas tratados en el Día 1 y el Día 2
- Regresión Logística y Softmax
- Codificadores automáticos dispersos
- Vectorización, PCA y Blanqueamiento
- Aprendizaje autodidacta
- Redes profundas
- Decodificadores lineales
- Convolución y agrupación
- Codificación dispersa
- Análisis independiente de componentes
- Análisis de correlación canónica
- Demostraciones y aplicaciones
Requerimientos
Good comprensión de las matemáticas.
Good Comprensión de la estadística básica.
No se requieren habilidades básicas de programación, pero se recomiendan.
Testimonios (2)
Working from first principles in a focused way, and moving to applying case studies within the same day
Maggie Webb - Department of Jobs, Regions, and Precincts
Curso - Artificial Neural Networks, Machine Learning, Deep Thinking
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.