Programa del Curso

DÍA 1 - REDES NEURONALES ARTIFICIALES

Introducción y estructura de ANN.

    Bioneuronas lógicas y neuronas artificiales. Modelo de una ANN. Funciones de activación utilizadas en las RNA. Clases típicas de arquitecturas de red.

Mathematica l Fundamentos y mecanismos de aprendizaje.

    Revisión del álgebra vectorial y matricial. Conceptos de espacio de estados. Conceptos de optimización. Aprendizaje de corrección de errores. Aprendizaje basado en la memoria. Aprendizaje hebbiano. Aprendizaje competitivo.

Perceptrones de una sola capa.

    Estructura y aprendizaje de los perceptrones. Clasificador de patrones: introducción y clasificadores de Bayes. Perceptrón como clasificador de patrones. Convergencia de perceptrones. Limitaciones de los perceptrones.

Feedforward ANN.

    Estructuras de redes feedforward multicapa. Algoritmo de propagación hacia atrás. Retropropagación: formación y convergencia. Aproximación funcional con retropropagación. Cuestiones prácticas y de diseño del aprendizaje de la propagación hacia atrás.

Redes de funciones de base radial.

    Separabilidad e interpolación de patrones. Teoría de la Regularización. Redes de regularización y RBF. Diseño y capacitación de redes RBF. Propiedades de aproximación de RBF.

Aprendizaje competitivo y autoorganización ANN.

    Procedimientos generales de agrupación. Cuantización de vectores de aprendizaje (LVQ). Algoritmos y arquitecturas de aprendizaje competitivo. Mapas de entidades autoorganizados. Propiedades de los mapas de entidades.

Difuso Neural Networks.

    Sistemas neuro-difusos. Antecedentes de conjuntos difusos y lógica. Diseño de tallos difusos. Diseño de RNAs difusas.

Aplicaciones

    Se discutirán algunos ejemplos de aplicaciones de redes neuronales, sus ventajas y problemas.

DÍA -2 APRENDIZAJE AUTOMÁTICO

    El Marco de Aprendizaje PAC Garantías para un conjunto finito de hipótesis: caso coherente Garantías para un conjunto finito de hipótesis – caso inconsistente Generalidades Determinista cv. Escenarios estocásticos Ruido de error de Bayes Errores de estimación y aproximación Selección de modelos
Complejidad de Radmeacher y VC – Dimensión Equilibrio entre sesgo y varianza
  • Regularización
  • Sobreajuste
  • Validación
  • Máquinas de vectores de soporte
  • Kriging (Regresión del proceso gaussiano)
  • PCA y PCA del kernel
  • Mapas de Autoorganización (SOM)
  • Espacio vectorial inducido por kernel Mercer Kernels y Kernel: métricas de similitud inducida
  • Reinforcement Learning
  • DÍA 3 - APRENDIZAJE PROFUNDO
  • Esto se enseñará en relación con los temas tratados en el Día 1 y el Día 2
  • Regresión Logística y Softmax Autocodificadores dispersos Vectorización, PCA y Blanqueamiento Aprendizaje autodidacta Redes profundas Decodificadores lineales Convolución y agrupación Codificación dispersa Análisis independiente de componentes Análisis de correlación canónica Demostraciones y aplicaciones
  • Requerimientos

    Buena comprensión de las matemáticas.

    Good comprensión de la estadística básica.

    No se requieren conocimientos básicos de programación, pero se recomiendan.

     21 horas

    Testimonios (2)

    Categorías Relacionadas