Programa del Curso

DÍA 1 - REDES NEURONALES ARTIFICIALES

Introducción y estructura de ANN.

  • Bioneuronas lógicas y neuronas artificiales.
  • Modelo de una ANN.
  • Funciones de activación utilizadas en las ANN.
  • Clases típicas de arquitecturas de red .

Mathematical Fundamentos y mecanismos de aprendizaje.

  • Revisión del álgebra vectorial y matricial.
  • Conceptos de espacio de estados.
  • Conceptos de optimización.
  • Aprendizaje de corrección de errores.
  • Aprendizaje basado en la memoria.
  • Aprendizaje hebbiano.
  • Aprendizaje competitivo.

Perceptrones de una sola capa.

  • Estructura y aprendizaje de los perceptrones.
  • Clasificador de patrones: introducción y clasificadores de Bayes.
  • Perceptrón como clasificador de patrones.
  • Convergencia de perceptrones.
  • Limitaciones de los perceptrones.

Feedforward ANN.

  • Estructuras de redes feedforward multicapa.
  • Algoritmo de propagación hacia atrás.
  • Retropropagación: formación y convergencia.
  • Aproximación funcional con retropropagación.
  • Cuestiones prácticas y de diseño del aprendizaje de la retropropagación.

Redes de función de base radial.

  • Separabilidad e interpolación de patrones.
  • Teoría de la Regularización.
  • Redes de regularización y RBF.
  • Diseño y formación de redes RBF.
  • Propiedades de aproximación de RBF.

Aprendizaje competitivo y autoorganización ANN.

  • Procedimientos generales de agrupación.
  • Cuantización de vectores de aprendizaje (LVQ).
  • Algoritmos y arquitecturas de aprendizaje competitivos.
  • Mapas de características autoorganizados.
  • Propiedades de los mapas de características.

Difuso Neural Networks.

  • Sistemas neuro-difusos.
  • Antecedentes de conjuntos difusos y lógica.
  • Diseño de tallos peludos.
  • Diseño de ANNs difusas.

Aplicaciones

  • Se discutirán algunos ejemplos de aplicaciones de redes neuronales, sus ventajas y problemas.

DÍA -2 APRENDIZAJE AUTOMÁTICO

  • El marco de aprendizaje del PAC
    • Garantías para un conjunto finito de hipótesis: caso coherente
    • Garantías para un conjunto finito de hipótesis: caso inconsistente
    • Generalidades
      • CV determinista. Escenarios estocásticos
      • Ruido de error de Bayes
      • Errores de estimación y aproximación
      • Selección de modelos
  • Radmeacher Complejidad y VC – Dimensión
  • Sesgo: compensación de varianza
  • Regularización
  • Sobreajuste
  • Validación
  • Máquinas de vectores de soporte
  • Kriging (regresión del proceso gaussiano)
  • PCA y PCA del kernel
  • Mapas de Autoorganización (SOM)
  • Espacio vectorial inducido por el kernel
    • Mercer Kernels y Kernel: métricas de similitud inducida
  • Reinforcement Learning

DÍA 3 - APRENDIZAJE PROFUNDO

Esto se enseñará en relación a los temas tratados en el Día 1 y el Día 2

  • Regresión Logística y Softmax
  • Codificadores automáticos dispersos
  • Vectorización, PCA y Blanqueamiento
  • Aprendizaje autodidacta
  • Redes profundas
  • Decodificadores lineales
  • Convolución y agrupación
  • Codificación dispersa
  • Análisis independiente de componentes
  • Análisis de correlación canónica
  • Demostraciones y aplicaciones

Requerimientos

Good comprensión de las matemáticas.

Good Comprensión de la estadística básica.

No se requieren habilidades básicas de programación, pero se recomiendan.

 21 horas

Número de participantes


Precio por participante

Testimonios (2)

Próximos cursos