Temario del curso

DÍA 1 - REDES NEURONALES ARTIFICIALES

Introducción y estructura de ANN.

  • Bioneuronas lógicas y neuronas artificiales.
  • Modelo de una ANN.
  • Funciones de activación utilizadas en las ANN.
  • Clases típicas de arquitecturas de red .

Mathematical Fundamentos y mecanismos de aprendizaje.

  • Revisión del álgebra vectorial y matricial.
  • Conceptos de espacio de estados.
  • Conceptos de optimización.
  • Aprendizaje de corrección de errores.
  • Aprendizaje basado en la memoria.
  • Aprendizaje hebbiano.
  • Aprendizaje competitivo.

Perceptrones de una sola capa.

  • Estructura y aprendizaje de los perceptrones.
  • Clasificador de patrones: introducción y clasificadores de Bayes.
  • Perceptrón como clasificador de patrones.
  • Convergencia de perceptrones.
  • Limitaciones de los perceptrones.

Feedforward ANN.

  • Estructuras de redes feedforward multicapa.
  • Algoritmo de propagación hacia atrás.
  • Retropropagación: formación y convergencia.
  • Aproximación funcional con retropropagación.
  • Cuestiones prácticas y de diseño del aprendizaje de la retropropagación.

Redes de función de base radial.

  • Separabilidad e interpolación de patrones.
  • Teoría de la Regularización.
  • Redes de regularización y RBF.
  • Diseño y formación de redes RBF.
  • Propiedades de aproximación de RBF.

Aprendizaje competitivo y autoorganización ANN.

  • Procedimientos generales de agrupación.
  • Cuantización de vectores de aprendizaje (LVQ).
  • Algoritmos y arquitecturas de aprendizaje competitivos.
  • Mapas de características autoorganizados.
  • Propiedades de los mapas de características.

Difuso Neural Networks.

  • Sistemas neuro-difusos.
  • Antecedentes de conjuntos difusos y lógica.
  • Diseño de tallos peludos.
  • Diseño de ANNs difusas.

Aplicaciones

  • Se discutirán algunos ejemplos de aplicaciones de redes neuronales, sus ventajas y problemas.

DÍA -2 APRENDIZAJE AUTOMÁTICO

  • El marco de aprendizaje del PAC
    • Garantías para un conjunto finito de hipótesis: caso coherente
    • Garantías para un conjunto finito de hipótesis: caso inconsistente
    • Generalidades
      • CV determinista. Escenarios estocásticos
      • Ruido de error de Bayes
      • Errores de estimación y aproximación
      • Selección de modelos
  • Radmeacher Complejidad y VC – Dimensión
  • Sesgo: compensación de varianza
  • Regularización
  • Sobreajuste
  • Validación
  • Máquinas de vectores de soporte
  • Kriging (regresión del proceso gaussiano)
  • PCA y PCA del kernel
  • Mapas de Autoorganización (SOM)
  • Espacio vectorial inducido por el kernel
    • Mercer Kernels y Kernel: métricas de similitud inducida
  • Reinforcement Learning

DÍA 3 - APRENDIZAJE PROFUNDO

Esto se enseñará en relación a los temas tratados en el Día 1 y el Día 2

  • Regresión Logística y Softmax
  • Codificadores automáticos dispersos
  • Vectorización, PCA y Blanqueamiento
  • Aprendizaje autodidacta
  • Redes profundas
  • Decodificadores lineales
  • Convolución y agrupación
  • Codificación dispersa
  • Análisis independiente de componentes
  • Análisis de correlación canónica
  • Demostraciones y aplicaciones

Requerimientos

Good comprensión de las matemáticas.

Good Comprensión de la estadística básica.

No se requieren habilidades básicas de programación, pero se recomiendan.

 21 Horas

Formación Corporativa a Medida

Soluciones de formación diseñadas exclusivamente para empresas.

  • Contenido personalizado: Adaptamos el temario y los ejercicios prácticos a los objetivos y necesidades reales del proyecto.
  • Calendario flexible: Fechas y horarios adaptados a la agenda de su equipo.
  • Modalidad: Online (en directo), In-company (en sus oficinas) o Híbrida.
Inversión

Precio por grupo privado (formación online) desde 4800 € + IVA*

Contáctenos para obtener un presupuesto exacto y conocer nuestras promociones actuales

Testimonios (2)

Próximos cursos

Categorías Relacionadas