Temario del curso

Introducción al Red Teaming de IA

  • Comprender el panorama de amenazas de la IA
  • Roles de los equipos rojos en la seguridad de la IA
  • Consideraciones éticas y legales

Aprendizaje Automático Adversario

  • Tipos de ataques: evasión, envenenamiento, extracción, inferencia
  • Generar ejemplos adversarios (por ejemplo, FGSM, PGD)
  • Ataques dirigidos vs no dirigidos y métricas de éxito

Prueba de Robustez del Modelo

  • Evaluar la robustez ante perturbaciones
  • Explorar ceguera y modos de falla del modelo
  • Prueba de estrés en modelos de clasificación, visión y NLP

Red Teaming de Pipelines de IA

  • Área de ataque de pipelines de IA: datos, modelo, implementación
  • Explotar APIs y puntos finales inseguros del modelo
  • Ingeniería inversa del comportamiento y salidas del modelo

Simulación y Herramientas

  • Usar la Adversarial Robustness Toolbox (ART)
  • Red teaming con herramientas como TextAttack e IBM ART
  • Herramientas de sandbox, monitoreo y observabilidad

Estrategia y Colaboración de Defensa del Equipo Rojo de IA

  • Desarrollar ejercicios y objetivos de equipo rojo
  • Comunicar hallazgos a equipos azules
  • Integrar el red teaming en la gestión de riesgos de IA

Resumen y Pasos Siguientes

Requerimientos

  • Un conocimiento de las arquitecturas de aprendizaje automático y deep learning
  • Experiencia con Python y marcos de ML (por ejemplo, TensorFlow, PyTorch)
  • Familiaridad con conceptos de ciberseguridad o técnicas de seguridad ofensiva

Audiencia

  • Investigadores de seguridad
  • Equipos de seguridad ofensiva
  • Profesionales de garantía y red teaming en IA
 14 Horas

Próximos cursos

Categorías Relacionadas