Temario del curso

Fundamentos: Modelos de Amenazas para IA Agente

  • Tipos de amenazas agente: mal uso, escalada, filtración de datos y riesgos en la cadena de suministro
  • Perfiles de adversarios y capacidades de atacantes específicas para agentes autónomos
  • Mapeo de activos, límites de confianza y puntos críticos de control para agentes

Gobernanza, Política y Gestión de Riesgos

  • Marco de gobernanza para sistemas agente (roles, responsabilidades, puertas de aprobación)
  • Diseño de políticas: uso aceptable, reglas de escalada, manejo de datos y auditoría
  • Consideraciones de cumplimiento y recolección de evidencias para auditorías

Identidad y Autenticación No Humana para Agentes

  • Diseño de identidades para agentes: cuentas de servicio, JWTs y credenciales de vida corta
  • Patrones de acceso con privilegios mínimos y acreditación just-in-time
  • Ciclo de vida de la identidad, rotación, delegación y revocación de estrategias

Controles de Acceso, Secretos y Protección de Datos

  • Modelos de control de acceso granular y patrones basados en capacidades para agentes
  • Gestión de secretos, cifrado en tránsito y en reposo, y minimización de datos
  • Protección de fuentes de conocimiento sensible y PII frente al acceso no autorizado de agentes

Observabilidad, Auditoría y Respuesta a Incidentes

  • Diseño de telemetría para el comportamiento del agente: trazado de intención, registros de comandos y procedencia
  • Integración de SIEM, umbrales de alerta y preparación forense
  • Libros de instrucciones para incidentes relacionados con agentes y contención

Equipo Rojo en Sistemas Agente

  • Planificación de ejercicios de equipo rojo: alcance, reglas de compromiso y falla segura
  • Técnicas adversarias: inyección de prompt, mal uso de herramientas, manipulación de cadenas de pensamiento y abuso de API
  • Realización de ataques controlados y medición de exposición e impacto

Fortificación y Mitigaciones

  • Controles de ingeniería: moduladores de respuesta, puertas de capacidades y entornos aislados
  • Controles de política y orquestación: flujos de aprobación, intervención humana y ganchos de gobernanza
  • Defensas a nivel de modelo y prompt: validación de entrada, canonización y filtros de salida

Implementación Segura de Agentes

  • Patrones de implementación: etapas, canario y despliegues progresivos para agentes
  • Control de cambios, pipelines de pruebas y verificaciones de seguridad previas al despliegue
  • Gobernanza multifuncional: libros de instrucciones de seguridad, legal, producto y operaciones

Proyecto Final: Ejercicio de Equipo Rojo / Equipo Azul

  • Ejecutar un ataque simulado de equipo rojo contra un entorno aislado de agentes
  • Defender, detectar y remediar como el equipo azul utilizando controles y telemetría
  • Presentar hallazgos, plan de remediación y actualizaciones de políticas

Resumen y Pasos Siguientes

Requerimientos

  • Sólido conocimiento en ingeniería de seguridad, administración de sistemas o operaciones en la nube
  • Familiaridad con conceptos de IA/ML y el comportamiento de modelos de lenguaje grandes (LLM)
  • Experiencia en gestión de identidad y acceso (IAM) y diseño de sistemas seguros

Público Objetivo

  • Ingenieros de seguridad y miembros de equipos rojo
  • Ingenieros de operaciones y plataformas de IA
  • Oficiales de cumplimiento y gestores de riesgos
  • Líderes técnicos responsables de implementaciones de agentes
 21 Horas

Próximos cursos

Categorías Relacionadas