Curso de Building Secure and Responsible LLM Applications
La seguridad de aplicaciones LLM es la disciplina de diseñar, construir y mantener sistemas seguros, confiables y acordes a las políticas utilizando modelos de lenguaje grandes.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está orientada a desarrolladores AI intermedios y avanzados, arquitectos y gerentes de productos que desean identificar y mitigar los riesgos asociados con las aplicaciones impulsadas por LLM, incluyendo la inyección de prompts, la fuga de datos y la salida no filtrada, mientras incorporan controles de seguridad como la validación de entrada, el control humano en bucle y las barreras de salida.
Al finalizar esta formación, los participantes podrán:
- Comprender las vulnerabilidades principales de sistemas basados en LLM.
- Aplicar principios de diseño seguro a la arquitectura de aplicaciones LLM.
- Utilizar herramientas como Guardrails AI y LangChain para validación, filtrado y seguridad.
- Integrar técnicas como sandboxing, red teaming y revisión en bucle humano en pipelines de producción.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Programa del Curso
Resumen de la Arquitectura y Superficie de Ataque de LLM
- Cómo se construyen, implementan y acceden a los LLM mediante APIs
- Componentes clave en las pilas de aplicaciones LLM (por ejemplo, prompts, agentes, memoria, APIs)
- Dónde y cómo surgen problemas de seguridad en el uso real
Inyección de Prompts y Ataques de Escape
- Qué es la inyección de prompts y por qué es peligrosa
- Casos directos e indirectos de inyección de prompts
- Técnicas de escape para eludir filtros de seguridad
- Estrategias de detección y mitigación
Fugas de Datos y Riesgos de Privacidad
- Exposición accidental de datos a través de respuestas
- Fugas de PII y mal uso de la memoria del modelo
- Diseño de prompts conscientes de la privacidad y generación aumentada con recuperación (RAG)
Filtrado y Protección de Salida de LLM
- Uso de Guardrails AI para el filtrado y validación del contenido
- Definición de esquemas de salida y restricciones
- Monitoreo y registro de salidas inseguras
Enfoques con Supervisión Humana en Bucle y Flujos de Trabajo
- Dónde y cuándo introducir la supervisión humana
- Colas de aprobación, umbrales de puntuación, manejo de respaldos
- Calibración de confianza y rol de la explicabilidad
Aplicación Segura LLM Design Patterns
- Mínimos privilegios y aislamiento para llamadas API y agentes
- Límites de velocidad, limitación y detección de abuso
- Cadenas robustas con LangChain y aislamiento de prompts
Compliance, Registro e Governance
- Asegurar la auditoría de las salidas de LLM
- Mantener trazabilidad y control de versión del prompt
- Alinear con políticas internas de seguridad y necesidades regulatorias
Resumen y Próximos Pasos
Requerimientos
- Una comprensión de los modelos de lenguaje grandes y las interfaces basadas en prompts
- Experiencia en la construcción de aplicaciones LLM utilizando Python
- Familiaridad con integraciones API y despliegues basados en la nube
Público objetivo
- Desarrolladores de IA
- Arquitectos de aplicaciones y soluciones
- Gestores técnicos de productos que trabajan con herramientas LLM
¿Necesita ayuda para elegir el curso adecuado?
Curso de Building Secure and Responsible LLM Applications - Enquiry
Building Secure and Responsible LLM Applications - Consulta de consultoría
Consulta de consultoría
Próximos cursos
Cursos Relacionados
Creando Flujos de Trabajo de IA Privada con Ollama
14 HorasEsta formación en vivo y presidida por un instructor (en línea o en el sitio) está dirigida a profesionales avanzados que desean implementar flujos de trabajo impulsados por IA seguros y eficientes utilizando Ollama.
Al finalizar esta formación, los participantes podrán:
- Implementar y configurar Ollama para el procesamiento de IA privada.
- Integrar modelos de IA en flujos de trabajo empresariales seguros.
- Optimizar el rendimiento de la IA mientras se mantiene la privacidad de los datos.
- Automatizar procesos de negocio con capacidades de IA alojadas localmente.
- Asegurar el cumplimiento con las políticas de seguridad y gobernanza empresariales.
Claude AI for Content Creation
14 HorasEste entrenamiento en vivo dirigido por un instructor en Al final de este entrenamiento, los participantes podrán:
Claude AI for Developers: Building AI-Powered Applications
14 HorasEste entrenamiento en vivo dirigido por un instructor en España (en línea o presencial) está dirigido a desarrolladores de software e ingenieros de IA de nivel intermedio que desean integrar Claude AI en sus aplicaciones, construir chatbots potenciados por IA y mejorar la funcionalidad del software con automatización impulsada por IA.
Al final de esta capacitación, los participantes podrán:
- Utilizar la API de Claude AI para integrar IA en aplicaciones.
- Desarrollar chatbots y asistentes virtuales impulsados por IA.
- Mejorar las aplicaciones con automatización y procesamiento del lenguaje natural potenciados por IA.
- Optimizar y ajustar los modelos de Claude AI para diferentes casos de uso.
Claude AI para Workflow Automation y Productivity
14 HorasEste curso de formación en vivo dirigido por un instructor en España (en línea o en el lugar) está dirigido a profesionales de nivel principiante que desean integrar Claude AI en sus flujos de trabajo diarios para mejorar la eficiencia y la automatización.
Al final de esta capacitación, los participantes podrán:
- Utilizar Claude AI para automatizar tareas repetitivas y optimizar flujos de trabajo.
- Mejorar la productividad personal y del equipo mediante la automatización impulsada por IA.
- Integrar Claude AI con las herramientas y plataformas comerciales existentes.
- Optimizar la toma de decisiones impulsada por IA y la gestión de tareas.
Despliegue y Optimización de LLMs con Ollama
14 HorasEste entrenamiento dirigido por un instructor, en vivo en España (en línea o presencial), está dirigido a profesionales de nivel intermedio que deseen implementar, optimizar e integrar LLMs utilizando Ollama.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar e implementar LLMs utilizando Ollama.
- Optimizar modelos de IA para mejorar el rendimiento y la eficiencia.
- Aprovechar la aceleración de GPU para mejorar la velocidad de inferencia.
- Integrar Ollama en flujos de trabajo y aplicaciones.
- Monitorear y mantener el rendimiento de los modelos de IA a lo largo del tiempo.
Fine-Tuning y Personalización de Modelos de IA en Ollama
14 HorasEste entrenamiento en vivo dirigido por un instructor (en línea o presencial) en España está destinado a profesionales de nivel avanzado que desean afinar y personalizar modelos AI en Ollama para mejorar el rendimiento y aplicaciones específicas del dominio.
Al finalizar este entrenamiento, los participantes podrán:
- Configurar un entorno eficiente para afinar modelos AI en Ollama.
- Preparar conjuntos de datos para el ajuste supervisado y el aprendizaje por refuerzo.
- Optimizar los modelos AI para rendimiento, precisión y eficiencia.
- Implementar modelos personalizados en entornos de producción.
- Evaluar mejoras del modelo y asegurar la robustez.
Introducción a Google Gemini AI
14 HorasEsta capacitación en vivo dirigida por un instructor en España (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen integrar funcionalidades de IA en sus aplicaciones utilizando Google Gemini AI.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender los fundamentos de los modelos de lenguaje grandes.
- Configure y use Google Gemini AI para varias tareas de IA.
- Implemente transformaciones de texto a texto e imagen a texto.
- Cree aplicaciones básicas impulsadas por IA.
- Explora las funciones avanzadas y las opciones de personalización en Google Gemini AI.
Google Gemini AI para Creación de Contenido
14 HorasEsta capacitación en vivo dirigida por un instructor en España (en línea o en el sitio) está dirigida a creadores de contenido de nivel intermedio que deseen utilizar Google Gemini AI para mejorar la calidad y eficiencia de su contenido.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender el papel de la IA en la creación de contenidos.
- Configura y usa Google Gemini AI para generar y optimizar contenido.
- Aplica transformaciones de texto a texto para producir contenido creativo y original.
- Implemente estrategias de SEO utilizando información impulsada por IA.
- Analice el rendimiento del contenido y adapte las estrategias utilizando Gemini AI.
Google Gemini AI para un Servicio al Cliente Transformador
14 HorasEsta capacitación en vivo dirigida por un instructor en España (en línea o en el sitio) está dirigida a profesionales de servicio al cliente de nivel intermedio que deseen implementar Google Gemini AI en sus operaciones de servicio al cliente.
Al final de esta capacitación, los participantes serán capaces de:
- Comprender el impacto de la IA en el servicio al cliente.
- Configura Google Gemini AI para automatizar y personalizar las interacciones con los clientes.
- Utilice transformaciones de texto a texto e imagen a texto para mejorar la eficiencia del servicio.
- Desarrolle estrategias impulsadas por IA para el análisis de los comentarios de los clientes en tiempo real.
- Explora las funciones avanzadas para crear una experiencia de servicio al cliente perfecta.
Google Gemini AI para Data Analysis
21 HorasEsta capacitación en vivo dirigida por un instructor en España (en línea o presencial) está dirigida a analistas de datos de nivel principiante a intermedio y profesionales de negocios que desean realizar tareas complejas de análisis de datos de manera más intuitiva en diversas industrias utilizando Google Gemini AI.
Al final de esta formación, los participantes serán capaces de:
- Comprenda los fundamentos de Google Gemini AI.
- Conecte varias fuentes de datos a Gemini AI.
- Explore los datos mediante consultas en lenguaje natural.
- Analice patrones de datos y obtenga información.
- Cree visualizaciones de datos atractivas.
- Comunique información basada en datos de forma eficaz.
Intermediate Gemini AI for Public Sector Professionals
16 HorasThis instructor-led, live training in España (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introducción a Claude AI: Conversational AI y Business Aplicaciones
14 HorasEste entrenamiento en vivo dirigido por un instructor en España (en línea o en el sitio) está dirigido a profesionales de negocios principiantes, equipos de soporte al cliente y entusiastas de la tecnología que desean comprender los fundamentos de Claude AI y aprovecharlo para aplicaciones comerciales.
Al final de esta capacitación, los participantes podrán:
- Entender las capacidades y casos de uso de Claude AI.
- Configurar e interactuar con Claude AI de manera efectiva.
- Automatizar flujos de trabajo comerciales con IA conversacional.
- Mejorar el engagement y el soporte al cliente utilizando soluciones impulsadas por IA.
LangGraph Foundations: Graph-Based LLM Prompting and Chaining
14 HorasLangGraph is a framework for building graph-structured LLM applications that support planning, branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at beginner-level developers, prompt engineers, and data practitioners who wish to design and build reliable, multi-step LLM workflows using LangGraph.
By the end of this training, participants will be able to:
- Explain core LangGraph concepts (nodes, edges, state) and when to use them.
- Build prompt chains that branch, call tools, and maintain memory.
- Integrate retrieval and external APIs into graph workflows.
- Test, debug, and evaluate LangGraph apps for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based exercises on design, testing, and evaluation.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Dynamic Workflows with LangGraph and LLM Agents
14 HorasLangGraph is a framework for composing graph-structured LLM workflows that support branching, tool use, memory, and controllable execution.
This instructor-led, live training (online or onsite) is aimed at intermediate-level engineers and product teams who wish to combine LangGraph’s graph logic with LLM agent loops to build dynamic, context-aware applications such as customer support agents, decision trees, and information retrieval systems.
By the end of this training, participants will be able to:
- Design graph-based workflows that coordinate LLM agents, tools, and memory.
- Implement conditional routing, retries, and fallbacks for robust execution.
- Integrate retrieval, APIs, and structured outputs into agent loops.
- Evaluate, monitor, and harden agent behavior for reliability and safety.
Format of the Course
- Interactive lecture and facilitated discussion.
- Guided labs and code walkthroughs in a sandbox environment.
- Scenario-based design exercises and peer reviews.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Introducción a Ollama: Ejecución de Modelos de IA Locales
7 HorasEsta formación en vivo, dirigida por un instructor (en línea u on-site), está orientada a profesionales principiantes que desean instalar, configurar y usar Ollama para ejecutar modelos de IA en sus máquinas locales.
Al finalizar esta formación, los participantes podrán:
- Comprender los fundamentos y capacidades de Ollama.
- Configurar Ollama para ejecutar modelos locales de IA.
- Implementar e interactuar con LLMs utilizando Ollama.
- Optimizar el rendimiento y el uso de recursos para cargas de trabajo de IA.
- Explorar casos de uso para la implementación local de IA en diversos sectores.