Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Programa del Curso
Introducción a Ollama
- ¿Qué es Ollama y cómo funciona?
- Beneficios de ejecutar modelos AI localmente
- Resumen de LLMs soportados (Llama, DeepSeek, Mistral, etc.)
Instalación y Configuración de Ollama
- Requisitos del sistema y consideraciones sobre hardware
- Instalar Ollama en diferentes sistemas operativos
- Configurar dependencias y entorno de trabajo
Ejecución de Modelos AI Localmente
- Descargar e instalar modelos AI en Ollama
- Interacción con los modelos mediante la línea de comandos
- Ingeniería básica de prompts para tareas de AI locales
Optimización del Desempeño y Uso de Recursos
- Administrar recursos de hardware para una ejecución eficiente de AI
- Reducir latencia e mejorar el tiempo de respuesta del modelo
- Realizar pruebas de rendimiento para diferentes modelos
Casos de Uso para la Implementación Local de AI
- Chatbots y asistentes virtuales impulsados por IA
- Procesamiento de datos y tareas automatizadas
- Aplicaciones de AI centradas en la privacidad
Resumen y Próximos Pasos
Requerimientos
- Comprensión básica de los conceptos de inteligencia artificial y aprendizaje automático
- Familiaridad con interfaces de línea de comandos
audiencia
- Desarrolladores que ejecutan modelos de IA sin dependencias en la nube
- Business profesionales interesados en la privacidad de la AI y despliegue económico
- Enthusiastas de la IA explorando el despliegue local de modelos
7 Horas