Programa del Curso

Introducción a Ollama

  • ¿Qué es Ollama y cómo funciona?
  • Beneficios de ejecutar modelos AI localmente
  • Resumen de LLMs soportados (Llama, DeepSeek, Mistral, etc.)

Instalación y Configuración de Ollama

  • Requisitos del sistema y consideraciones sobre hardware
  • Instalar Ollama en diferentes sistemas operativos
  • Configurar dependencias y entorno de trabajo

Ejecución de Modelos AI Localmente

  • Descargar e instalar modelos AI en Ollama
  • Interacción con los modelos mediante la línea de comandos
  • Ingeniería básica de prompts para tareas de AI locales

Optimización del Desempeño y Uso de Recursos

  • Administrar recursos de hardware para una ejecución eficiente de AI
  • Reducir latencia e mejorar el tiempo de respuesta del modelo
  • Realizar pruebas de rendimiento para diferentes modelos

Casos de Uso para la Implementación Local de AI

  • Chatbots y asistentes virtuales impulsados por IA
  • Procesamiento de datos y tareas automatizadas
  • Aplicaciones de AI centradas en la privacidad

Resumen y Próximos Pasos

Requerimientos

  • Comprensión básica de los conceptos de inteligencia artificial y aprendizaje automático
  • Familiaridad con interfaces de línea de comandos

audiencia

  • Desarrolladores que ejecutan modelos de IA sin dependencias en la nube
  • Business profesionales interesados en la privacidad de la AI y despliegue económico
  • Enthusiastas de la IA explorando el despliegue local de modelos
 7 Horas

Próximos cursos

Categorías Relacionadas