El contenido del programa es el siguiente:
Fundamentos de los Modelos de Lenguaje (LLM)
Comprender cómo funcionan los LLM, cuáles son sus capacidades y limitaciones prácticas. Se analizan criterios para elegir entre modelos abiertos o propietarios según necesidades de seguridad, disponibilidad y presupuesto.
Ingeniería de Contexto y Prompts
Técnicas para estructurar entradas que generen respuestas relevantes y consistentes. Se trabajan plantillas, roles, ejemplos guiados, gestión de memoria y estrategias para manejar límites de contexto.
Orquestación y Automatización
Uso de plataformas como Zapier, Make o n8n para crear flujos automatizados con LLM. Se incluyen buenas prácticas de versionado, entornos de prueba/producción y gobernanza de procesos.
Model Context Protocol (MCP)
Introducción a este estándar emergente que permite manejar contextos complejos y transportarlos entre diferentes modelos y agentes.
Agentes Inteligentes (Agentic AI)
Diseño de agentes capaces de planificar, razonar y ejecutar tareas de forma autónoma. Incluye tácticas de descomposición de tareas, uso de herramientas externas y mecanismos de control para evitar errores o bucles.
Colaboración entre Agentes (A2A)
Patrones para coordinar múltiples agentes de manera eficiente: cadenas de trabajo, delegación y resolución de conflictos. Se analizan métricas para medir desempeño colectivo.
Evaluación de Modelos (EVALs)
Implementación de pruebas automatizadas para medir calidad, consistencia, robustez y costo de los modelos. Se utilizan marcos como OpenAI Evals o Ragas.
Integración de Datos: RAG y Fine-Tuning
RAG (Retrieval-Augmented Generation): indexación de datos en bases vectoriales y recuperación de información con citación de fuentes.
Fine-Tuning: entrenamiento supervisado de modelos con datos propios para personalizar respuestas y mejorar desempeño.
Herramientas de Desarrollo
Exploración de funciones de autocompletado, generación de código y creación de agentes desde entornos de desarrollo integrados.
Function Calling y Tools Calling
Uso de esquemas estructurados para que los modelos interactúen con sistemas externos de manera segura y confiable, incluyendo control de errores y permisos.
MLOps para LLMs
Buenas prácticas para la operación de modelos en producción: monitoreo de prompts, métricas de latencia y costos, pruebas A/B y gestión de versiones para garantizar calidad y sostenibilidad en el tiempo.