Construir, no solo hablar
Aprende a construir productos con IA generativa: RAG, Agents, automatizaciones. De la idea al MVP funcional con código, arquitectura y handoff técnico.
¿Para quién es esta ruta?
Developers & Engineers
Programadores que quieren integrar LLMs en sus productos.
Technical Founders
Emprendedores tech que quieren construir MVPs con IA.
Product Managers Técnicos
PMs que necesitan entender la arquitectura para tomar decisiones.
Makers & Builders
Creadores que quieren pasar de prototipos no-code a producción.
Temario Completo (8 Sesiones)
Fundamentos: De API a Producto
Entiende cómo funcionan los LLMs y cómo integrarlos.
- Panorama técnico: GPT-4, Claude, Gemini, modelos open-source (Llama, Mistral)
- APIs principales: OpenAI, Anthropic, Google AI, Azure OpenAI
- Conceptos clave: tokens, embeddings, temperature, context window
- Taller: Tu primer llamado a la API (Python/JS) + cálculo de costos
Prompt Engineering para Developers
Escribe prompts programáticos, no conversacionales.
- System prompts vs. user prompts: arquitectura de contexto
- Function calling: cómo hacer que la IA ejecute acciones estructuradas
- Output parsing: JSON, markdown, código - formatos fiables
- Taller: Construye un clasificador de texto (sentiment, categoría, intent)
RAG (Retrieval-Augmented Generation): Chatea con tus datos
La arquitectura más práctica para productos de IA.
- Anatomía de RAG: ingesta → embeddings → vector DB → retrieval → generación
- Vector databases: Pinecone, Weaviate, Qdrant, Chroma (cuándo usar qué)
- Chunking strategies: cómo partir documentos para mejores resultados
- Taller: Construye un chatbot que responde sobre TU documentación
Agents & Orchestration: IA que toma decisiones
De chatbot a asistente autónomo.
- Qué es un Agent: percepción → razonamiento → acción → iteración
- Frameworks: LangChain, LlamaIndex, AutoGPT, CrewAI (cuándo usar cada uno)
- Tools & function calling: conecta IA a APIs, bases de datos, navegadores
- Taller: Agent que busca info en Google y genera un reporte (multi-step)
Fine-tuning & Custom Models: Cuándo entrenar tu propio modelo
Pros, contras y ROI de customizar LLMs.
- Fine-tuning vs. RAG vs. Prompt engineering: decision tree
- Cuándo vale la pena: datos propietarios, tono muy específico, latencia crítica
- Proceso: preparación de dataset, training, evaluación, deployment
- Taller: Fine-tune GPT-3.5 para un caso de uso específico (OpenAI API)
Arquitectura & Stack: De prototipo a producción
Diseña sistemas escalables y mantenibles.
- Arquitectura de referencia: frontend → backend → LLM → vector DB → cache
- Stack moderno: Next.js + FastAPI + LangChain + Supabase + Vercel
- Optimización: caching, streaming, rate limiting, error handling
- Taller: Deploy de tu RAG app en Vercel + Supabase (live deployment)
Evaluación & Monitoring: Cómo saber si funciona
Métricas para IA que no mienten.
- Métricas de calidad: relevancia, coherencia, groundedness (anti-alucinación)
- Métricas de sistema: latencia, costos por request, tasa de error
- Herramientas: LangSmith, PromptLayer, Helicone, Weights & Biases
- Taller: Dashboard de monitoreo en tiempo real (observability básica)
Proyecto Final: Tu MVP en producción
Lanza un producto funcional antes de terminar el curso.
- Spec técnico: arquitectura, stack, casos de uso, roadmap
- Implementación: código en GitHub, deployment live, documentación
- Demo day: presenta tu producto + feedback técnico del equipo
- Handoff: README, arquitectura doc, plan de mejoras (90 días)
Lo que te llevas
MVP Funcional (Repo)
Código completo en GitHub listo para iterar.
Readme con ruta a producción
Documentación técnica clara para handoff.
Boilerplates & Templates
Stack completo reutilizable para futuros proyectos.
De herramienta a producto.
La IA es código. Aprende a escribirlo.