El 70% de código generado
con IA no es el techo.
Es el piso donde el sistema
empieza a mostrar su valor real.
En un equipo de 8 devs backend sobre microservicios hexagonales en Go llegamos ahí con vibe coding. Sin especificación formal. Con ciclos de corrección que consumían el tiempo que la IA supuestamente ahorraba. SDD invierte el orden: primero la spec, después el código. Eso es lo que lleva el porcentaje del 70% al 90%+ sin acumular la deuda técnica que hace colapsar el primer número.
La IA genera código rápido.
El sistema sin estructura lo rompe igual.
La mayoría de los equipos que no llegan al 70% no tienen un problema de herramientas. Tienen un problema de sistema: usan la IA como un autocomplete glorificado en lugar de como un ejecutor de especificaciones precisas. Y los que sí llegan al porcentaje mínimo acumulan deuda técnica que explota en producción. El 90% es posible cuando el sistema que rodea a la IA está diseñado para eso desde el principio.
SDD + Sistema Multiagente
para ingeniería de producción
SDD (Specs Driven Development) invierte el orden: primero se especifica con precisión qué construir, cómo se verifica y cuándo está terminado. Recién entonces la IA ejecuta. Un ecosistema de agentes especializados —cuya cantidad y roles varían según la complejidad de cada tarea— reemplaza el ciclo especulativo de "generar, revisar, rechazar, regenerar" por un ciclo determinístico de "especificar, generar, validar, entregar". Cualquier miembro del equipo puede ejecutar el proceso completo, desde el análisis hasta el despliegue.
El sistema SDD no es un secreto.
La curva de aprendizaje sí lo es.
La lógica es pública: especificar antes de ejecutar, generar contra la spec, validar antes del PR. Cualquier equipo con un Senior motivado puede leerlo y decidir hacerlo interno.
Eso está incorporado en el engagement. No como teoría. Como configuración específica para tu stack y tu arquitectura, validada en el piloto de la semana 4 antes del rollout.
Si tenés un Senior con tiempo real disponible para investigar y absorber esa curva sin impactar el sprint, puede hacerlo. Si ese tiempo sale del equipo que está entregando, el costo es otro.
De cero a sistema operativo
en 6 semanas. Sin freezar sprints.
El engagement está diseñado para funcionar en los márgenes del trabajo real del equipo, no en el centro. La carga máxima es 1 hora diaria de interrupción al sprint, concentrada en las semanas del piloto y la adopción. El resto del tiempo, el trabajo es propio del engagement. Cada semana cierra con un entregable concreto. Si al finalizar la semana 4 el piloto no cumple los criterios definidos al inicio, el engagement se detiene y no hay fee de cierre.
Auditoría
Mapeo de uso actual de IA, análisis de PRs rechazados, identificación de alucinaciones que llegaron a producción.
3–5 h totales del Tech Lead. Sin impacto en el sprint.
Sem. 1Relevamiento
Arquitectura, stack, patrones, protocolos del repo. Trabajo sobre código y documentación real.
2–3 h totales del Tech Lead + 1 h del equipo para revisión.
Sem. 2Configuración
IDE con reglas del proyecto, MCPs, Skills, templates de spec por tipo de tarea, pipeline de validación.
2 sesiones de 45 min con el Tech Lead. El resto es trabajo propio del engagement.
Sem. 3Piloto
Ciclo completo sobre una tarea real del sprint: spec → generación → validación → PR. Si el sistema no cumple los criterios, el engagement se detiene sin costo adicional.
1 dev + Tech Lead, máx. 1 h/día durante 5 días hábiles.
Sem. 4 — PUNTO DE CANCELACIÓNAdopción
Capacitación práctica del equipo completo. Cada persona ejecuta el pipeline sobre una tarea real con el sistema configurado.
1 sesión de 60 min por persona. Único día de carga concentrada del engagement.
Sem. 5Métricas y cierre
Dashboard de métricas, baseline sem. 1 vs. resultados, ajustes finales, plan de optimización continua.
Revisión semanal de 30 min. Sin otro impacto en el sprint.
Sem. 6Quién necesita esto
y quién todavía no.
Lo que se compromete
y lo que no.
Semana 1: mapa de uso actual de IA del equipo + lista de fricciones identificadas.
Semana 2: arquitectura relevada + contratos documentados + base para los templates de spec.
Semana 3: IDE configurado con reglas del proyecto + MCPs activos + templates de spec por tipo de tarea.
Semana 4: primera tarea entregada con SDD + informe del piloto + sistema ajustado para rollout.
Semana 5: equipo completo operando el pipeline + playbook del proceso.
Semana 6: dashboard de métricas + baseline sem. 1 vs. resultados + sistema autónomo entregado.
Si al cierre de la semana 4 el pipeline no pasa los criterios de aceptación definidos al inicio, podés cancelar el engagement sin costo adicional. Si al cierre de la semana 6 el equipo no supera el 60% de código IA con primer-pass >70%, el fee de cierre se reduce proporcionalmente a la diferencia.
El riesgo de que el sistema no funcione es mío. El tiempo de tu equipo es tuyo.
Lo que se pregunta
antes de la primera sesión.
¿SDD funciona con cualquier lenguaje o solo con ciertos stacks?
¿Cuántos agentes tiene el sistema? ¿Es siempre 3?
¿Cualquier dev puede ejecutar el pipeline completo o solo los seniors?
¿Cómo se integra con el proceso de review humano existente?
¿Qué pasa con el MCP y las librerías internas que no son públicas?
¿Cuánto tiempo requiere del equipo durante las 6 semanas?
Semanas 1 y 2 (auditoría y relevamiento): 3 a 5 horas totales del Tech Lead, distribuidas en la semana. Sin impacto en el sprint del equipo.
Semana 3 (configuración): 2 sesiones de 45 minutos con el Tech Lead. El resto es trabajo propio del engagement.
Semana 4 (piloto): 1 dev + el Tech Lead, máximo 1 hora por día durante los 5 días hábiles de la semana. Es la semana de mayor carga concentrada.
Semana 5 (adopción): 1 sesión de 60 minutos por persona del equipo. Es el único momento en que todo el equipo se detiene al mismo tiempo.
Semana 6 (métricas y cierre): revisión semanal de 30 minutos. Sin otro impacto en el sprint.
¿El sistema funciona igual si el equipo usa herramientas de observabilidad distintas?
¿Hay diferencia entre implementar esto para un dev individual y para un equipo completo?
30 minutos para saber
si SDD es la solución
para tu equipo.
En la primera sesión hacemos una auditoría rápida de tres puntos: dónde está hoy el porcentaje de uso de IA en el equipo, dónde se producen los rechazos de PR o las alucinaciones que llegan a producción, y qué tan definida está la arquitectura para que el sistema multiagente la pueda respetar. Con esos tres datos, confirmamos si SDD cierra la brecha o si el problema tiene otro origen. Si la conclusión es que no aplica, lo decimos en esa misma sesión y no hay siguiente paso.
SDD nació de un problema concreto: liderar un equipo de 8 devs backend sobre múltiples microservicios con arquitectura hexagonal en Go, con la exigencia de llegar al 100% de adopción de IA y un mínimo de 70% de código generado —sin una metodología formal que lo hiciera posible.
Llegamos al objetivo. No con un sistema. Con prueba y error, vibe coding, y muchos rechazos de PR antes de encontrar el orden correcto. La pregunta que me quedó después de eso fue la que generó SDD: ¿cuánto tiempo y cuántos ciclos de corrección se ahorra un equipo cuando especifica antes de ejecutar?
Eso es lo que viene a instalar este engagement en tu equipo.
“En Darío encontré a una persona enfocada en dar soluciones. Un líder de gestión que adquirió mucho conocimiento del producto y un background técnico que le empodera y lo enfoca a resultados. Le gusta documentar, dejar traza de su trabajo, convirtiéndose en referente natural de su entorno.”
Project Leader · Mercado Libre · Trabajó en el mismo equipo · 4 feb 2026
“Me resultó muy valioso su interés por la innovación, especialmente su manejo de la IA, ayudándonos a entender cómo aprovechar estas herramientas en el día a día. Tiene facilidad para entender procesos complejos y estructurarlos de forma sencilla.”
Project Leader · Mercado Libre · Trabajó en el mismo equipo · 2 feb 2026
“Darío se destacó por su sólido entendimiento del negocio, su versatilidad y su capacidad para liderar equipos en contextos regionales complejos. Impulsó y acompañó la implementación de nuevas features, asegurando entregas en tiempo y forma alineadas con los objetivos del negocio.”
Software Engineer · Mercado Libre · Darío lo supervisaba · 2 feb 2026
Todo tu stack existente.
Sin reemplazar nada.
SDD se integra al flujo de trabajo existente del equipo. No reemplaza las herramientas ni los procesos. Los potencia con la capa de especificación que hace que la IA genere código que pasa el proceso, no que lo trabe.
.rules con spec del equipo// Agente de generación lee esta spec. Agente de validación valida contra esta spec.
// No hay otro contrato. Cualquier dev del equipo ejecuta este pipeline.
// Domain: payments.refund
// UseCase: ProcessRefund
// Pattern: hexagonal · port+adapter · repository
// ACCEPTANCE CRITERIA:
// 1. RefundPort.Process nunca toca infra directamente → debe usar RefundRepository (interface)
// 2. Coverage ≥ 95% incluyendo error paths y timeouts (unit + integration)
// 3. p99 latency ≤ 150ms @ 100k RPM — medido con benchmark table-test
// 4. No direct DB calls en domain layer — todos via repository interface
// 5. ctx.Done() handled → no goroutine leaks en cancelación
// 6. Structured logging con trace_id para correlación en plataforma de observabilidad
// 7. Sin strings hardcodeados con datos financieros en logs
type RefundPort interface {
Process(ctx context.Context, req RefundRequest) (*RefundResponse, error)
}
type RefundRepository interface { // infra adapter — NUNCA importar impl aquí
FindByID(ctx context.Context, id string) (*Payment, error)
UpdateStatus(ctx context.Context, id string, status PaymentStatus) error
}
// Agente de validación verificará:
// ✓ ProcessRefund recibe RefundRepository por inyección, no instancia concrete
// ✓ Coverage: go test -coverprofile → mínimo 95% en todas las capas
// ✓ Análisis estático: zero warnings en herramienta del equipo
// ✓ Benchmark: p99 ≤ 150ms bajo carga simulada
// ✓ Observabilidad: span iniciado al entry, closed en defer
Cada métrica tiene
un mecanismo concreto.
Las exigencias de producción no se cumplen con buenas intenciones ni con prompts creativos. Se cumplen diseñando el sistema de generación de código para que produzca, por default, outputs que las cumplan. Esto es lo que SDD + multiagente hace de forma sistemática.