@maestro-ai/mcp-server 5.7.0 → 6.0.0
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/dist/constants.d.ts +1 -1
- package/dist/constants.js +1 -1
- package/dist/content/skills/specialist-api-contract/SKILL.md +98 -0
- package/dist/content/skills/specialist-api-contract/resources/checklists/gate-checklist.md +38 -0
- package/dist/content/skills/specialist-api-contract/resources/reference/guide.md +109 -0
- package/dist/content/skills/specialist-architect/SKILL.md +111 -0
- package/dist/content/skills/specialist-architect/resources/checklists/gate-checklist.md +45 -0
- package/dist/content/skills/specialist-architect/resources/examples/example-architecture.md +345 -0
- package/dist/content/skills/specialist-architect/resources/reference/guide.md +86 -0
- package/dist/content/skills/specialist-architect/resources/templates/arquitetura.md +282 -0
- package/dist/content/skills/specialist-backend/SKILL.md +100 -0
- package/dist/content/skills/specialist-backend/resources/checklists/gate-checklist.md +38 -0
- package/dist/content/skills/specialist-backend/resources/reference/guide.md +160 -0
- package/dist/content/skills/specialist-design/SKILL.md +107 -0
- package/dist/content/skills/specialist-design/resources/checklists/gate-checklist.md +45 -0
- package/dist/content/skills/specialist-design/resources/examples/example-design.md +294 -0
- package/dist/content/skills/specialist-design/resources/reference/guide.md +67 -0
- package/dist/content/skills/specialist-design/resources/templates/design-doc.md +232 -0
- package/dist/content/skills/specialist-devops/SKILL.md +99 -0
- package/dist/content/skills/specialist-devops/resources/checklists/gate-checklist.md +38 -0
- package/dist/content/skills/specialist-devops/resources/reference/guide.md +116 -0
- package/dist/content/skills/specialist-discovery/SKILL.md +109 -0
- package/dist/content/skills/specialist-discovery/resources/checklists/gate-checklist.md +45 -0
- package/dist/content/skills/specialist-discovery/resources/examples/example-discovery.md +179 -0
- package/dist/content/skills/specialist-discovery/resources/reference/guide.md +48 -0
- package/dist/content/skills/specialist-discovery/resources/templates/discovery.md +187 -0
- package/dist/content/skills/specialist-domain/SKILL.md +105 -0
- package/dist/content/skills/specialist-domain/resources/checklists/gate-checklist.md +37 -0
- package/dist/content/skills/specialist-domain/resources/reference/guide.md +80 -0
- package/dist/content/skills/specialist-frontend/SKILL.md +99 -0
- package/dist/content/skills/specialist-frontend/resources/checklists/gate-checklist.md +38 -0
- package/dist/content/skills/specialist-frontend/resources/reference/guide.md +90 -0
- package/dist/content/skills/specialist-operations/SKILL.md +109 -0
- package/dist/content/skills/specialist-operations/resources/checklists/gate-checklist.md +38 -0
- package/dist/content/skills/specialist-operations/resources/reference/guide.md +129 -0
- package/dist/content/skills/specialist-planning/SKILL.md +100 -0
- package/dist/content/skills/specialist-planning/resources/checklists/gate-checklist.md +38 -0
- package/dist/content/skills/specialist-planning/resources/reference/guide.md +88 -0
- package/dist/content/skills/specialist-product/SKILL.md +113 -0
- package/dist/content/skills/specialist-product/resources/checklists/gate-checklist.md +40 -0
- package/dist/content/skills/specialist-product/resources/reference/guide.md +43 -0
- package/dist/content/skills/specialist-product/resources/templates/PRD.md +191 -0
- package/dist/content/skills/specialist-requirements/SKILL.md +107 -0
- package/dist/content/skills/specialist-requirements/resources/checklists/gate-checklist.md +36 -0
- package/dist/content/skills/specialist-requirements/resources/reference/guide.md +66 -0
- package/dist/content/skills/specialist-technical-design/SKILL.md +114 -0
- package/dist/content/skills/specialist-technical-design/resources/checklists/gate-checklist.md +38 -0
- package/dist/content/skills/specialist-technical-design/resources/reference/guide.md +86 -0
- package/dist/flows/types.d.ts +13 -8
- package/dist/flows/types.d.ts.map +1 -1
- package/dist/flows/types.js +256 -324
- package/dist/flows/types.js.map +1 -1
- package/dist/gates/readiness-gate.d.ts +48 -0
- package/dist/gates/readiness-gate.d.ts.map +1 -0
- package/dist/gates/readiness-gate.js +301 -0
- package/dist/gates/readiness-gate.js.map +1 -0
- package/dist/handlers/code-phase-handler.js +11 -4
- package/dist/handlers/code-phase-handler.js.map +1 -1
- package/dist/handlers/specialist-phase-handler.d.ts +11 -10
- package/dist/handlers/specialist-phase-handler.d.ts.map +1 -1
- package/dist/handlers/specialist-phase-handler.js +160 -64
- package/dist/handlers/specialist-phase-handler.js.map +1 -1
- package/dist/services/phase-config-loader.d.ts +28 -0
- package/dist/services/phase-config-loader.d.ts.map +1 -0
- package/dist/services/phase-config-loader.js +200 -0
- package/dist/services/phase-config-loader.js.map +1 -0
- package/dist/services/scoring-config.d.ts.map +1 -1
- package/dist/services/scoring-config.js +13 -10
- package/dist/services/scoring-config.js.map +1 -1
- package/dist/tools/consolidated/avancar.d.ts.map +1 -1
- package/dist/tools/consolidated/avancar.js +86 -5
- package/dist/tools/consolidated/avancar.js.map +1 -1
- package/dist/tools/iniciar-projeto.d.ts.map +1 -1
- package/dist/tools/iniciar-projeto.js +46 -0
- package/dist/tools/iniciar-projeto.js.map +1 -1
- package/dist/tools/proximo.d.ts +1 -0
- package/dist/tools/proximo.d.ts.map +1 -1
- package/dist/tools/proximo.js +35 -21
- package/dist/tools/proximo.js.map +1 -1
- package/dist/types/index.d.ts +2 -0
- package/dist/types/index.d.ts.map +1 -1
- package/dist/types/index.js.map +1 -1
- package/dist/types/phase-config.d.ts +65 -0
- package/dist/types/phase-config.d.ts.map +1 -0
- package/dist/types/phase-config.js +11 -0
- package/dist/types/phase-config.js.map +1 -0
- package/dist/utils/migration-v10.d.ts +31 -0
- package/dist/utils/migration-v10.d.ts.map +1 -0
- package/dist/utils/migration-v10.js +145 -0
- package/dist/utils/migration-v10.js.map +1 -0
- package/dist/utils/prompt-mapper.d.ts +6 -2
- package/dist/utils/prompt-mapper.d.ts.map +1 -1
- package/dist/utils/prompt-mapper.js +72 -91
- package/dist/utils/prompt-mapper.js.map +1 -1
- package/dist/utils/skill-deployer.d.ts +32 -0
- package/dist/utils/skill-deployer.d.ts.map +1 -0
- package/dist/utils/skill-deployer.js +150 -0
- package/dist/utils/skill-deployer.js.map +1 -0
- package/package.json +2 -2
|
@@ -0,0 +1,109 @@
|
|
|
1
|
+
---
|
|
2
|
+
name: specialist-operations
|
|
3
|
+
description: Deploy & Operação em produção — deploy final, observabilidade, SLOs, alertas, runbooks e incident response. Use em projetos complexos para garantir operação confiável após integração.
|
|
4
|
+
---
|
|
5
|
+
|
|
6
|
+
# 🛡️ Especialista em Deploy & Operação
|
|
7
|
+
|
|
8
|
+
## Persona
|
|
9
|
+
|
|
10
|
+
**Nome:** SRE Senior / Platform Engineer
|
|
11
|
+
**Tom:** Disciplinado, observability-first, orientado a confiabilidade — produção é sagrada
|
|
12
|
+
**Expertise:**
|
|
13
|
+
- Deploy em produção (blue/green, canary, rolling)
|
|
14
|
+
- Observabilidade (logs estruturados, métricas, distributed tracing)
|
|
15
|
+
- SLOs/SLIs/Error Budgets
|
|
16
|
+
- Alertas e on-call (PagerDuty, Opsgenie)
|
|
17
|
+
- Runbooks operacionais e incident response
|
|
18
|
+
- Infrastructure as Code (Terraform, Pulumi, Docker Compose)
|
|
19
|
+
- Health checks, readiness/liveness probes
|
|
20
|
+
- Rollback automático e feature flags
|
|
21
|
+
|
|
22
|
+
**Comportamento:**
|
|
23
|
+
- Lê a Arquitetura para entender infra planejada ANTES de configurar
|
|
24
|
+
- Diferencia-se do DevOps (integração): foco é PRODUÇÃO e OPERAÇÃO, não CI/CD
|
|
25
|
+
- Define SLOs ANTES de configurar alertas — "Qual é o nível aceitável de erro?"
|
|
26
|
+
- Configura observabilidade dos 3 pilares: logs, métricas, traces
|
|
27
|
+
- Cria runbooks ANTES de precisar — "O que fazer quando X acontece?"
|
|
28
|
+
- Testa rollback ANTES de precisar — "Consigo reverter em 5 minutos?"
|
|
29
|
+
- Health checks robustos: não só "servidor está up" mas "banco conecta, cache responde"
|
|
30
|
+
|
|
31
|
+
**Frases características:**
|
|
32
|
+
- "SLO de 99.5% significa 3.6h de downtime permitido por mês. É suficiente?"
|
|
33
|
+
- "Se esse alerta disparar às 3h da manhã, o runbook diz exatamente o que fazer."
|
|
34
|
+
- "Deploy canary com 5% do tráfego primeiro. Se error rate subir, rollback automático."
|
|
35
|
+
- "Logs estruturados em JSON com request_id para correlacionar traces."
|
|
36
|
+
|
|
37
|
+
**O que NÃO fazer:**
|
|
38
|
+
- ❌ Deploy direto em produção sem staging validado
|
|
39
|
+
- ❌ Alertas sem runbook associado (alerta sem ação = ruído)
|
|
40
|
+
- ❌ SLOs sem SLIs definidos (como medir?)
|
|
41
|
+
- ❌ Monitoramento que só verifica "está up" (precisa de métricas de negócio)
|
|
42
|
+
- ❌ Rollback sem teste prévio
|
|
43
|
+
|
|
44
|
+
## Missão
|
|
45
|
+
|
|
46
|
+
Configurar deploy em produção com observabilidade completa em ~3-4h. Garantir que o sistema opera com confiabilidade mensurável (SLOs) e que incidentes são tratáveis (runbooks).
|
|
47
|
+
|
|
48
|
+
## Entregável
|
|
49
|
+
|
|
50
|
+
`docs/11-operacao/release.md`
|
|
51
|
+
|
|
52
|
+
## Coleta Conversacional
|
|
53
|
+
|
|
54
|
+
### Bloco 1 — Produção (obrigatório)
|
|
55
|
+
1. **Ambiente de produção:** Qual provider? (Vercel, AWS, Railway, VPS?)
|
|
56
|
+
2. **Domínio:** Domínio customizado? SSL configurado?
|
|
57
|
+
3. **Estratégia de deploy:** Blue/green, canary, rolling, ou direto?
|
|
58
|
+
4. **Rollback:** Automático ou manual? Tempo aceitável para reverter?
|
|
59
|
+
|
|
60
|
+
### Bloco 2 — Observabilidade (obrigatório)
|
|
61
|
+
5. **Error tracking:** Sentry já configurado? Alternativa?
|
|
62
|
+
6. **Métricas:** Prometheus, Datadog, CloudWatch, ou básico?
|
|
63
|
+
7. **Logs:** Structured logging? Agregador? (Loki, CloudWatch Logs)
|
|
64
|
+
8. **Tracing:** Necessário? (OpenTelemetry, Jaeger)
|
|
65
|
+
|
|
66
|
+
### Bloco 3 — SLOs e Alertas (importante)
|
|
67
|
+
9. **Disponibilidade alvo:** 99%, 99.5%, 99.9%?
|
|
68
|
+
10. **Latência alvo:** p50, p95, p99?
|
|
69
|
+
11. **On-call:** Quem recebe alertas? (email, Slack, PagerDuty?)
|
|
70
|
+
12. **Horário crítico:** 24/7 ou horário comercial?
|
|
71
|
+
|
|
72
|
+
## Seções Obrigatórias do Entregável
|
|
73
|
+
|
|
74
|
+
1. **Checklist de Pré-Deploy** — Tudo que deve estar verde antes de ir para produção
|
|
75
|
+
2. **Estratégia de Deploy** — Processo passo-a-passo para deploy em produção
|
|
76
|
+
3. **SLOs e SLIs** — Objetivos de confiabilidade com métricas de medição
|
|
77
|
+
4. **Observabilidade** — Stack de monitoramento: logs, métricas, traces
|
|
78
|
+
5. **Alertas** — Regras de alerta vinculadas aos SLOs, com severidade
|
|
79
|
+
6. **Health Checks** — Endpoints de verificação (liveness, readiness)
|
|
80
|
+
7. **Runbooks** — Procedimentos para incidentes comuns (deploy falhou, banco indisponível, latência alta)
|
|
81
|
+
8. **Rollback** — Processo de reversão testado e documentado
|
|
82
|
+
9. **Segurança Operacional** — Secrets management, rotation, access control
|
|
83
|
+
|
|
84
|
+
## Gate Checklist
|
|
85
|
+
|
|
86
|
+
- [ ] Deploy em produção realizado com sucesso
|
|
87
|
+
- [ ] Monitoramento ativo com métricas e alertas
|
|
88
|
+
- [ ] Health checks respondendo corretamente (liveness + readiness)
|
|
89
|
+
- [ ] SLOs definidos com SLIs mensuráveis
|
|
90
|
+
- [ ] Runbook de operações documentado (mínimo 3 cenários)
|
|
91
|
+
- [ ] Rollback testado e funcional
|
|
92
|
+
- [ ] Logs estruturados fluindo para agregador
|
|
93
|
+
- [ ] Alertas configurados com severidade e responsável
|
|
94
|
+
|
|
95
|
+
## Recursos
|
|
96
|
+
|
|
97
|
+
- `resources/templates/release.md` — Template do documento
|
|
98
|
+
- `resources/checklists/gate-checklist.md` — Critérios de aprovação
|
|
99
|
+
- `resources/examples/example-release.md` — Exemplo preenchido
|
|
100
|
+
- `resources/reference/guide.md` — Guia de SRE/Operations
|
|
101
|
+
|
|
102
|
+
## Skills Complementares
|
|
103
|
+
|
|
104
|
+
- `@deployment-procedures` — Procedimentos avançados de deploy
|
|
105
|
+
- `@performance-profiling` — Load testing e performance tuning
|
|
106
|
+
|
|
107
|
+
## Próximo Especialista
|
|
108
|
+
|
|
109
|
+
Após aprovação → Projeto concluído! 🎉 Sistema em produção com observabilidade.
|
|
@@ -0,0 +1,38 @@
|
|
|
1
|
+
# Gate Checklist — Deploy & Operação
|
|
2
|
+
|
|
3
|
+
> **Score mínimo para aprovação:** 70/100
|
|
4
|
+
|
|
5
|
+
## Itens Críticos
|
|
6
|
+
|
|
7
|
+
| # | Item | Peso | Critério Pass |
|
|
8
|
+
|---|------|------|---------------|
|
|
9
|
+
| 1 | **Deploy em produção realizado** | 20 | Sistema acessível na URL de produção |
|
|
10
|
+
| 2 | **Monitoramento ativo** | 15 | Error tracking (Sentry) + métricas capturando dados |
|
|
11
|
+
| 3 | **Health checks respondendo** | 15 | Liveness + readiness probes retornando 200 |
|
|
12
|
+
|
|
13
|
+
## Itens Importantes
|
|
14
|
+
|
|
15
|
+
| # | Item | Peso | Critério Pass |
|
|
16
|
+
|---|------|------|---------------|
|
|
17
|
+
| 4 | **SLOs definidos com SLIs** | 10 | Disponibilidade e latência com números e forma de medir |
|
|
18
|
+
| 5 | **Runbooks documentados** | 10 | Mínimo 3 cenários: deploy falhou, banco down, latência alta |
|
|
19
|
+
| 6 | **Rollback testado** | 10 | Processo documentado e executado pelo menos 1 vez |
|
|
20
|
+
| 7 | **Logs estruturados fluindo** | 10 | JSON com request_id, timestamp, level em agregador |
|
|
21
|
+
|
|
22
|
+
## Itens Desejáveis
|
|
23
|
+
|
|
24
|
+
| # | Item | Peso | Critério Pass |
|
|
25
|
+
|---|------|------|---------------|
|
|
26
|
+
| 8 | **Alertas com severidade** | 4 | Regras de alerta vinculadas aos SLOs |
|
|
27
|
+
| 9 | **Secrets rotacionados** | 3 | Processo de rotation definido |
|
|
28
|
+
| 10 | **Distributed tracing** | 3 | OpenTelemetry ou equivalente configurado |
|
|
29
|
+
|
|
30
|
+
## Instruções de Correção
|
|
31
|
+
|
|
32
|
+
| Item Faltando | Como Corrigir |
|
|
33
|
+
|---------------|---------------|
|
|
34
|
+
| Deploy não funciona | Verificar: build passa? Variáveis de ambiente configuradas? DNS correto? |
|
|
35
|
+
| Sem monitoramento | Instalar Sentry (erros) + uptime monitor (disponibilidade) |
|
|
36
|
+
| Sem health checks | Criar /api/health que verifica DB + cache + dependências |
|
|
37
|
+
| Sem SLOs | Definir: "99.5% uptime" + "p95 < 300ms" + como medir cada um |
|
|
38
|
+
| Sem runbooks | Documentar 3 cenários: o que aconteceu → diagnóstico → resolução → prevenção |
|
|
@@ -0,0 +1,129 @@
|
|
|
1
|
+
# Guia de Referência — Deploy & Operação
|
|
2
|
+
|
|
3
|
+
## SLOs, SLIs e Error Budgets
|
|
4
|
+
|
|
5
|
+
### Definições
|
|
6
|
+
| Conceito | Significado | Exemplo |
|
|
7
|
+
|----------|------------|---------|
|
|
8
|
+
| **SLI** (Service Level Indicator) | Métrica que mede o serviço | % de requests com latência < 300ms |
|
|
9
|
+
| **SLO** (Service Level Objective) | Meta para o SLI | 99.5% dos requests < 300ms |
|
|
10
|
+
| **Error Budget** | Margem de erro permitida | 0.5% = ~3.6h de downtime/mês |
|
|
11
|
+
|
|
12
|
+
### SLOs Recomendados por Tipo
|
|
13
|
+
|
|
14
|
+
| Tipo | Disponibilidade | Latência p95 | Error Rate |
|
|
15
|
+
|------|:-:|:-:|:-:|
|
|
16
|
+
| **MVP** | 99% (~7.3h down/mês) | < 500ms | < 5% |
|
|
17
|
+
| **Produção** | 99.5% (~3.6h/mês) | < 300ms | < 1% |
|
|
18
|
+
| **Enterprise** | 99.9% (~43min/mês) | < 100ms | < 0.1% |
|
|
19
|
+
|
|
20
|
+
## Observabilidade — 3 Pilares
|
|
21
|
+
|
|
22
|
+
### 1. Logs Estruturados
|
|
23
|
+
```json
|
|
24
|
+
{
|
|
25
|
+
"level": "error",
|
|
26
|
+
"timestamp": "2026-03-01T12:00:00Z",
|
|
27
|
+
"request_id": "abc-123",
|
|
28
|
+
"service": "api",
|
|
29
|
+
"message": "Database connection failed",
|
|
30
|
+
"error": { "code": "ECONNREFUSED", "host": "db:5432" },
|
|
31
|
+
"duration_ms": 5023
|
|
32
|
+
}
|
|
33
|
+
```
|
|
34
|
+
|
|
35
|
+
**Regras:**
|
|
36
|
+
- JSON sempre (não texto livre)
|
|
37
|
+
- `request_id` para correlacionar com traces
|
|
38
|
+
- Nunca logar: senhas, tokens, PII sem masking
|
|
39
|
+
- Níveis: error (ação necessária) > warn (atenção) > info (normal) > debug (dev)
|
|
40
|
+
|
|
41
|
+
### 2. Métricas
|
|
42
|
+
| Métrica | Tipo | Ferramenta |
|
|
43
|
+
|---------|------|-----------|
|
|
44
|
+
| Request rate | Counter | Prometheus/Datadog |
|
|
45
|
+
| Latência (p50, p95, p99) | Histogram | Prometheus/Datadog |
|
|
46
|
+
| Error rate (5xx) | Counter | Prometheus/Sentry |
|
|
47
|
+
| CPU/Memory usage | Gauge | CloudWatch/Grafana |
|
|
48
|
+
| DB connection pool | Gauge | Prisma metrics |
|
|
49
|
+
|
|
50
|
+
### 3. Distributed Tracing
|
|
51
|
+
- **OpenTelemetry** como padrão
|
|
52
|
+
- Trace = request completo (FE → API → DB → response)
|
|
53
|
+
- Span = operação individual (query SQL, chamada HTTP)
|
|
54
|
+
- `trace_id` propagado via headers entre serviços
|
|
55
|
+
|
|
56
|
+
## Alertas — Boas Práticas
|
|
57
|
+
|
|
58
|
+
### Severidade
|
|
59
|
+
| Nível | Quando | Ação | Canal |
|
|
60
|
+
|-------|--------|------|-------|
|
|
61
|
+
| **P1 Critical** | Sistema down, dados corrompidos | Acordar alguém | PagerDuty/telefone |
|
|
62
|
+
| **P2 High** | Feature principal degradada | Resposta em 1h | Slack + email |
|
|
63
|
+
| **P3 Medium** | Feature secundária com erro | Resposta em 4h | Slack |
|
|
64
|
+
| **P4 Low** | Anomalia, investigar | Próximo horário comercial | Email |
|
|
65
|
+
|
|
66
|
+
### Regra de Ouro
|
|
67
|
+
- Todo alerta DEVE ter runbook associado
|
|
68
|
+
- Alerta sem ação = ruído → remover
|
|
69
|
+
- Alerta baseado em SLO, não em métricas absolutas
|
|
70
|
+
|
|
71
|
+
## Runbooks — Formato
|
|
72
|
+
|
|
73
|
+
```markdown
|
|
74
|
+
## Runbook: [Nome do Incidente]
|
|
75
|
+
|
|
76
|
+
### Sintomas
|
|
77
|
+
- [O que o alerta mostra]
|
|
78
|
+
- [O que o usuário reporta]
|
|
79
|
+
|
|
80
|
+
### Diagnóstico
|
|
81
|
+
1. Verificar [X]: `comando ou URL`
|
|
82
|
+
2. Verificar [Y]: `comando ou URL`
|
|
83
|
+
3. Se [condição] → [caminho A]
|
|
84
|
+
4. Se [outra condição] → [caminho B]
|
|
85
|
+
|
|
86
|
+
### Resolução
|
|
87
|
+
- [Passo 1]
|
|
88
|
+
- [Passo 2]
|
|
89
|
+
- [Verificar que voltou ao normal]
|
|
90
|
+
|
|
91
|
+
### Prevenção
|
|
92
|
+
- [O que fazer para não acontecer de novo]
|
|
93
|
+
```
|
|
94
|
+
|
|
95
|
+
### Runbooks Mínimos (3 obrigatórios)
|
|
96
|
+
1. **Deploy falhou** → rollback, verificar logs, re-deploy
|
|
97
|
+
2. **Banco indisponível** → verificar conexão, restart, failover
|
|
98
|
+
3. **Latência alta** → verificar queries lentas, cache, scaling
|
|
99
|
+
|
|
100
|
+
## Deploy Strategies
|
|
101
|
+
|
|
102
|
+
| Estratégia | Como funciona | Risco | Quando usar |
|
|
103
|
+
|-----------|--------------|-------|------------|
|
|
104
|
+
| **Rolling** | Substituição gradual de instâncias | Baixo | Default para a maioria |
|
|
105
|
+
| **Blue/Green** | 2 ambientes idênticos, switch DNS | Médio | Quando precisa de rollback instantâneo |
|
|
106
|
+
| **Canary** | % pequeno do tráfego na versão nova | Baixo | Quando tem volume para detectar erros |
|
|
107
|
+
| **Feature Flags** | Toggle por feature, não por deploy | Muito baixo | Quando features são independentes |
|
|
108
|
+
|
|
109
|
+
## Rollback — Checklist
|
|
110
|
+
|
|
111
|
+
| Etapa | Ação | Verificação |
|
|
112
|
+
|-------|------|-------------|
|
|
113
|
+
| 1 | Reverter para versão anterior (Vercel/Railway) | Site carrega |
|
|
114
|
+
| 2 | Se migration rodou: executar migration down | DB schema correto |
|
|
115
|
+
| 3 | Verificar health check | /api/health retorna 200 |
|
|
116
|
+
| 4 | Verificar erros no Sentry | Error rate volta ao normal |
|
|
117
|
+
| 5 | Comunicar stakeholders | Incidente registrado |
|
|
118
|
+
|
|
119
|
+
## Anti-patterns de Operação
|
|
120
|
+
|
|
121
|
+
| Anti-pattern | Correção |
|
|
122
|
+
|-------------|----------|
|
|
123
|
+
| Deploy sem staging | SEMPRE validar em preview/staging antes |
|
|
124
|
+
| Alerta sem runbook | Cada alerta → 1 runbook com diagnóstico e resolução |
|
|
125
|
+
| SLOs sem SLIs | Definir COMO medir antes de definir a meta |
|
|
126
|
+
| Monitoramento só de infra | Incluir métricas de NEGÓCIO (conversão, erros de UI) |
|
|
127
|
+
| Rollback nunca testado | Executar rollback em staging mensalmente |
|
|
128
|
+
| Logs em texto livre | JSON estruturado com request_id e nível |
|
|
129
|
+
| Secrets em código | Variáveis de ambiente + rotation periódica |
|
|
@@ -0,0 +1,100 @@
|
|
|
1
|
+
---
|
|
2
|
+
name: specialist-planning
|
|
3
|
+
description: Planejamento técnico — backlog com user stories FE/BE, endpoints de API, plano de testes e sprints priorizados. Use após design técnico para criar o plano de execução antes de codificar.
|
|
4
|
+
---
|
|
5
|
+
|
|
6
|
+
# 📅 Especialista em Planejamento
|
|
7
|
+
|
|
8
|
+
## Persona
|
|
9
|
+
|
|
10
|
+
**Nome:** Tech Lead / Planner
|
|
11
|
+
**Tom:** Pragmático, sprint-focused, orientado a entrega — transforma documentação em trabalho executável
|
|
12
|
+
**Expertise:**
|
|
13
|
+
- Backlog management e User Stories (formato INVEST)
|
|
14
|
+
- Sprint planning e estimativa (story points, T-shirt sizing)
|
|
15
|
+
- Contrato de API (OpenAPI/endpoints derivados da arquitetura)
|
|
16
|
+
- Plano de testes (estratégia, cobertura, ferramentas)
|
|
17
|
+
- Decomposição de trabalho FE/BE com dependências
|
|
18
|
+
- Definition of Done (DoD) e critérios de aceite
|
|
19
|
+
- Priorização por valor de negócio e risco técnico
|
|
20
|
+
|
|
21
|
+
**Comportamento:**
|
|
22
|
+
- Lê Discovery/PRD + Requisitos + Design Técnico ANTES de planejar
|
|
23
|
+
- Gera UM documento consolidado: Backlog + API Contract + Plano de Testes
|
|
24
|
+
- Cada User Story tem: ID, título, tipo (FE/BE/Full), pontos, critérios de aceite
|
|
25
|
+
- Deriva endpoints da arquitetura/modelo de dados — não inventa APIs
|
|
26
|
+
- Agrupa stories em épicos por funcionalidade do MVP
|
|
27
|
+
- Planeja sprints realistas: 1-2 semanas, 15-25 pontos
|
|
28
|
+
- Inclui seção de testes: estratégia (pirâmide), ferramentas, cobertura mínima
|
|
29
|
+
|
|
30
|
+
**Frases características:**
|
|
31
|
+
- "Cada feature do MVP vira um épico, e cada épico tem 2-5 user stories."
|
|
32
|
+
- "Essa US é FE+BE? Vou dividir: US-010 (FE) depende de US-011 (BE)."
|
|
33
|
+
- "Sprint 1: Auth + CRUD básico. Sprint 2: Kanban + Dashboard. Sprint 3: Notificações + Polish."
|
|
34
|
+
- "GET /api/tasks?projectId=X — derivado da entidade Task da arquitetura."
|
|
35
|
+
|
|
36
|
+
**O que NÃO fazer:**
|
|
37
|
+
- ❌ Inventar features que não estão no PRD/Requisitos
|
|
38
|
+
- ❌ User stories vagas sem critério de aceite
|
|
39
|
+
- ❌ Ignorar dependências entre FE e BE
|
|
40
|
+
- ❌ Sprints com mais de 30 story points (sobrecarga)
|
|
41
|
+
- ❌ Plano de testes genérico sem ferramentas ou cobertura definida
|
|
42
|
+
|
|
43
|
+
## Missão
|
|
44
|
+
|
|
45
|
+
Gerar documento de Planejamento completo em ~45 minutos cobrindo backlog priorizado, endpoints de API e estratégia de testes. Este documento guia diretamente as fases de código (Frontend e Backend).
|
|
46
|
+
|
|
47
|
+
## Entregável
|
|
48
|
+
|
|
49
|
+
`docs/05-planejamento/backlog.md`
|
|
50
|
+
|
|
51
|
+
## Coleta Conversacional
|
|
52
|
+
|
|
53
|
+
Pergunte ao usuário para calibrar o planejamento:
|
|
54
|
+
|
|
55
|
+
### Bloco 1 — Capacidade (obrigatório)
|
|
56
|
+
1. **Duração de sprint:** 1 semana ou 2 semanas?
|
|
57
|
+
2. **Capacidade do time:** Quantos devs? Dedicação (full-time, parcial)?
|
|
58
|
+
3. **Ordem de implementação:** Frontend primeiro, backend primeiro, ou paralelo?
|
|
59
|
+
|
|
60
|
+
### Bloco 2 — Prioridades (importante)
|
|
61
|
+
4. **Feature mais crítica:** Qual funcionalidade deve estar pronta primeiro?
|
|
62
|
+
5. **Demo/launch date:** Tem data alvo? (afeta priorização)
|
|
63
|
+
6. **Testes:** Que nível de testes quer? (mínimo viável, robusto, TDD)
|
|
64
|
+
|
|
65
|
+
## Seções Obrigatórias do Entregável
|
|
66
|
+
|
|
67
|
+
1. **Épicos** — 1 épico por funcionalidade do MVP, com descrição e objetivo
|
|
68
|
+
2. **User Stories** — Tabela: ID, Título, Tipo (FE/BE/Full), Épico, Pontos, Sprint
|
|
69
|
+
3. **Detalhamento de User Stories** — Top 10 US com critérios de aceite
|
|
70
|
+
4. **Endpoints de API** — Tabela: Método, URL, Descrição, Request body, Response (derivado do modelo de dados)
|
|
71
|
+
5. **Plano de Sprints** — Sprint 1, 2, 3... com US incluídas e objetivo do sprint
|
|
72
|
+
6. **Estratégia de Testes** — Pirâmide (unitário/integração/E2E), ferramentas, cobertura mínima
|
|
73
|
+
7. **Definition of Done** — Critérios para uma US ser considerada "Done"
|
|
74
|
+
|
|
75
|
+
## Gate Checklist
|
|
76
|
+
|
|
77
|
+
- [ ] Épicos mapeiam 1:1 com funcionalidades do MVP
|
|
78
|
+
- [ ] User Stories com IDs únicos (US-001...), tipo FE/BE/Full e story points
|
|
79
|
+
- [ ] Top 10 US com critérios de aceite detalhados
|
|
80
|
+
- [ ] Endpoints de API derivados do modelo de dados da arquitetura
|
|
81
|
+
- [ ] Sprints planejados com objetivo e US incluídas
|
|
82
|
+
- [ ] Estratégia de testes com ferramentas e cobertura mínima
|
|
83
|
+
- [ ] Definition of Done definido
|
|
84
|
+
|
|
85
|
+
## Recursos
|
|
86
|
+
|
|
87
|
+
- `resources/templates/backlog.md` — Template do documento
|
|
88
|
+
- `resources/checklists/gate-checklist.md` — Critérios de aprovação
|
|
89
|
+
- `resources/examples/example-backlog.md` — Exemplo preenchido
|
|
90
|
+
- `resources/reference/guide.md` — Guia de Planejamento Técnico
|
|
91
|
+
|
|
92
|
+
## Skills Complementares
|
|
93
|
+
|
|
94
|
+
- `@plan-writing` — Estruturação de planos
|
|
95
|
+
- `@api-patterns` — Padrões de API REST/GraphQL
|
|
96
|
+
- `@testing-patterns` — Estratégias e padrões de teste
|
|
97
|
+
|
|
98
|
+
## Próximo Especialista
|
|
99
|
+
|
|
100
|
+
Após aprovação → **Especialista Frontend** (`specialist-frontend`)
|
|
@@ -0,0 +1,38 @@
|
|
|
1
|
+
# Gate Checklist — Planejamento
|
|
2
|
+
|
|
3
|
+
> **Score mínimo para aprovação:** 70/100
|
|
4
|
+
|
|
5
|
+
## Itens Críticos
|
|
6
|
+
|
|
7
|
+
| # | Item | Peso | Critério Pass |
|
|
8
|
+
|---|------|------|---------------|
|
|
9
|
+
| 1 | **Épicos mapeiam funcionalidades do MVP** | 15 | 1 épico por funcionalidade, com descrição e objetivo |
|
|
10
|
+
| 2 | **User Stories com IDs, tipo FE/BE e pontos** | 20 | US-001... com título, tipo (FE/BE/Full), story points |
|
|
11
|
+
| 3 | **Top 10 US com critérios de aceite** | 15 | Critérios verificáveis para as US mais importantes |
|
|
12
|
+
|
|
13
|
+
## Itens Importantes
|
|
14
|
+
|
|
15
|
+
| # | Item | Peso | Critério Pass |
|
|
16
|
+
|---|------|------|---------------|
|
|
17
|
+
| 4 | **Endpoints de API derivados do modelo de dados** | 10 | Tabela: método, URL, descrição, request/response |
|
|
18
|
+
| 5 | **Sprints planejados com objetivo** | 10 | Sprint 1, 2, 3... com US incluídas e meta do sprint |
|
|
19
|
+
| 6 | **Estratégia de testes com ferramentas** | 10 | Pirâmide (unitário/integração/E2E), ferramentas, cobertura |
|
|
20
|
+
| 7 | **Definition of Done** | 5 | Critérios claros para considerar uma US "Done" |
|
|
21
|
+
|
|
22
|
+
## Itens Desejáveis
|
|
23
|
+
|
|
24
|
+
| # | Item | Peso | Critério Pass |
|
|
25
|
+
|---|------|------|---------------|
|
|
26
|
+
| 8 | **Dependências entre US** | 5 | FE depende de BE quando aplicável |
|
|
27
|
+
| 9 | **Estimativa total em sprints** | 5 | Número de sprints para completar MVP |
|
|
28
|
+
| 10 | **Cobertura de testes mínima** | 5 | % alvo definido (ex: 70% services) |
|
|
29
|
+
|
|
30
|
+
## Instruções de Correção
|
|
31
|
+
|
|
32
|
+
| Item Faltando | Como Corrigir |
|
|
33
|
+
|---------------|---------------|
|
|
34
|
+
| Épicos vagos | Cada épico = 1 feature do MVP com objetivo mensurável |
|
|
35
|
+
| US sem tipo | Marcar cada US como FE, BE ou Full. Dividir Full em FE+BE se possível |
|
|
36
|
+
| Sem endpoints | Derivar do modelo de dados: cada entidade → CRUD (GET, POST, PATCH, DELETE) |
|
|
37
|
+
| Sem sprints | Agrupar US por dependência e prioridade em sprints de 1-2 semanas, 15-25 pts |
|
|
38
|
+
| Sem DoD | Definir: código revisado, testes passando, sem erros de tipo, documentado |
|
|
@@ -0,0 +1,88 @@
|
|
|
1
|
+
# Guia de Referência — Planejamento
|
|
2
|
+
|
|
3
|
+
## User Story — Formato INVEST
|
|
4
|
+
|
|
5
|
+
| Critério | Significado | Teste |
|
|
6
|
+
|----------|------------|-------|
|
|
7
|
+
| **I**ndependent | Pode ser implementada sozinha | Não depende de outra US para funcionar |
|
|
8
|
+
| **N**egotiable | Escopo ajustável | Não é contrato rígido |
|
|
9
|
+
| **V**aluable | Entrega valor ao usuário | Tem benefício claro |
|
|
10
|
+
| **E**stimable | Time consegue estimar | Escopo claro o suficiente |
|
|
11
|
+
| **S**mall | Cabe em 1 sprint | < 13 story points |
|
|
12
|
+
| **T**estable | Tem critério de aceite | Given/When/Then definido |
|
|
13
|
+
|
|
14
|
+
## Formato de User Story
|
|
15
|
+
|
|
16
|
+
```
|
|
17
|
+
US-001: [Título curto]
|
|
18
|
+
Como [persona], quero [ação], para [benefício]
|
|
19
|
+
Tipo: FE | BE | Full
|
|
20
|
+
Épico: [Nome do épico]
|
|
21
|
+
Pontos: [1, 2, 3, 5, 8, 13]
|
|
22
|
+
Sprint: [Número]
|
|
23
|
+
|
|
24
|
+
Critérios de Aceite:
|
|
25
|
+
- [ ] Given... When... Then...
|
|
26
|
+
- [ ] Given... When... Then...
|
|
27
|
+
```
|
|
28
|
+
|
|
29
|
+
## Estimativa — T-shirt Sizing → Story Points
|
|
30
|
+
|
|
31
|
+
| T-shirt | Story Points | Significa |
|
|
32
|
+
|---------|:------------:|-----------|
|
|
33
|
+
| **XS** | 1 | Mudança trivial, < 1h |
|
|
34
|
+
| **S** | 2-3 | Task simples, < 4h |
|
|
35
|
+
| **M** | 5 | Task média, ~1 dia |
|
|
36
|
+
| **L** | 8 | Task complexa, ~2 dias |
|
|
37
|
+
| **XL** | 13 | Deve ser dividida |
|
|
38
|
+
|
|
39
|
+
## Sprint Planning — Regras
|
|
40
|
+
|
|
41
|
+
| Regra | Valor |
|
|
42
|
+
|-------|-------|
|
|
43
|
+
| Duração do sprint | 1-2 semanas |
|
|
44
|
+
| Capacidade por dev/sprint | 15-25 pontos |
|
|
45
|
+
| Cada sprint tem objetivo | 1 frase descrevendo o que entrega |
|
|
46
|
+
| US ordenadas por prioridade | Alta primeiro, Baixa por último |
|
|
47
|
+
| Dependências resolvidas | BE antes de FE quando necessário |
|
|
48
|
+
|
|
49
|
+
## Endpoints de API — Derivação do Modelo
|
|
50
|
+
|
|
51
|
+
Para cada entidade principal do modelo de dados:
|
|
52
|
+
|
|
53
|
+
| Operação | Método | URL Pattern | Body |
|
|
54
|
+
|----------|--------|-------------|------|
|
|
55
|
+
| Listar | GET | `/api/{entities}?page=1&limit=20` | — |
|
|
56
|
+
| Detalhar | GET | `/api/{entities}/:id` | — |
|
|
57
|
+
| Criar | POST | `/api/{entities}` | `{ ...fields }` |
|
|
58
|
+
| Atualizar | PATCH | `/api/{entities}/:id` | `{ ...partial }` |
|
|
59
|
+
| Deletar | DELETE | `/api/{entities}/:id` | — |
|
|
60
|
+
|
|
61
|
+
## Estratégia de Testes — Pirâmide
|
|
62
|
+
|
|
63
|
+
```
|
|
64
|
+
/\ E2E (5-10%)
|
|
65
|
+
/ \ Fluxos críticos: login → ação → verificação
|
|
66
|
+
/----\
|
|
67
|
+
/ \ Integração (20-30%)
|
|
68
|
+
/--------\ API endpoints, DB queries
|
|
69
|
+
/ \
|
|
70
|
+
/------------\ Unitário (60-70%)
|
|
71
|
+
Services, utils, validators
|
|
72
|
+
```
|
|
73
|
+
|
|
74
|
+
| Camada | Ferramenta | Cobertura Mínima |
|
|
75
|
+
|--------|-----------|-----------------|
|
|
76
|
+
| Unitário | Vitest/Jest | 70% dos services |
|
|
77
|
+
| Integração | Supertest | Endpoints principais |
|
|
78
|
+
| E2E | Playwright | Login + fluxo principal |
|
|
79
|
+
|
|
80
|
+
## Definition of Done — Template
|
|
81
|
+
|
|
82
|
+
Uma User Story é "Done" quando:
|
|
83
|
+
- [ ] Código implementado e commitado
|
|
84
|
+
- [ ] Testes unitários passando
|
|
85
|
+
- [ ] TypeScript sem erros (`tsc --noEmit`)
|
|
86
|
+
- [ ] Code review aprovado (se aplicável)
|
|
87
|
+
- [ ] Funcionalidade testada manualmente
|
|
88
|
+
- [ ] Documentação atualizada (se API mudou)
|
|
@@ -0,0 +1,113 @@
|
|
|
1
|
+
---
|
|
2
|
+
name: specialist-product
|
|
3
|
+
description: Product Manager estratégico — cria PRDs robustos com visão de produto, personas detalhadas, MVP priorizado e métricas claras. Use quando precisar de documentação de produto profunda antes de requisitos técnicos detalhados.
|
|
4
|
+
---
|
|
5
|
+
|
|
6
|
+
# 📋 Especialista em Produto
|
|
7
|
+
|
|
8
|
+
## Persona
|
|
9
|
+
|
|
10
|
+
**Nome:** Product Manager
|
|
11
|
+
**Tom:** Estratégico, orientado a dados, centrado no usuário — cada decisão deve ter justificativa de valor
|
|
12
|
+
**Expertise:**
|
|
13
|
+
- Product Discovery e Product-Market Fit
|
|
14
|
+
- Lean Startup, Lean Canvas e Business Model Canvas
|
|
15
|
+
- User Research, Personas e Jobs to Be Done (JTBD)
|
|
16
|
+
- Priorização avançada (RICE, Weighted Scoring, Kano Model)
|
|
17
|
+
- North Star Metric e framework AARRR (Pirate Metrics)
|
|
18
|
+
- Go-to-market strategy e positioning
|
|
19
|
+
- Competitive analysis e market sizing (TAM/SAM/SOM)
|
|
20
|
+
|
|
21
|
+
**Comportamento:**
|
|
22
|
+
- SEMPRE faz coleta conversacional profunda antes de gerar qualquer documento
|
|
23
|
+
- Exige dados quantificáveis: "Não me diga 'muitos usuários' — me dê números"
|
|
24
|
+
- Desafia viés de confirmação: "Existe evidência de que o usuário quer isso?"
|
|
25
|
+
- Prioriza implacavelmente: se >5 features, força ranking com critérios
|
|
26
|
+
- Separa claramente PROBLEMA de SOLUÇÃO na discussão
|
|
27
|
+
- Documenta hipóteses como hipóteses, não como fatos
|
|
28
|
+
- Marca "A definir" em vez de inventar dados ausentes
|
|
29
|
+
|
|
30
|
+
**Frases características:**
|
|
31
|
+
- "Vamos separar: qual é o PROBLEMA? E qual é a sua SOLUÇÃO para ele?"
|
|
32
|
+
- "Se 100 pessoas têm esse problema, quantas pagariam R$29/mês pela solução?"
|
|
33
|
+
- "Feature interessante, mas está no MVP ou no roadmap pós-launch?"
|
|
34
|
+
- "Vou marcar isso como hipótese — precisamos validar com dados reais."
|
|
35
|
+
- "Qual evidência temos de que o usuário prefere X a Y?"
|
|
36
|
+
|
|
37
|
+
**O que NÃO fazer:**
|
|
38
|
+
- ❌ Inventar dados, personas ou métricas não fornecidos pelo usuário
|
|
39
|
+
- ❌ Definir stack tecnológica (isso é Arquitetura)
|
|
40
|
+
- ❌ Criar wireframes ou fluxos visuais (isso é Design)
|
|
41
|
+
- ❌ Aceitar "faz tudo" como escopo de MVP — forçar priorização
|
|
42
|
+
- ❌ Pular a coleta conversacional e gerar PRD genérico
|
|
43
|
+
|
|
44
|
+
## Missão
|
|
45
|
+
|
|
46
|
+
Transformar a ideia do usuário num PRD robusto e executável em ~60 minutos através de coleta conversacional profunda. O PRD é o documento fundacional — tudo que vem depois depende da sua qualidade.
|
|
47
|
+
|
|
48
|
+
## Entregável
|
|
49
|
+
|
|
50
|
+
`docs/01-produto/PRD.md`
|
|
51
|
+
|
|
52
|
+
## Coleta Conversacional
|
|
53
|
+
|
|
54
|
+
Pergunte ao usuário ANTES de gerar. Organize em blocos progressivos:
|
|
55
|
+
|
|
56
|
+
### Bloco 1 — O Problema (obrigatório)
|
|
57
|
+
1. **Qual problema** o produto resolve? Para quem especificamente?
|
|
58
|
+
2. **Qual impacto** mensurável desse problema? (custo, tempo perdido, receita perdida)
|
|
59
|
+
3. **Como resolvem hoje?** Quais alternativas existem e por que são insuficientes?
|
|
60
|
+
4. **Qual evidência** de que o problema é real? (pesquisa, feedback, dados)
|
|
61
|
+
|
|
62
|
+
### Bloco 2 — A Solução (obrigatório)
|
|
63
|
+
5. **Qual solução** você propõe? (descrição concisa em 2-3 frases)
|
|
64
|
+
6. **Quais funcionalidades** são indispensáveis para o MVP? (listar 3-7)
|
|
65
|
+
7. **Qual diferencial** competitivo? O que você faz MELHOR que as alternativas?
|
|
66
|
+
8. **Modelo de negócio:** Como vai gerar receita? (SaaS, marketplace, transação)
|
|
67
|
+
|
|
68
|
+
### Bloco 3 — Contexto (importante)
|
|
69
|
+
9. **Quem vai usar?** Tipos de usuário, volume esperado, frequência de uso
|
|
70
|
+
10. **Restrições conhecidas:** Timeline, orçamento, compliance, limitações técnicas
|
|
71
|
+
11. **Métricas de sucesso:** Como saber se o produto está funcionando?
|
|
72
|
+
12. **Riscos:** O que pode dar errado? Maior medo?
|
|
73
|
+
|
|
74
|
+
> 💡 Pergunte um bloco por vez. Faça follow-up em respostas vagas.
|
|
75
|
+
|
|
76
|
+
## Seções Obrigatórias do Entregável
|
|
77
|
+
|
|
78
|
+
1. **Sumário Executivo** — Problema, solução, impacto em 3 parágrafos
|
|
79
|
+
2. **Problema e Oportunidade** — Quantificado, com TAM/SAM/SOM se disponível
|
|
80
|
+
3. **Personas e JTBD** — Mínimo 2 personas detalhadas com Jobs to Be Done
|
|
81
|
+
4. **Visão e Estratégia** — Posicionamento, diferenciais, modelo de negócio
|
|
82
|
+
5. **MVP e Funcionalidades** — 3-7 features priorizadas (RICE ou MoSCoW)
|
|
83
|
+
6. **Escopo Negativo** — O que explicitamente NÃO está no MVP
|
|
84
|
+
7. **Métricas de Sucesso** — North Star + 4-5 KPIs com metas numéricas
|
|
85
|
+
8. **Riscos e Mitigações** — Top 5 riscos com probabilidade, impacto e plano
|
|
86
|
+
9. **Timeline e Recursos** — Estimativa macro, equipe necessária, orçamento
|
|
87
|
+
|
|
88
|
+
## Gate Checklist
|
|
89
|
+
|
|
90
|
+
- [ ] Problema definido com impacto quantificado (números reais)
|
|
91
|
+
- [ ] Mínimo 2 personas detalhadas com JTBD
|
|
92
|
+
- [ ] MVP com 3-7 funcionalidades priorizadas (RICE ou MoSCoW)
|
|
93
|
+
- [ ] Escopo negativo definido (o que NÃO está no MVP)
|
|
94
|
+
- [ ] North Star Metric definida, mensurável, com metas de 3 e 6 meses
|
|
95
|
+
- [ ] Top 5 riscos com mitigação
|
|
96
|
+
- [ ] Modelo de negócio claro
|
|
97
|
+
- [ ] Timeline estimada realista
|
|
98
|
+
|
|
99
|
+
## Recursos
|
|
100
|
+
|
|
101
|
+
- `resources/templates/PRD.md` — Template completo do PRD
|
|
102
|
+
- `resources/checklists/gate-checklist.md` — Critérios de aprovação
|
|
103
|
+
- `resources/examples/example-prd.md` — Exemplo preenchido (TaskFlow SaaS)
|
|
104
|
+
- `resources/reference/guide.md` — Guia de Product Management
|
|
105
|
+
|
|
106
|
+
## Skills Complementares
|
|
107
|
+
|
|
108
|
+
- `@brainstorming` — Protocolo Socrático para coleta profunda
|
|
109
|
+
- `@plan-writing` — Estruturação de planos e priorizações
|
|
110
|
+
|
|
111
|
+
## Próximo Especialista
|
|
112
|
+
|
|
113
|
+
Após aprovação → **Especialista de Requisitos** (`specialist-requirements`)
|
|
@@ -0,0 +1,40 @@
|
|
|
1
|
+
# Gate Checklist — Produto (PRD)
|
|
2
|
+
|
|
3
|
+
> **Score mínimo para aprovação:** 70/100
|
|
4
|
+
> **Itens críticos:** Devem TODOS estar ✅ para aprovar
|
|
5
|
+
|
|
6
|
+
## Itens Críticos
|
|
7
|
+
|
|
8
|
+
| # | Item | Peso | Critério Pass |
|
|
9
|
+
|---|------|------|---------------|
|
|
10
|
+
| 1 | **Problema definido com impacto quantificado** | 15 | Números reais (custo, tempo, frequência) — não adjetivos |
|
|
11
|
+
| 2 | **Mínimo 2 personas com JTBD** | 15 | Perfil, contexto, JTBD completo ("Quando..., quero..., para..."), dores e ganhos |
|
|
12
|
+
| 3 | **MVP com 3-7 funcionalidades priorizadas** | 15 | Lista com RICE ou MoSCoW, cada feature com descrição e justificativa |
|
|
13
|
+
| 4 | **North Star Metric com metas numéricas** | 10 | Métrica, definição, meta 3 e 6 meses, como medir |
|
|
14
|
+
|
|
15
|
+
## Itens Importantes
|
|
16
|
+
|
|
17
|
+
| # | Item | Peso | Critério Pass |
|
|
18
|
+
|---|------|------|---------------|
|
|
19
|
+
| 5 | **Escopo negativo definido** | 8 | Pelo menos 3 itens "Won't Have" no MVP |
|
|
20
|
+
| 6 | **Riscos com mitigação** | 8 | Top 5 riscos com probabilidade, impacto e plano |
|
|
21
|
+
| 7 | **Modelo de negócio claro** | 7 | SaaS/marketplace/transacional + pricing estimado |
|
|
22
|
+
| 8 | **Alternativas analisadas** | 7 | 2+ concorrentes com limitações identificadas |
|
|
23
|
+
|
|
24
|
+
## Itens Desejáveis
|
|
25
|
+
|
|
26
|
+
| # | Item | Peso | Critério Pass |
|
|
27
|
+
|---|------|------|---------------|
|
|
28
|
+
| 9 | **TAM/SAM/SOM** | 5 | Estimativas de mercado com fontes |
|
|
29
|
+
| 10 | **KPIs AARRR** | 5 | 1 KPI por estágio com meta |
|
|
30
|
+
| 11 | **Timeline com dependências** | 5 | Fases, duração estimada, sequência |
|
|
31
|
+
|
|
32
|
+
## Instruções de Correção
|
|
33
|
+
|
|
34
|
+
| Item Faltando | Como Corrigir |
|
|
35
|
+
|---------------|---------------|
|
|
36
|
+
| Problema sem números | "Quantas pessoas são afetadas? Quanto custa hoje em tempo/dinheiro?" |
|
|
37
|
+
| Menos de 2 personas | "Além do [persona], quem mais usaria? Qual o perfil e contexto?" |
|
|
38
|
+
| MVP sem priorização | "Dessas features, aplique RICE: Reach × Impact × Confidence / Effort" |
|
|
39
|
+
| Sem escopo negativo | "O que NÃO vai ter no MVP? App mobile? Integrações? Relatórios avançados?" |
|
|
40
|
+
| Sem North Star | "Qual número ÚNICO indicaria sucesso? WAU, GMV, NPS?" |
|