sincron-auto 1.0.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
@@ -0,0 +1,371 @@
1
+ # Métricas de Performance - Sincron-Auto
2
+
3
+ ## Visão Geral
4
+
5
+ Este documento explica o sistema de métricas de performance do Sincron-Auto, incluindo o que pode e não pode ser medido, e como interpretar os dados fornecidos.
6
+
7
+ ## Limitações CRÍTICAS
8
+
9
+ ### ⚠️ O Plugin NÃO Tem Acesso aos Tokens da API Claude
10
+
11
+ **IMPORTANTE**: O Sincron-Auto, como qualquer plugin do Claude Code CLI, **NÃO** tem acesso direto às métricas de tokens consumidos pela API Claude.
12
+
13
+ As métricas fornecidas são **aproximações** baseadas em:
14
+ - Duração de execução (timestamps)
15
+ - Número de operações (arquivos lidos, comandos executados)
16
+ - Complexidade estrutural (tentativas, subagentes)
17
+ - Heurísticas baseadas em experiência
18
+
19
+ ## O Que NÃO Podemos Medir
20
+
21
+ ❌ **Tokens exatos consumidos por prompt**
22
+ - Não temos acesso à contagem de tokens de entrada
23
+ - Não sabemos quantos tokens foram usados na resposta
24
+
25
+ ❌ **Tokens de entrada vs saída**
26
+ - Não conseguimos diferenciar input tokens de output tokens
27
+
28
+ ❌ **Custo real em USD**
29
+ - Sem tokens exatos, não podemos calcular custo preciso
30
+ - Custos variam por modelo (Sonnet vs Opus vs Haiku)
31
+
32
+ ❌ **Uso exato da janela de contexto (200K)**
33
+ - Não sabemos quanto do contexto foi usado em cada prompt
34
+ - Não temos visibilidade de compactação automática
35
+
36
+ ❌ **Métricas por modelo**
37
+ - Não sabemos se agente usou Sonnet, Opus ou Haiku
38
+ - Cada modelo tem custos e performance diferentes
39
+
40
+ ## O Que Podemos Medir
41
+
42
+ ### ✅ Duração
43
+
44
+ **Como medimos**:
45
+ - `created_at` → `started_at` → `completed_at` timestamps
46
+ - Calculamos diferença em segundos/minutos
47
+ - Somamos para obter duração total do projeto
48
+
49
+ **Utilidade**:
50
+ - Entender tempo total de execução
51
+ - Identificar tasks que demoraram muito
52
+ - Comparar tempo entre tentativas
53
+
54
+ **Exemplo**:
55
+ ```json
56
+ {
57
+ "created_at": "2026-01-27T10:00:00Z",
58
+ "started_at": "2026-01-27T10:05:00Z",
59
+ "completed_at": "2026-01-27T10:45:00Z",
60
+ "duration_seconds": 2400
61
+ }
62
+ ```
63
+
64
+ ### ✅ Tentativas de Avaliação
65
+
66
+ **Como medimos**:
67
+ - Contador `evaluation_attempts` incrementado a cada avaliação
68
+ - Máximo de 5 tentativas por task
69
+
70
+ **Utilidade**:
71
+ - Tasks com muitas tentativas indicam complexidade ou ambiguidade
72
+ - Taxa de sucesso na primeira tentativa indica qualidade de critérios
73
+
74
+ **Exemplo**:
75
+ ```json
76
+ {
77
+ "evaluation_attempts": 3,
78
+ "max_evaluation_attempts": 5
79
+ }
80
+ ```
81
+
82
+ ### ✅ Subagentes Spawned
83
+
84
+ **Como medimos**:
85
+ - Construtor registra quantos subagentes paralelos foram usados
86
+ - Gestor armazena esse número na task
87
+
88
+ **Utilidade**:
89
+ - Mais subagentes = maior paralelização = potencialmente mais tokens
90
+ - Indica complexidade da implementação
91
+
92
+ **Exemplo**:
93
+ ```json
94
+ {
95
+ "subagents_spawned": 5
96
+ }
97
+ ```
98
+
99
+ ### ✅ Arquivos Lidos
100
+
101
+ **Como medimos**:
102
+ - Avaliador conta quantos arquivos leu durante avaliação
103
+ - Soma tamanho total dos arquivos (KB)
104
+
105
+ **Utilidade**:
106
+ - Mais arquivos lidos = mais contexto consumido
107
+ - Tamanho total dá noção de volume de código
108
+
109
+ **Exemplo**:
110
+ ```json
111
+ {
112
+ "files_read_count": 12,
113
+ "files_read_total_size_kb": 256
114
+ }
115
+ ```
116
+
117
+ ### ✅ Comandos Playwright Executados
118
+
119
+ **Como medimos**:
120
+ - Contador incrementado a cada comando MCP Playwright
121
+ - Inclui: navigate, click, fill, eval, screenshot, etc.
122
+
123
+ **Utilidade**:
124
+ - Mais comandos Playwright = testes visuais mais completos
125
+ - Indica investimento em qualidade visual
126
+
127
+ **Exemplo**:
128
+ ```json
129
+ {
130
+ "playwright_commands_executed": 8
131
+ }
132
+ ```
133
+
134
+ ### ✅ Estimativa de Complexidade
135
+
136
+ **Como calculamos**:
137
+
138
+ Pontuação baseada em 4 fatores:
139
+
140
+ 1. **Tasks com ≥3 tentativas**: +1 ponto
141
+ - Indica dificuldade em atender critérios
142
+
143
+ 2. **Subagentes ≥5 por task**: +1 ponto
144
+ - Indica implementação complexa/paralela
145
+
146
+ 3. **Arquivos lidos ≥50 total**: +1 ponto
147
+ - Indica contexto grande
148
+
149
+ 4. **Comandos Playwright ≥20 total**: +1 ponto
150
+ - Indica testes visuais extensivos
151
+
152
+ **Interpretação**:
153
+ - **0-1 pontos**: Baixa complexidade
154
+ - Projeto simples, poucas iterações
155
+ - Consumo de tokens provavelmente moderado
156
+
157
+ - **2-3 pontos**: Média complexidade
158
+ - Projeto com desafios moderados
159
+ - Consumo de tokens substancial
160
+
161
+ - **4+ pontos**: Alta complexidade
162
+ - Projeto complexo, muitas iterações
163
+ - Consumo de tokens elevado
164
+
165
+ **Exemplo de Cálculo**:
166
+ ```
167
+ Projeto X:
168
+ - 2 tasks tiveram 3+ tentativas → +1
169
+ - 1 task usou 6 subagentes → +1
170
+ - Total de 35 arquivos lidos → 0
171
+ - Total de 25 comandos Playwright → +1
172
+
173
+ Score: 3 pontos = Média complexidade
174
+ ```
175
+
176
+ ## Como Obter Métricas Exatas de Tokens
177
+
178
+ Se você precisa de métricas EXATAS de tokens consumidos, você precisará:
179
+
180
+ ### Opção 1: Monitorar Logs do Claude Code
181
+
182
+ Se o Claude Code expõe logs com informações de API:
183
+ ```bash
184
+ claude --verbose [command]
185
+ # Procure por logs com "tokens" ou "usage"
186
+ ```
187
+
188
+ ### Opção 2: Usar API Diretamente com Logging
189
+
190
+ Em vez do Claude Code CLI, use a API Anthropic diretamente:
191
+
192
+ ```python
193
+ import anthropic
194
+
195
+ client = anthropic.Anthropic(api_key="...")
196
+
197
+ response = client.messages.create(
198
+ model="claude-sonnet-4.5-20250929",
199
+ max_tokens=1024,
200
+ messages=[...]
201
+ )
202
+
203
+ # response.usage contém tokens exatos
204
+ print(f"Input tokens: {response.usage.input_tokens}")
205
+ print(f"Output tokens: {response.usage.output_tokens}")
206
+ print(f"Total cost: ${calculate_cost(response.usage)}")
207
+ ```
208
+
209
+ ### Opção 3: Modificar Claude Code (Avançado)
210
+
211
+ Se você tem acesso ao código-fonte do Claude Code:
212
+ - Adicione logging customizado na camada de API
213
+ - Capture `usage` de cada resposta
214
+ - Exporte para arquivo JSON
215
+
216
+ ### Opção 4: Dashboard da Anthropic
217
+
218
+ Acesse o dashboard da Anthropic Console:
219
+ - https://console.anthropic.com/usage
220
+ - Veja uso total, custos, breakdown por API key
221
+ - Não mostra detalhes por task individual
222
+
223
+ ## Interpretando Métricas Aproximadas
224
+
225
+ ### Quando Métricas São Úteis
226
+
227
+ Mesmo sem tokens exatos, as métricas aproximadas são úteis para:
228
+
229
+ ✅ **Comparação relativa**
230
+ - "Task A demorou 3x mais que Task B"
231
+ - "Projeto X usou 2x mais subagentes que Projeto Y"
232
+
233
+ ✅ **Identificação de problemas**
234
+ - Task com 5 tentativas → critérios ambíguos?
235
+ - 0 comandos Playwright → faltou teste visual?
236
+
237
+ ✅ **Estimativa de esforço**
238
+ - Projeto complexo (score 4) vs simples (score 1)
239
+ - Duração total indica investimento de tempo
240
+
241
+ ✅ **Otimização futura**
242
+ - "Tasks com muitas tentativas custam mais"
243
+ - "Paralelização acelera mas aumenta tokens"
244
+
245
+ ### Quando Métricas NÃO São Úteis
246
+
247
+ ❌ **Cálculo exato de custos**
248
+ - Não use para faturamento
249
+ - Não confie para budget preciso
250
+
251
+ ❌ **Otimização de tokens específica**
252
+ - Não sabemos qual prompt consumiu mais tokens
253
+ - Não podemos otimizar prompts individuais
254
+
255
+ ❌ **Comparação entre modelos**
256
+ - Não sabemos se usou Sonnet, Opus ou Haiku
257
+ - Custos variam muito entre modelos
258
+
259
+ ## Exemplo de Relatório de Métricas
260
+
261
+ No relatório final, você verá algo como:
262
+
263
+ ```markdown
264
+ ### 📊 Métricas de Performance
265
+
266
+ **Duração Total**: 2h 35min
267
+
268
+ **Por Task**:
269
+
270
+ | Task | Duração | Tentativas | Subagentes |
271
+ |------|---------|------------|------------|
272
+ | task-001 | 8 min | 1 | 3 |
273
+ | task-002 | 23 min | 3 | 5 |
274
+ | task-003 | 12 min | 2 | 4 |
275
+
276
+ **Estatísticas Gerais**:
277
+ - **Total de avaliações**: 6
278
+ - **Taxa de aprovação primeira tentativa**: 33% (1/3)
279
+ - **Média de tentativas por task**: 2.0
280
+ - **Total de subagentes spawned**: 12
281
+
282
+ **Consumo Aproximado de Contexto**:
283
+
284
+ ⚠️ **Nota**: Valores aproximados. Claude Code não expõe tokens exatos.
285
+
286
+ - **Arquivos lidos**: 35 arquivos (~420KB)
287
+ - **Comandos Playwright**: 24 comandos
288
+ - **Agentes invocados**: 18 invocações
289
+ - **Estimativa de complexidade**: Média (3 pontos)
290
+
291
+ **Como Complexidade foi Calculada**:
292
+ - Tasks com ≥3 tentativas: +1 (task-002)
293
+ - Subagentes ≥5: +1 (task-002)
294
+ - Arquivos ≥50: 0 (35 total)
295
+ - Playwright ≥20: +1 (24 total)
296
+
297
+ **Interpretação**: 3 pontos = Média complexidade
298
+ ```
299
+
300
+ ## Expectativas Realistas
301
+
302
+ ### O Que Esperar
303
+
304
+ ✅ **Insights qualitativos**
305
+ - Tasks complexas vs simples
306
+ - Qualidade de critérios (taxa de sucesso)
307
+ - Cobertura de testes (Playwright)
308
+
309
+ ✅ **Comparações relativas**
310
+ - Entre tasks do mesmo projeto
311
+ - Entre execuções diferentes
312
+
313
+ ✅ **Detecção de anomalias**
314
+ - Task que demorou muito tempo
315
+ - Task com muitas tentativas
316
+
317
+ ### O Que NÃO Esperar
318
+
319
+ ❌ **Precisão financeira**
320
+ - Não use para contabilidade
321
+ - Não confie para previsão de custos
322
+
323
+ ❌ **Otimização granular**
324
+ - Não identifica prompts específicos caros
325
+ - Não mostra onde contexto foi usado
326
+
327
+ ❌ **Detalhes técnicos de API**
328
+ - Não mostra cache hits/misses
329
+ - Não mostra compactação de contexto
330
+
331
+ ## Recomendações
332
+
333
+ ### Para Usuários Casuais
334
+
335
+ Se você usa Sincron-Auto ocasionalmente:
336
+ - ✅ Use métricas aproximadas para entender complexidade
337
+ - ✅ Foque em duração e taxa de sucesso
338
+ - ✅ Não se preocupe com tokens exatos
339
+
340
+ ### Para Uso Profissional/Comercial
341
+
342
+ Se você usa Sincron-Auto em produção:
343
+ - ⚠️ Monitore custos via dashboard Anthropic
344
+ - ⚠️ Configure limites de orçamento na API key
345
+ - ⚠️ Use métricas aproximadas apenas como guia
346
+ - ⚠️ Implemente logging customizado se precisar de precisão
347
+
348
+ ### Para Desenvolvimento/Debugging
349
+
350
+ Se você está melhorando o Sincron-Auto:
351
+ - 🔧 Métricas aproximadas ajudam a identificar gargalos
352
+ - 🔧 Duração indica onde otimizar
353
+ - 🔧 Tentativas indicam critérios ambíguos
354
+ - 🔧 Subagentes indicam paralelização
355
+
356
+ ## Conclusão
357
+
358
+ As métricas de performance do Sincron-Auto são **aproximadas mas úteis**. Elas não substituem métricas exatas de tokens da API, mas fornecem insights valiosos sobre:
359
+
360
+ - Complexidade do projeto
361
+ - Qualidade dos critérios
362
+ - Eficiência da execução
363
+ - Áreas de melhoria
364
+
365
+ **Expectativa correta**: Use como guia qualitativo, não como contabilidade precisa.
366
+
367
+ **Para métricas exatas**: Monitore via dashboard Anthropic ou implemente logging customizado na API.
368
+
369
+ ---
370
+
371
+ *Este documento faz parte do Sincron-Auto, desenvolvido por [Sincron.Digital](https://sincroni.digital)*
@@ -0,0 +1,200 @@
1
+ # Exemplo de Relatório Final (User-Friendly)
2
+
3
+ Este é um exemplo do relatório final gerado pelo Orquestrador usando a Skill RelatorioFinal.
4
+
5
+ ---
6
+
7
+ # Relatório de Desenvolvimento: API de Gerenciamento de Usuários
8
+
9
+ **Projeto**: Sistema de Gerenciamento
10
+ **Data de Conclusão**: 26 de Janeiro de 2026
11
+ **Duração**: 3 horas
12
+
13
+ ---
14
+
15
+ ## Resumo Executivo
16
+
17
+ O desenvolvimento da API de Gerenciamento de Usuários foi concluído com sucesso. Todas as 5 tasks planejadas foram implementadas e aprovadas após rigoroso processo de avaliação. O sistema agora conta com endpoints REST completos, autenticação JWT, e interface de dashboard responsiva.
18
+
19
+ ---
20
+
21
+ ## Tasks Completadas
22
+
23
+ ### 1. ✅ Implementar API de Usuários
24
+ **Status**: Completo
25
+ **Iterações**: 2
26
+ **Tempo de Desenvolvimento**: ~45 minutos
27
+
28
+ **O que foi feito**:
29
+ - Criados endpoints REST (GET, POST, PUT, DELETE)
30
+ - Implementada validação de dados
31
+ - Configurada resposta JSON padronizada
32
+
33
+ **Problemas Encontrados e Resolvidos**:
34
+ - **Iteração 1**: Faltava validação de autenticação no middleware
35
+ - **Solução**: Adicionado middleware de autenticação JWT antes dos handlers
36
+
37
+ ---
38
+
39
+ ### 2. ✅ Implementar Autenticação JWT
40
+ **Status**: Completo
41
+ **Iterações**: 1
42
+ **Tempo de Desenvolvimento**: ~30 minutos
43
+
44
+ **O que foi feito**:
45
+ - Endpoint POST /login retornando token JWT
46
+ - Configuração de expiração (24 horas)
47
+ - Middleware de validação em rotas protegidas
48
+
49
+ **Problemas Encontrados**: Nenhum (aprovado na primeira iteração)
50
+
51
+ ---
52
+
53
+ ### 3. ✅ Implementar Dashboard UI
54
+ **Status**: Completo
55
+ **Iterações**: 3
56
+ **Tempo de Desenvolvimento**: ~60 minutos
57
+
58
+ **O que foi feito**:
59
+ - Interface responsiva com gráficos
60
+ - Integração com API de usuários
61
+ - Design consistente com paleta do projeto
62
+
63
+ **Problemas Encontrados e Resolvidos**:
64
+ - **Iteração 1**: Sobreposição de elementos no mobile
65
+ - **Solução**: Ajustados breakpoints CSS e uso de flexbox
66
+ - **Iteração 2**: Tamanho de fonte inconsistente
67
+ - **Solução**: Aplicada escala tipográfica do design system
68
+
69
+ ---
70
+
71
+ ### 4. ✅ Implementar CRUD de Produtos
72
+ **Status**: Completo
73
+ **Iterações**: 1
74
+ **Tempo de Desenvolvimento**: ~35 minutos
75
+
76
+ **O que foi feito**:
77
+ - Endpoints REST para produtos
78
+ - Validação de campos obrigatórios
79
+ - Relacionamento com usuários (criador)
80
+
81
+ **Problemas Encontrados**: Nenhum
82
+
83
+ ---
84
+
85
+ ### 5. ✅ Implementar Relatórios
86
+ **Status**: Completo
87
+ **Iterações**: 2
88
+ **Tempo de Desenvolvimento**: ~50 minutos
89
+
90
+ **O que foi feito**:
91
+ - Geração de relatórios em PDF
92
+ - Filtros por data e usuário
93
+ - Exportação de dados
94
+
95
+ **Problemas Encontrados e Resolvidos**:
96
+ - **Iteração 1**: Botão de download não funcionava
97
+ - **Solução**: Corrigida URL de download e headers HTTP
98
+
99
+ ---
100
+
101
+ ## Estatísticas do Projeto
102
+
103
+ - **Total de Tasks**: 5
104
+ - **Tasks Aprovadas na 1ª Iteração**: 2 (40%)
105
+ - **Tasks que Precisaram de Retrabalho**: 3 (60%)
106
+ - **Média de Iterações por Task**: 1.8
107
+ - **Total de Avaliações Realizadas**: 9
108
+
109
+ ---
110
+
111
+ ## Aspectos de Qualidade
112
+
113
+ ### ✅ Funcionalidade
114
+ - Todos os endpoints implementados conforme especificação
115
+ - Autenticação JWT funcionando corretamente
116
+ - Integração entre componentes bem-sucedida
117
+
118
+ ### ✅ Qualidade Visual
119
+ - Interface responsiva em todos os breakpoints
120
+ - Coesão estética mantida em todo o projeto
121
+ - Alinhamentos e espaçamentos consistentes
122
+ - Tipografia padronizada
123
+
124
+ ### ✅ Testes
125
+ - Botões e links testados com MCP Playwright
126
+ - Navegação entre páginas funcionando
127
+ - Validações de formulário operacionais
128
+
129
+ ---
130
+
131
+ ## Principais Desafios e Soluções
132
+
133
+ ### Dashboard UI (Task 3)
134
+ **Desafio**: Interface apresentava problemas de responsividade e consistência visual.
135
+ **Solução**: Foram necessárias 3 iterações para ajustar breakpoints CSS, corrigir sobreposições e padronizar tamanhos de fonte. O resultado final atende todos os critérios de design.
136
+
137
+ ### API de Usuários (Task 1)
138
+ **Desafio**: Primeira versão não incluía validação de autenticação.
139
+ **Solução**: Implementado middleware JWT que protege todas as rotas sensíveis.
140
+
141
+ ---
142
+
143
+ ## Tecnologias Utilizadas
144
+
145
+ - **Backend**: Node.js, Express
146
+ - **Banco de Dados**: PostgreSQL
147
+ - **Autenticação**: JWT (JSON Web Tokens)
148
+ - **Frontend**: React, TailwindCSS
149
+ - **Testes**: Playwright
150
+
151
+ ---
152
+
153
+ ## Estrutura de Arquivos Criada
154
+
155
+ ```
156
+ src/
157
+ ├── api/
158
+ │ ├── users/
159
+ │ │ ├── controller.js
160
+ │ │ ├── routes.js
161
+ │ │ └── validation.js
162
+ │ ├── products/
163
+ │ │ ├── controller.js
164
+ │ │ └── routes.js
165
+ │ └── auth/
166
+ │ ├── jwt.js
167
+ │ └── middleware.js
168
+ ├── ui/
169
+ │ ├── dashboard/
170
+ │ │ ├── Dashboard.jsx
171
+ │ │ └── Charts.jsx
172
+ │ └── reports/
173
+ │ └── ReportGenerator.jsx
174
+ └── config/
175
+ └── database.js
176
+ ```
177
+
178
+ ---
179
+
180
+ ## Próximos Passos Sugeridos
181
+
182
+ 1. Implementar testes unitários automatizados
183
+ 2. Adicionar logging e monitoramento
184
+ 3. Configurar CI/CD pipeline
185
+ 4. Documentar API com Swagger/OpenAPI
186
+ 5. Implementar rate limiting para proteção contra abuso
187
+
188
+ ---
189
+
190
+ ## Conclusão
191
+
192
+ O projeto foi concluído com sucesso. Todas as funcionalidades planejadas foram implementadas e validadas. O código está pronto para deploy em ambiente de produção, seguindo os critérios de qualidade estabelecidos nas user stories.
193
+
194
+ **Taxa de Sucesso**: 100%
195
+ **Qualidade Final**: ✅ Aprovado em todos os critérios
196
+
197
+ ---
198
+
199
+ *Relatório gerado automaticamente pelo Sincron-Auto*
200
+ *Data: 2026-01-26 18:45:00*
@@ -0,0 +1,107 @@
1
+ # Skills vs Agents - Quick Reference
2
+
3
+ ## CRITICAL DISTINCTION
4
+
5
+ **Skills** and **Agents** are DIFFERENT and use DIFFERENT tools!
6
+
7
+ ### Skills
8
+
9
+ **Skills** are invoked using the `Skill` tool.
10
+
11
+ **Syntax**:
12
+ ```
13
+ Skill(sincron-auto:skill-name)
14
+ ```
15
+
16
+ **Available Skills**:
17
+ - `sincron-auto:autorizacao` - Configure permissions
18
+ - `sincron-auto:instalar-mcp` - Install MCPs
19
+ - `sincron-auto:projetar` - Create project plan
20
+ - `sincron-auto:gerenciar` - Manage task queue
21
+ - `sincron-auto:avaliacao` - Evaluate implementation
22
+ - `sincron-auto:relatorio-final` - Generate final report
23
+
24
+ **When to use**: For executing specific, contained workflows within an agent.
25
+
26
+ ---
27
+
28
+ ### Agents
29
+
30
+ **Agents** are invoked using the `Task` tool.
31
+
32
+ **Syntax**:
33
+ ```
34
+ Task(
35
+ subagent_type: "sincron-auto:agent-name",
36
+ prompt: "Instructions for the agent",
37
+ description: "Short description"
38
+ )
39
+ ```
40
+
41
+ **Available Agents**:
42
+ - `sincron-auto:orquestrador` - Main orchestrator
43
+ - `sincron-auto:estrutura` - First-run setup
44
+ - `sincron-auto:gestor-projeto` - Project manager
45
+ - `sincron-auto:construtor` - Code builder
46
+ - `sincron-auto:avaliador` - QA tester
47
+
48
+ **When to use**: For delegating work to specialized autonomous agents.
49
+
50
+ ---
51
+
52
+ ## Common Mistakes (DO NOT DO)
53
+
54
+ ❌ **WRONG**:
55
+ ```
56
+ Skill(sincron-auto:estrutura) # estrutura is an AGENT, not a Skill!
57
+ Skill(sincron-auto:gestor-projeto) # gestor-projeto is an AGENT, not a Skill!
58
+ Skill(sincron-auto:construtor) # construtor is an AGENT, not a Skill!
59
+ ```
60
+
61
+ ✅ **CORRECT**:
62
+ ```
63
+ Task(subagent_type: "sincron-auto:estrutura", ...)
64
+ Task(subagent_type: "sincron-auto:gestor-projeto", ...)
65
+ Task(subagent_type: "sincron-auto:construtor", ...)
66
+ ```
67
+
68
+ ---
69
+
70
+ ## Agent Delegation Map
71
+
72
+ ```
73
+ Orquestrador
74
+ ├─ Skill(sincron-auto:relatorio-final)
75
+ ├─ Task(sincron-auto:estrutura)
76
+ │ ├─ Skill(sincron-auto:autorizacao)
77
+ │ ├─ Skill(sincron-auto:instalar-mcp)
78
+ │ └─ Task(sincron-auto:gestor-projeto)
79
+ └─ Task(sincron-auto:gestor-projeto)
80
+ ├─ Skill(sincron-auto:projetar)
81
+ ├─ Skill(sincron-auto:gerenciar)
82
+ ├─ Task(sincron-auto:construtor)
83
+ │ └─ Task(general-purpose) [max 2 parallel]
84
+ └─ Task(sincron-auto:avaliador)
85
+ └─ Skill(sincron-auto:avaliacao)
86
+ ```
87
+
88
+ ---
89
+
90
+ ## Memory Limits
91
+
92
+ **IMPORTANT**: To prevent out of memory errors:
93
+
94
+ - Construtor: Maximum 2 parallel subagents
95
+ - Gestor Projeto: ONE task at a time (sequential)
96
+ - Never nest agents more than 4 levels deep
97
+
98
+ ---
99
+
100
+ ## Rule of Thumb
101
+
102
+ - **Calling a SKILL?** → Use `Skill(sincron-auto:name)`
103
+ - **Calling an AGENT?** → Use `Task(subagent_type: "sincron-auto:name", ...)`
104
+
105
+ **Still confused?**
106
+ - Check if it's in `skills/` folder → It's a Skill
107
+ - Check if it's in `agents/` folder → It's an Agent