mcp-lab-agent 2.0.0 → 2.1.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/README.md +61 -15
- package/dist/index.js +1199 -481
- package/dist/index.js.map +1 -1
- package/package.json +2 -2
package/README.md
CHANGED
|
@@ -4,9 +4,16 @@
|
|
|
4
4
|
[](https://nodejs.org)
|
|
5
5
|
[](LICENSE)
|
|
6
6
|
|
|
7
|
-
**
|
|
7
|
+
**Executor + Consultor Inteligente de QA.**
|
|
8
8
|
|
|
9
|
-
Não é só um
|
|
9
|
+
Não é só um executor de testes. É um agente que:
|
|
10
|
+
- **Executa:** Roda testes, gera, corrige
|
|
11
|
+
- **Analisa:** "login falha 30% das vezes"
|
|
12
|
+
- **Prevê:** "checkout vai ficar flaky"
|
|
13
|
+
- **Recomenda:** "faça isso agora: 1, 2, 3"
|
|
14
|
+
- **Aprende:** Taxa de sucesso aumenta com o tempo
|
|
15
|
+
|
|
16
|
+
**1 comando. Análise completa.**
|
|
10
17
|
|
|
11
18
|
---
|
|
12
19
|
|
|
@@ -14,11 +21,11 @@ Não é só um assistente: é um agente que **lê seu projeto, gera testes, exec
|
|
|
14
21
|
|
|
15
22
|
| Outras ferramentas | **mcp-lab-agent** |
|
|
16
23
|
|-------------------|-------------------|
|
|
17
|
-
|
|
|
18
|
-
|
|
|
19
|
-
| Sem
|
|
20
|
-
|
|
|
21
|
-
| Sem
|
|
24
|
+
| Só executam | **Executa + Analisa + Recomenda** |
|
|
25
|
+
| "teste falhou" | **"login falha 30% das vezes (timing)"** |
|
|
26
|
+
| Sem contexto | **"src/payment/ sem testes (RISCO ALTO)"** |
|
|
27
|
+
| Você decide o que fazer | **"Faça isso agora: 1, 2, 3"** |
|
|
28
|
+
| Sem aprendizado | **Taxa de sucesso aumenta com o tempo** |
|
|
22
29
|
|
|
23
30
|
**Modo autônomo:**
|
|
24
31
|
|
|
@@ -39,17 +46,17 @@ O agente:
|
|
|
39
46
|
|
|
40
47
|
## Quick Start
|
|
41
48
|
|
|
42
|
-
###
|
|
49
|
+
### Análise Completa (CLI)
|
|
43
50
|
|
|
44
51
|
```bash
|
|
45
|
-
#
|
|
52
|
+
# Análise completa: executa, analisa, prevê e recomenda
|
|
53
|
+
npx mcp-lab-agent analyze
|
|
54
|
+
|
|
55
|
+
# Modo autônomo: gera, roda, corrige e aprende
|
|
46
56
|
npx mcp-lab-agent auto "login flow" --max-retries 5
|
|
47
57
|
|
|
48
58
|
# Ver métricas de aprendizado
|
|
49
59
|
npx mcp-lab-agent stats
|
|
50
|
-
|
|
51
|
-
# Detectar estrutura do projeto
|
|
52
|
-
npx mcp-lab-agent detect
|
|
53
60
|
```
|
|
54
61
|
|
|
55
62
|
### Integração com IDE (Cursor/Cline/Windsurf)
|
|
@@ -254,15 +261,54 @@ Referência completa do CLI: `mcp-lab-agent --help`
|
|
|
254
261
|
|
|
255
262
|
## Configuração
|
|
256
263
|
|
|
257
|
-
###
|
|
264
|
+
### Opção 1: APIs Externas (Groq, Gemini, OpenAI)
|
|
265
|
+
|
|
266
|
+
```bash
|
|
267
|
+
# .env
|
|
268
|
+
GROQ_API_KEY=sua-key # Gratuito: https://console.groq.com/keys
|
|
269
|
+
```
|
|
270
|
+
|
|
271
|
+
### Opção 2: Ollama (Local, Sem Internet) ⭐ Recomendado para empresas
|
|
272
|
+
|
|
273
|
+
```bash
|
|
274
|
+
# 1. Instale o Ollama
|
|
275
|
+
brew install ollama # macOS
|
|
276
|
+
# ou: curl -fsSL https://ollama.com/install.sh | sh # Linux
|
|
277
|
+
|
|
278
|
+
# 2. Baixe o modelo
|
|
279
|
+
ollama pull llama3.1:8b
|
|
280
|
+
|
|
281
|
+
# 3. Inicie
|
|
282
|
+
ollama serve
|
|
283
|
+
|
|
284
|
+
# 4. Pronto! O agente detecta automaticamente
|
|
285
|
+
npx mcp-lab-agent auto "login flow"
|
|
286
|
+
```
|
|
287
|
+
|
|
288
|
+
**100% offline. Sem APIs externas. Ideal para ambientes corporativos.**
|
|
289
|
+
|
|
290
|
+
### Opção 3: LLM Interno da Empresa
|
|
291
|
+
|
|
292
|
+
```bash
|
|
293
|
+
# .env
|
|
294
|
+
QA_LAB_LLM_BASE_URL=https://llm-interno.empresa.com/v1
|
|
295
|
+
QA_LAB_LLM_API_KEY=sua-key-interna
|
|
296
|
+
```
|
|
297
|
+
|
|
298
|
+
**Guia completo:** [CONFIGURACAO_CORPORATIVA.md](CONFIGURACAO_CORPORATIVA.md)
|
|
299
|
+
|
|
300
|
+
### Variáveis de ambiente (todas opcionais)
|
|
258
301
|
|
|
259
302
|
| Variável | Uso |
|
|
260
303
|
|----------|-----|
|
|
261
304
|
| `GROQ_API_KEY` | Groq (gratuito, rápido) |
|
|
262
305
|
| `GEMINI_API_KEY` | Google Gemini |
|
|
263
306
|
| `OPENAI_API_KEY` | OpenAI |
|
|
264
|
-
| `
|
|
265
|
-
| `
|
|
307
|
+
| `OLLAMA_BASE_URL` | Ollama customizado (default: http://localhost:11434) |
|
|
308
|
+
| `QA_LAB_LLM_BASE_URL` | Endpoint LLM customizado (empresa) |
|
|
309
|
+
| `QA_LAB_LLM_API_KEY` | API key para LLM customizado |
|
|
310
|
+
| `QA_LAB_LLM_SIMPLE` | Modelo para tarefas simples |
|
|
311
|
+
| `QA_LAB_LLM_COMPLEX` | Modelo para tarefas complexas |
|
|
266
312
|
|
|
267
313
|
### Modo browser (opcional)
|
|
268
314
|
|