mcp-lab-agent 2.0.0 → 2.1.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/README.md CHANGED
@@ -4,9 +4,16 @@
4
4
  [![Node.js](https://img.shields.io/badge/node-%3E%3D18-green)](https://nodejs.org)
5
5
  [![License: MIT](https://img.shields.io/badge/License-MIT-blue.svg)](LICENSE)
6
6
 
7
- **Agente autônomo de QA que aprende com os próprios erros.**
7
+ **Executor + Consultor Inteligente de QA.**
8
8
 
9
- Não é só um assistente: é um agente que **lê seu projeto, gera testes, executa, corrige falhas automaticamente e aprende** para cada vez acertar mais na primeira tentativa.
9
+ Não é só um executor de testes. É um agente que:
10
+ - **Executa:** Roda testes, gera, corrige
11
+ - **Analisa:** "login falha 30% das vezes"
12
+ - **Prevê:** "checkout vai ficar flaky"
13
+ - **Recomenda:** "faça isso agora: 1, 2, 3"
14
+ - **Aprende:** Taxa de sucesso aumenta com o tempo
15
+
16
+ **1 comando. Análise completa.**
10
17
 
11
18
  ---
12
19
 
@@ -14,11 +21,11 @@ Não é só um assistente: é um agente que **lê seu projeto, gera testes, exec
14
21
 
15
22
  | Outras ferramentas | **mcp-lab-agent** |
16
23
  |-------------------|-------------------|
17
- | Geram testes | **Gera, roda, corrige e aprende** |
18
- | Você corrige erros | **Auto-correção com retry inteligente** |
19
- | Sem memória | **Aprende com erros passados** |
20
- | Configuração complexa | **Zero config: detecta 15+ frameworks** |
21
- | Sem métricas | **Taxa de sucesso, correções, aprendizados** |
24
+ | executam | **Executa + Analisa + Recomenda** |
25
+ | "teste falhou" | **"login falha 30% das vezes (timing)"** |
26
+ | Sem contexto | **"src/payment/ sem testes (RISCO ALTO)"** |
27
+ | Você decide o que fazer | **"Faça isso agora: 1, 2, 3"** |
28
+ | Sem aprendizado | **Taxa de sucesso aumenta com o tempo** |
22
29
 
23
30
  **Modo autônomo:**
24
31
 
@@ -39,17 +46,17 @@ O agente:
39
46
 
40
47
  ## Quick Start
41
48
 
42
- ### Modo autônomo (CLI)
49
+ ### Análise Completa (CLI)
43
50
 
44
51
  ```bash
45
- # Gera, roda, corrige e aprende automaticamente
52
+ # Análise completa: executa, analisa, prevê e recomenda
53
+ npx mcp-lab-agent analyze
54
+
55
+ # Modo autônomo: gera, roda, corrige e aprende
46
56
  npx mcp-lab-agent auto "login flow" --max-retries 5
47
57
 
48
58
  # Ver métricas de aprendizado
49
59
  npx mcp-lab-agent stats
50
-
51
- # Detectar estrutura do projeto
52
- npx mcp-lab-agent detect
53
60
  ```
54
61
 
55
62
  ### Integração com IDE (Cursor/Cline/Windsurf)
@@ -254,15 +261,54 @@ Referência completa do CLI: `mcp-lab-agent --help`
254
261
 
255
262
  ## Configuração
256
263
 
257
- ### Variáveis de ambiente (opcional)
264
+ ### Opção 1: APIs Externas (Groq, Gemini, OpenAI)
265
+
266
+ ```bash
267
+ # .env
268
+ GROQ_API_KEY=sua-key # Gratuito: https://console.groq.com/keys
269
+ ```
270
+
271
+ ### Opção 2: Ollama (Local, Sem Internet) ⭐ Recomendado para empresas
272
+
273
+ ```bash
274
+ # 1. Instale o Ollama
275
+ brew install ollama # macOS
276
+ # ou: curl -fsSL https://ollama.com/install.sh | sh # Linux
277
+
278
+ # 2. Baixe o modelo
279
+ ollama pull llama3.1:8b
280
+
281
+ # 3. Inicie
282
+ ollama serve
283
+
284
+ # 4. Pronto! O agente detecta automaticamente
285
+ npx mcp-lab-agent auto "login flow"
286
+ ```
287
+
288
+ **100% offline. Sem APIs externas. Ideal para ambientes corporativos.**
289
+
290
+ ### Opção 3: LLM Interno da Empresa
291
+
292
+ ```bash
293
+ # .env
294
+ QA_LAB_LLM_BASE_URL=https://llm-interno.empresa.com/v1
295
+ QA_LAB_LLM_API_KEY=sua-key-interna
296
+ ```
297
+
298
+ **Guia completo:** [CONFIGURACAO_CORPORATIVA.md](CONFIGURACAO_CORPORATIVA.md)
299
+
300
+ ### Variáveis de ambiente (todas opcionais)
258
301
 
259
302
  | Variável | Uso |
260
303
  |----------|-----|
261
304
  | `GROQ_API_KEY` | Groq (gratuito, rápido) |
262
305
  | `GEMINI_API_KEY` | Google Gemini |
263
306
  | `OPENAI_API_KEY` | OpenAI |
264
- | `QA_LAB_LLM_SIMPLE` | Modelo para tarefas simples (ex: gemini-1.5-flash) |
265
- | `QA_LAB_LLM_COMPLEX` | Modelo para tarefas complexas (ex: gpt-4o) |
307
+ | `OLLAMA_BASE_URL` | Ollama customizado (default: http://localhost:11434) |
308
+ | `QA_LAB_LLM_BASE_URL` | Endpoint LLM customizado (empresa) |
309
+ | `QA_LAB_LLM_API_KEY` | API key para LLM customizado |
310
+ | `QA_LAB_LLM_SIMPLE` | Modelo para tarefas simples |
311
+ | `QA_LAB_LLM_COMPLEX` | Modelo para tarefas complexas |
266
312
 
267
313
  ### Modo browser (opcional)
268
314