@touchzada/claudinho 0.1.7 → 0.1.10

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
package/README.md CHANGED
@@ -1,208 +1,288 @@
1
- # Claudinho
2
-
3
- > **Qualquer provedor. Qualquer modelo. De graça, PRA SEMPRE.**
4
-
5
- O Claudinho é um projeto open-source que permite usar um assistente de IA no terminal com **qualquer modelo de linguagem** — não só com um provedor específico.
6
-
7
- Com o Claudinho você pode usar GPT-4o, DeepSeek, Gemini, Llama, Mistral, Codex e 200+ modelos que falam a API da OpenAI, tudo com a mesma experiência de terminal.
8
-
9
- ---
10
-
11
- ## Começando por aqui
12
-
13
- Se você é novo em terminais ou quer o caminho mais fácil, comece pelo **Guia Completo em Português**:
14
-
15
- - [Guia de Instalação e Configuração (PT-BR)](GUIA_INICIO.md)
16
-
17
- Se você quer builds do código fonte, Bun, perfis locais, diagnósticos ou exemplos completos de provedores:
18
-
19
- - [Configuração Avançada](docs/advanced-setup.md)
20
-
21
- ---
22
-
23
- ## Instalar
24
-
25
- Para a maioria dos usuários, instale pelo npm:
26
-
27
- ```bash
28
- npm install -g @touchzada/claudinho
29
- ```
30
-
31
- Depois de instalar, rode:
32
-
33
- ```bash
34
- claudinho
35
- ```
36
-
37
- Se instalar via npm e depois ver `ripgrep not found`, instale o ripgrep no sistema e confirme que `rg --version` funciona no mesmo terminal antes de abrir o Claudinho.
38
-
39
- ---
40
-
41
- ## Configuração rápida
42
-
43
- ### Windows PowerShell
44
-
45
- ```powershell
46
- npm install -g @touchzada/claudinho
47
-
48
- $env:CLAUDE_CODE_USE_OPENAI="1"
49
- $env:OPENAI_API_KEY="sk-sua-chave-aqui"
50
- $env:OPENAI_MODEL="gpt-4o"
51
-
52
- claudinho
53
- ```
54
-
55
- ### macOS / Linux
56
-
57
- ```bash
58
- npm install -g @touchzada/claudinho
59
-
60
- export CLAUDE_CODE_USE_OPENAI=1
61
- export OPENAI_API_KEY=sk-sua-chave-aqui
62
- export OPENAI_MODEL=gpt-4o
63
-
64
- claudinho
65
- ```
66
-
67
- Isso é suficiente para começar com a OpenAI.
68
-
69
- ---
70
-
71
- ## Escolha seu provedor
72
-
73
- ### OpenAI
74
-
75
- Melhor opção se você já tem uma chave de API da OpenAI.
76
- Guia completo: [Guia PT-BR](GUIA_INICIO.md#opção-a-usando-openai-chatgpt)
77
-
78
- ### Ollama
79
-
80
- Melhor opção para rodar modelos localmente no seu PC, grátis.
81
- Guia completo: [Guia PT-BR](GUIA_INICIO.md#opção-d-usando-ollama-rodando-localmente-no-seu-pc--grátis)
82
-
83
- ### Codex
84
-
85
- Melhor opção se você já usa o Codex CLI ou o backend ChatGPT Codex.
86
- Detalhes: [Configuração Avançada](docs/advanced-setup.md)
87
-
88
- ### OpenRouter
89
-
90
- Melhor opção para acessar 200+ modelos com uma única chave.
91
- Detalhes: [Configuração Avançada](docs/advanced-setup.md)
92
-
93
- ### LM Studio
94
-
95
- Para usar modelos locais servidos pelo LM Studio.
96
- Detalhes: [Configuração Avançada](docs/advanced-setup.md)
97
-
98
- ### Groq, Together AI, Mistral, Azure OpenAI
99
-
100
- Todos suportados via protocolo OpenAI. Veja exemplos na [Configuração Avançada](docs/advanced-setup.md).
101
-
102
- ---
103
-
104
- ## O que funciona
105
-
106
- - **Todas as ferramentas**: Bash, FileRead, FileWrite, FileEdit, Glob, Grep, WebFetch, WebSearch, Agent, MCP, LSP, NotebookEdit, Tasks
107
- - **Streaming**: Respostas em tempo real
108
- - **Chamada de ferramentas**: Cadeias multi-etapa (o modelo chama ferramentas, recebe resultados e continua)
109
- - **Imagens**: Suporte a modelos de visão (base64 e URL)
110
- - **Comandos de barra**: /commit, /review, /compact, /diff, /doctor, etc.
111
- - **Sub-agentes**: O AgentTool gera sub-agentes usando o mesmo provedor
112
- - **Memória**: Sistema de memória persistente
113
- - **Tradução PT-BR**: Interface completa em português brasileiro
114
-
115
- ## O que é diferente
116
-
117
- - **Sem modo de raciocínio estendido**: A funcionalidade específica da Anthropic está desativada
118
- - **Sem cache de prompt**: Headers de cache específicos da Anthropic são ignorados
119
- - **Sem recursos beta**: Headers beta específicos da Anthropic são ignorados
120
- - **Limite de tokens**: Padrão de 32K de saída máxima — alguns modelos podem ter limites menores, o que é tratado automaticamente
121
-
122
- ---
123
-
124
- ## Características especiais
125
-
126
- - **Histórico de conversas**: Navegue por sessões anteriores
127
- - 🛡️ **Guardrails removidos**: Modo bypass para execução sem confirmação de cada ação
128
- - 🇧🇷 **Traduções para PT-BR**: Interface e mensagens completamente em português brasileiro
129
- - **Assistente de provedor**: Configure seu provedor com um assistente interativo
130
- - **Classificador automático**: IA analisa e aprova/neia ações automaticamente
131
- - **Diagnósticos integrados**: Comandos de validação para detectar problemas cedo
132
-
133
- ---
134
-
135
- ## Como funciona
136
-
137
- O Claudinho usa um adaptador compatível com a API da OpenAI (`src/services/api/openaiShim.ts`) que traduz a comunicação entre a IA e o terminal:
138
-
139
- ```
140
- Sistema de Ferramentas do Claudinho
141
- |
142
- v
143
- Interface SDK (duck-typed)
144
- |
145
- v
146
- openaiShim.ts <-- traduz os formatos
147
- |
148
- v
149
- API OpenAI Chat Completions
150
- |
151
- v
152
- Qualquer modelo compatível
153
- ```
154
-
155
- O adaptador traduz:
156
- - Blocos de mensagem Anthropic → Mensagens OpenAI
157
- - Chamadas de ferramenta Anthropic → Chamadas de função OpenAI
158
- - Streaming SSE OpenAI → Eventos de stream compatíveis
159
- - Prompts de sistema → Mensagens de sistema OpenAI
160
-
161
- O restante do sistema não sabe que está se comunicando com outro modelo.
162
-
163
- ---
164
-
165
- ## Qualidade dos modelos
166
-
167
- Nem todos os modelos são iguais para uso com ferramentas. Aqui está um guia aproximado:
168
-
169
- | Modelo | Chamada de Ferramentas | Qualidade de Código | Velocidade |
170
- |--------|----------------------|-------------------|------------|
171
- | GPT-4o | Excelente | Excelente | Rápido |
172
- | DeepSeek-V3 | Ótimo | Ótimo | Rápido |
173
- | Gemini 2.0 Flash | Ótimo | Bom | Muito Rápido |
174
- | Llama 3.3 70B | Bom | Bom | Médio |
175
- | Mistral Large | Bom | Bom | Rápido |
176
- | GPT-4o-mini | Bom | Bom | Muito Rápido |
177
- | Qwen 2.5 72B | Bom | Bom | Médio |
178
- | Modelos menores (<7B) | Limitado | Limitado | Muito Rápido |
179
-
180
- Para melhores resultados, use modelos com bom suporte a chamada de ferramentas.
181
-
182
- ---
183
-
184
- ## Arquitetura principal
185
-
186
- ```
187
- src/services/api/openaiShim.ts — Adaptador compatível com API OpenAI
188
- src/services/api/client.ts — Roteia para o adaptador quando CLAUDE_CODE_USE_OPENAI=1
189
- src/utils/model/providers.ts — Tipo de provedor 'openai'
190
- src/utils/model/configs.ts — Mapeamentos de modelos OpenAI
191
- src/utils/model/model.ts — Respeita OPENAI_MODEL para padrões
192
- src/utils/auth.ts — Reconhece OpenAI como provedor válido
193
- ```
194
-
195
- ---
196
-
197
- ## Links
198
-
199
- - [Repositório](https://github.com/touchzada/Claudinho)
200
- - [Reportar bugs](https://github.com/touchzada/Claudinho/issues)
201
- - [Guia em Português](GUIA_INICIO.md)
202
- - [Configuração Avançada](docs/advanced-setup.md)
203
-
204
- ---
205
-
206
- ## Licença
207
-
208
- Este projeto é fornecido para fins educacionais e de pesquisa. As adições do adaptador OpenAI são de domínio público.
1
+ ESSE PROJETO É BASEADO NO OPENCLAUDE!
2
+ <img width="1919" height="1027" alt="print1" src="https://github.com/user-attachments/assets/96ae02ff-9cd5-4fba-a255-2ed2ff7255ab" />
3
+ <img width="1908" height="345" alt="print2" src="https://github.com/user-attachments/assets/116a57c2-b49a-4ede-b75c-4bb6d2996e99" />
4
+ <img width="1902" height="816" alt="print3" src="https://github.com/user-attachments/assets/7615b6d3-ed40-4851-9d76-b4c93a0d199b" />
5
+ <img width="859" height="378" alt="print4" src="https://github.com/user-attachments/assets/682c6dc6-77e1-46c1-b432-fe1bfead9551" />
6
+
7
+ # Claudinho
8
+
9
+
10
+ > **Qualquer provedor. Qualquer modelo. De graça, PRA SEMPRE.**
11
+
12
+ O Claudinho é um projeto open-source que permite usar um assistente de IA no terminal com **qualquer modelo de linguagem** — não só com um provedor específico.
13
+
14
+ Com o Claudinho você pode usar GPT-4o, DeepSeek, Gemini, Llama, Mistral, Codex e 200+ modelos que falam a API da OpenAI, tudo com a mesma experiência de terminal.
15
+
16
+ Na sua primeira conversa, o claudinho pode perguntar de onde você é, mas isso é só uma instrução que eu alimentei pra que a conversa seja baseada em qual cidade você vive, com gírias, modo de falar mais descontraido e usando referências e a forma de linguagem da cidade em específico.
17
+
18
+ ---
19
+
20
+ ## Começando por aqui
21
+
22
+ Se você é novo em terminais ou quer o caminho mais fácil, comece pelo **Guia Completo em Português**:
23
+
24
+ - [Guia de Instalação e Configuração (PT-BR)](GUIA_INICIO.md)
25
+
26
+ Se você quer builds do código fonte, Bun, perfis locais, diagnósticos ou exemplos completos de provedores:
27
+
28
+ - [Configuração Avançada](docs/advanced-setup.md)
29
+
30
+ ---
31
+
32
+ ## Instalar
33
+
34
+ Para a maioria dos usuários, instale pelo npm:
35
+
36
+ ```bash
37
+ npm install -g @touchzada/claudinho
38
+ ```
39
+
40
+ Depois de instalar, rode:
41
+
42
+ ```bash
43
+ claudinho
44
+ ```
45
+
46
+ Se instalar via npm e depois ver `ripgrep not found`, instale o ripgrep no sistema e confirme que `rg --version` funciona no mesmo terminal antes de abrir o Claudinho.
47
+
48
+ ---
49
+
50
+ ## Configuração rápida
51
+
52
+ ### Windows PowerShell
53
+
54
+ ```powershell
55
+ npm install -g @touchzada/claudinho
56
+
57
+ $env:CLAUDE_CODE_USE_OPENAI="1"
58
+ $env:OPENAI_API_KEY="sk-sua-chave-aqui"
59
+ $env:OPENAI_MODEL="gpt-4o"
60
+
61
+ claudinho
62
+ ```
63
+
64
+ ### macOS / Linux
65
+
66
+ ```bash
67
+ npm install -g @touchzada/claudinho
68
+
69
+ export CLAUDE_CODE_USE_OPENAI=1
70
+ export OPENAI_API_KEY=sk-sua-chave-aqui
71
+ export OPENAI_MODEL=gpt-4o
72
+
73
+ claudinho
74
+ ```
75
+
76
+ Isso é suficiente para começar com a OpenAI.
77
+
78
+ ---
79
+
80
+ ## Escolha seu provedor
81
+
82
+ ### OpenAI
83
+
84
+ Melhor opção se você já tem uma chave de API da OpenAI.
85
+ Guia completo: [Guia PT-BR](GUIA_INICIO.md#opção-a-usando-openai-chatgpt)
86
+
87
+ ### Ollama
88
+
89
+ Melhor opção para rodar modelos localmente no seu PC, grátis.
90
+ Guia completo: [Guia PT-BR](GUIA_INICIO.md#opção-d-usando-ollama-rodando-localmente-no-seu-pc--grátis)
91
+
92
+ ### Codex
93
+
94
+ Melhor opção se você já usa o Codex CLI ou o backend ChatGPT Codex.
95
+ Detalhes: [Configuração Avançada](docs/advanced-setup.md)
96
+
97
+ ### OpenRouter
98
+
99
+ Melhor opção para acessar 200+ modelos com uma única chave.
100
+ Detalhes: [Configuração Avançada](docs/advanced-setup.md)
101
+
102
+ ### LM Studio
103
+
104
+ Para usar modelos locais servidos pelo LM Studio.
105
+ Detalhes: [Configuração Avançada](docs/advanced-setup.md)
106
+
107
+ ### Groq, Together AI, Mistral, Azure OpenAI
108
+
109
+ Todos suportados via protocolo OpenAI. Veja exemplos na [Configuração Avançada](docs/advanced-setup.md).
110
+
111
+ ---
112
+
113
+ ## O que funciona
114
+
115
+ - **Todas as ferramentas**: Bash, FileRead, FileWrite, FileEdit, Glob, Grep, WebFetch, WebSearch, Agent, MCP, LSP, NotebookEdit, Tasks
116
+ - **Streaming**: Respostas em tempo real
117
+ - **Chamada de ferramentas**: Cadeias multi-etapa (o modelo chama ferramentas, recebe resultados e continua)
118
+ - **Imagens**: Suporte a modelos de visão (base64 e URL)
119
+ - **Comandos de barra**: /commit, /review, /compact, /diff, /doctor, etc.
120
+ - **Sub-agentes**: O AgentTool gera sub-agentes usando o mesmo provedor
121
+ - **Memória**: Sistema de memória persistente
122
+ - **Tradução PT-BR**: Interface completa em português brasileiro
123
+
124
+ ## O que é diferente
125
+
126
+ - **Sem modo de raciocínio estendido**: A funcionalidade específica da Anthropic está desativada
127
+ - **Sem cache de prompt**: Headers de cache específicos da Anthropic são ignorados
128
+ - **Sem recursos beta**: Headers beta específicos da Anthropic são ignorados
129
+ - **Limite de tokens**: Padrão de 32K de saída máxima — alguns modelos podem ter limites menores, o que é tratado automaticamente
130
+
131
+ ---
132
+
133
+ ## Características especiais
134
+
135
+ - 📜 **Histórico de conversas**: Navegue por todas as suas sessões anteriores. Ao digitar /exit, sua conversa fica salva para que, no próximo início, você possa voltar pra essa mesma conversa, com as mensagens e todo contexto lá.
136
+ - 🛡️ **Guardrails removidos**: Modo bypass para execução sem confirmação de cada ação
137
+ - 🇧🇷 **Traduções para PT-BR**: Interface e mensagens completamente em português brasileiro
138
+ - **Assistente de provedor**: Configure seu provedor com um assistente interativo
139
+ - **Diagnósticos integrados**: Comandos de validação para detectar problemas cedo
140
+
141
+ ---
142
+
143
+ ## Como funciona
144
+
145
+ O Claudinho usa um adaptador compatível com a API da OpenAI (`src/services/api/openaiShim.ts`) que traduz a comunicação entre a IA e o terminal:
146
+
147
+ ```
148
+ Sistema de Ferramentas do Claudinho
149
+ |
150
+ v
151
+ Interface SDK (duck-typed)
152
+ |
153
+ v
154
+ openaiShim.ts <-- traduz os formatos
155
+ |
156
+ v
157
+ API OpenAI Chat Completions
158
+ |
159
+ v
160
+ Qualquer modelo compatível
161
+ ```
162
+
163
+ O adaptador traduz:
164
+ - Blocos de mensagem Anthropic → Mensagens OpenAI
165
+ - Chamadas de ferramenta Anthropic → Chamadas de função OpenAI
166
+ - Streaming SSE OpenAI → Eventos de stream compatíveis
167
+ - Prompts de sistema Mensagens de sistema OpenAI
168
+
169
+ O restante do sistema não sabe que está se comunicando com outro modelo.
170
+
171
+ ---
172
+
173
+ ## Qualidade dos modelos
174
+
175
+ Nem todos os modelos são iguais para uso com ferramentas. Aqui está um guia aproximado:
176
+
177
+ | Modelo | Chamada de Ferramentas | Qualidade de Código | Velocidade |
178
+ |--------|----------------------|-------------------|------------|
179
+ | GPT-4o | Excelente | Excelente | Rápido |
180
+ | DeepSeek-V3 | Ótimo | Ótimo | Rápido |
181
+ | Gemini 2.0 Flash | Ótimo | Bom | Muito Rápido |
182
+ | Llama 3.3 70B | Bom | Bom | Médio |
183
+ | Mistral Large | Bom | Bom | Rápido |
184
+ | GPT-4o-mini | Bom | Bom | Muito Rápido |
185
+ | Qwen 2.5 72B | Bom | Bom | Médio |
186
+ | Modelos menores (<7B) | Limitado | Limitado | Muito Rápido |
187
+
188
+ Para melhores resultados, use modelos com bom suporte a chamada de ferramentas.
189
+
190
+ ---
191
+
192
+ ## Arquitetura principal
193
+
194
+ ```
195
+ src/services/api/openaiShim.ts — Adaptador compatível com API OpenAI
196
+ src/services/api/client.ts — Roteia para o adaptador quando CLAUDE_CODE_USE_OPENAI=1
197
+ src/utils/model/providers.ts — Tipo de provedor 'openai'
198
+ src/utils/model/configs.ts — Mapeamentos de modelos OpenAI
199
+ src/utils/model/model.ts — Respeita OPENAI_MODEL para padrões
200
+ src/utils/auth.ts — Reconhece OpenAI como provedor válido
201
+ ```
202
+
203
+ ---
204
+
205
+ ## Links
206
+
207
+ - [Repositório](https://github.com/touchzada/Claudinho)
208
+ - [Reportar bugs](https://github.com/touchzada/Claudinho/issues)
209
+ - [Guia em Português](GUIA_INICIO.md)
210
+ - [Configuração Avançada](docs/advanced-setup.md)
211
+
212
+ ---
213
+
214
+ ## Licença
215
+
216
+ Este projeto é fornecido para fins educacionais e de pesquisa. As adições do adaptador OpenAI são de domínio público.
217
+
218
+ ---
219
+
220
+ ## Estrutura de diretórios e arquivos
221
+
222
+ Aqui está explicado cada arquivo importante do projeto, pra você entender o que é o quê:
223
+
224
+ ### Executar o Claudinho
225
+
226
+ - **`bin/claudinho`** — É o script principal que roda o Claudinho. Ele é um arquivo JavaScript (`.mjs` compatível) que começa com `#!/usr/bin/env node` — isso diz pro sistema: "execute este arquivo com o Node.js". Quando você instala via npm, este arquivo fica registrado como o comando `claudinho` no seu PATH. Ele apenas verifica se o arquivo compilado `dist/cli.mjs` existe e o executa. Se o build não foi feito, ele mostra uma mensagem amigável pedindo para rodar `bun run build`.
227
+
228
+ - **`bin/claudinho.cmd`** — Este é um wrapper (um "embrulho") para o Windows. No Windows, o sistema não reconhece a shebang (`#!/usr/bin/env node`) dos scripts Unix, então o `npm` ignora o `bin/claudinho` ao publicar o pacote no Windows. O `.cmd` é um script do Windows (batch) que faz a mesma coisa: chama o `node` com o arquivo `bin/claudinho`. Por que ele existe? É uma correção de compatibilidade — o npm no Windows não detecta o permission bit Unix (755) que marca um arquivo como executável, então ele "corrige" automaticamente removendo o binário. O `.cmd` contorna isso porque o Windows sabe executar batch nativamente.
229
+
230
+ ### Código fonte principal
231
+
232
+ - **`src/constants/prompts.ts`** — Aqui fica o **system prompt** — é o texto que diz pro Claudinho como ele deve se comportar, que personalidade ele tem, que regras seguir, como falar. É o "cérebro comportamental" dele. Quando a IA te diz "E aí, mano!", ela tá lendo o que tá escrito aqui.
233
+
234
+ - **`src/constants/personality.ts`** — O arquivo de **personalidade**. Contém o mapeamento de gírias por região brasileira, as regras de humor, as instruções de como o Claudinho deve brincar com o usuário, e o sistema de memória que guarda nome e cidade do usuário entre sessões.
235
+
236
+ - **`src/i18n/pt-BR.ts`** — O sistema de **tradução completo pro português brasileiro**. Traduz menus, mensagens de erro, atalhos, permissões, tooltips — basicamente toda a interface visual que aparece no terminal.
237
+
238
+ - **`src/services/api/openaiShim.ts`** — O **adaptador principal** que faz o Claudinho funcionar com qualquer modelo. Traduz o formato de mensagem da Anthropic para o formato OpenAI e vice-versa. Sem isso, só funcionaria com o Claude.
239
+
240
+ - **`src/entrypoints/cli.tsx`** — O **ponto de entrada** do Claudinho. É o primeiro arquivo que roda quando você digita o comando. Ele configura o ambiente, valida provedores, lê as configurações e inicia a interface.
241
+
242
+ ### Build e scripts
243
+
244
+ - **`scripts/build.ts`** — O script que **compila** todo o Claudinho. Usa o Bun Bundle para juntar todos os arquivos TypeScript em um único `dist/cli.mjs`. Remove telemetria, injeta constantes de versão, e cria stubs para módulos nativos que não podem ser empacotados.
245
+
246
+ - **`scripts/no-telemetry-plugin.ts`** — Plugin do build que **remove toda a telemetria**. Substitui 14 módulos de coleta de dados da Anthropic por funções vazias — zero calls pra API da Anthropic, zero rastreamento. É como se o Claudinho fosse completamente silencioso em dados.
247
+
248
+ - **`scripts/provider-launch.ts`** — Script que **lança o Claudinho com um perfil de provedor**. Útil pra desenvolvimento — ex: `bun run dev:openai` começa direto com OpenAI configurada.
249
+
250
+ - **`scripts/provider-bootstrap.ts`** — O **assistente interativo de configuração** (`bun run profile:init`). Pergunta qual provedor quer, pede a chave, escolhe modelo e salva.
251
+
252
+ - **`scripts/provider-recommend.ts`** — O **recomendador de provedor**. Analisa os modelos Ollama instalados e sugere o melhor pro seu caso (velocidade, código, qualidade).
253
+
254
+ - **`scripts/system-check.ts`** — O **"doctor"**. Checa se o provedor tá configurado, se a API responde, se a internet funciona. Útil pra diagnosticar problemas.
255
+
256
+ - **`scripts/logo-edit.ts`** e **`scripts/logo-edit-v2.ts`** — Scripts que geram o **logo customizado** da tela de início com gradient RGB.
257
+
258
+ ### Configuração e documentação
259
+
260
+ - **`package.json`** — O arquivo que diz pro npm: "isso é um pacote chamado `@touchzada/claudinho`, versão 0.1.8, que roda com Node.js 20+, e quando instalar globalmente, crie o comando `claudinho`".
261
+
262
+ - **`.env.example`** — Modelo de arquivo de configuração com **exemplos de cada provedor**. Mostra todas as variáveis de ambiente possíveis e como configurar cada um.
263
+
264
+ - **`README.md`** — Este arquivo. Documentação principal do projeto, com instruções de instalação, provedores, features e arquitetura.
265
+
266
+ - **`GUIA_INICIO.md`** — Guia completo em **português brasileiro**, detalhado passo a passo pra quem nunca viu um terminal.
267
+
268
+ - **`docs/advanced-setup.md`** — Documentação em português pra usuários avançados — builds do fonte, Bun, perfis de provedores, variáveis de ambiente completas.
269
+
270
+ - **`docs/non-technical-setup.md`** — Guia simplificado em português pra quem não é técnico.
271
+
272
+ - **`docs/quick-start-windows.md`** — Instalação rápida em português específica pro Windows.
273
+
274
+ - **`docs/quick-start-mac-linux.md`** — Instalação rápida em português específica pro macOS e Linux.
275
+
276
+ - **`LICENSE`** — Licença MIT. Diz que qualquer pessoa pode usar, modificar e distribuir este código sem restrições.
277
+
278
+ ### Arquivos gerados pelo build
279
+
280
+ - **`dist/cli.mjs`** — O Claudinho **compilado**. Um único arquivo JavaScript com todo o código empacotado. É o que roda na instalação final do usuário.
281
+
282
+ - **`dist/cli.mjs.map`** — O **sourcemap**. Um arquivo que relaciona o código compilado de volta aos arquivos fonte originais. Útil quando dá erro — mostra a linha exata no código original em vez de apontar pro código compilado que é ilegível.
283
+
284
+ ### Arquivos auxiliares do bin
285
+
286
+ - **`bin/import-specifier.mjs`** — Stub de importação pro Node.js resolver corretamente os módulos ESM. Necessário pro pacote funcionar sem erros em algumas configurações de Node.
287
+
288
+ - **`bin/import-specifier.test.mjs`** — Teste unitário do stub acima. Verifica que a importação funciona corretamente.
@@ -0,0 +1,2 @@
1
+ @echo off
2
+ node "%~dp0\claudinho" %*