@thor123141245r/ai-translate 1.0.0 → 1.0.1

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (3) hide show
  1. package/README.md +156 -115
  2. package/README.zh-CN.md +194 -0
  3. package/package.json +3 -2
package/README.md CHANGED
@@ -1,124 +1,170 @@
1
- # ai-translate:可复用的 AI 翻译 CLI i18n JSON 批量翻译
2
-
3
- 本仓库是 npm `@thor123141245r/ai-translate` 的源码,提供两类能力:
4
- - 通用文件翻译:把任意文本文件分块后交给大模型翻译(适合 Markdown、代码注释、技术文档等)
5
- - i18n JSON 翻译:以 `en.json` 为标准,批量生成/补齐多语言 JSON(严格保留 key 与结构,只翻译字符串 value)
6
-
7
- 设计目标是“结构在本地处理,模型只做翻译”,避免把大文件或结构化数据整段塞进模型上下文导致不稳定。
8
-
9
- ## 功能概览
10
- - CLI:
11
- - `ai-translate` 通用文件翻译
12
- - `ai-translate i18n` i18n JSON 批量翻译
13
- - 模块:`AiTranslateTransform`、`TextSplitterStream`、`translateI18nDir` 等可复用组件
14
- - 配置:`.ai-translate.json` 本地或全局配置(支持环境变量覆盖)
15
- - 兼容多模型提供方:ollama / openai / anthropic / mistral / deepseek(通过 LangChain 官方 SDK)
16
- - i18n 专用能力:
17
- - 仅翻译 value,不改 key
18
- - 批处理调用,避免上下文混乱
19
- - 占位符保护(例如 `{{name}}`、`{name}`、`%s`)
20
- - 本地缓存,减少重复翻译
21
-
22
- ## 参数一览
23
-
24
- ### CLI 参数
25
- | 参数 | 作用 | 备注 |
1
+ # ai-translate: Reusable AI Translation CLI + i18n JSON Batch Translator
2
+
3
+ Source repo for the npm package `@thor123141245r/ai-translate`.
4
+
5
+ Looking for Chinese docs? See `README.zh-CN.md`.
6
+
7
+ This project provides two main capabilities:
8
+ - General file translation: split a file into chunks and translate with an LLM (good for Markdown, technical docs, code comments, etc.)
9
+ - i18n JSON translation: use `en.json` as the canonical source of truth and batch-generate/fill other locale JSON files (preserve keys and structure, translate string values only)
10
+
11
+ The key design principle is: keep structure handling local, and let the model only translate text. This avoids unstable results caused by sending large structured files into the LLM context.
12
+
13
+ ## Features
14
+ - CLI:
15
+ - `ai-translate` for general file translation
16
+ - `ai-translate i18n` for i18n JSON translation based on a source JSON
17
+ - Reusable modules: `AiTranslateTransform`, `TextSplitterStream`, `translateI18nDir`
18
+ - Config file: `.ai-translate.json` (supports env var overrides)
19
+ - Providers via LangChain SDK: ollama / openai / anthropic / mistral / deepseek
20
+ - i18n-specific:
21
+ - Translate values only; never modify keys/structure
22
+ - Batch model calls to keep context stable
23
+ - Placeholder protection (e.g. `{{name}}`, `{name}`, `%s`)
24
+ - Local cache to reduce repeated translations
25
+
26
+ ## CLI
27
+
28
+ ### General translation flags
29
+ | Flag | Description | Notes |
26
30
  | --- | --- | --- |
27
- | `-h`, `--help` | 输出帮助信息 | |
28
- | `-v`, `--version` | 输出版本号 | |
29
- | `-c`, `--config DIR` | 指定配置目录或配置文件路径 | 读取 `.ai-translate.json` |
30
- | `-f`, `--from LANG` | 源语言 | 可用英文名或 BCP47 代码 |
31
- | `-t`, `--to LANG` | 目标语言 | 可用英文名或 BCP47 代码 |
32
- | `-i`, `--input FILE` | 输入文件路径 | |
33
- | `-o`, `--output FILE` | 输出文件路径 | |
34
- | `--format FORMAT` | 指定输入格式 | 支持 `cpp`、`go`、`java`、`js`、`php`、`proto`、`python`、`rst`、`ruby`、`rust`、`scala`、`swift`、`markdown`、`latex`、`html` |
35
- | `set KEY VALUE` | 写入配置项 | `KEY` 见下表 |
36
- | `i18n` | `en.json` 为标准批量翻译多语言 JSON | 只翻译 value,不改 key/结构 |
37
-
38
- ### 配置参数
39
- | 参数 | 作用 | 默认值 |
31
+ | `-h`, `--help` | Show help | |
32
+ | `-v`, `--version` | Show version | |
33
+ | `-c`, `--config DIR` | Config directory or config file path | reads `.ai-translate.json` |
34
+ | `-f`, `--from LANG` | Source language | English name or BCP47 code |
35
+ | `-t`, `--to LANG` | Target language | English name or BCP47 code |
36
+ | `-i`, `--input FILE` | Input file path | |
37
+ | `-o`, `--output FILE` | Output file path | |
38
+ | `--format FORMAT` | Input format | cpp/go/java/js/php/proto/python/rst/ruby/rust/scala/swift/markdown/latex/html |
39
+ | `set KEY VALUE` | Write config key | see config section |
40
+ | `i18n` | i18n JSON translation | translate values only |
41
+
42
+ ### Config keys
43
+ | Key | Description | Default |
40
44
  | --- | --- | --- |
41
- | `provider` | 模型提供方 | `ollama` |
42
- | `model` | 模型名称 | `qwen2.5:7b` |
43
- | `apiKey` | 模型 API Key | |
44
- | `baseUrl` | 模型 Base URL | |
45
- | `temperature` | 模型温度 | `0.1` |
46
- | `maxRetries` | 最大重试次数 | `10` |
47
- | `chunkSize` | 文本分块大小 | `1000` |
48
-
49
- ## 快速开始
50
-
51
- ### 1) 安装与运行方式
52
- 无需全局安装,推荐直接用 `npx` / `pnpx`:
45
+ | `provider` | Provider | `ollama` |
46
+ | `model` | Model name | `qwen2.5:7b` |
47
+ | `apiKey` | API key | empty |
48
+ | `baseUrl` | Base URL | empty |
49
+ | `temperature` | Temperature | `0.1` |
50
+ | `maxRetries` | Max retries | `10` |
51
+ | `chunkSize` | Split chunk size | `1000` |
52
+
53
+ ## Quick Start
54
+
55
+ ### Run via npx / pnpx
53
56
  ```bash
54
57
  npx @thor123141245r/ai-translate --help
55
58
  pnpx @thor123141245r/ai-translate --help
56
59
  ```
57
60
 
58
- 也可以本仓库本地开发:
61
+ ### Choose a provider (required for real translations)
62
+ This tool needs access to an LLM provider. If no provider is configured, translation calls will fail.
63
+
64
+ Pick ONE of the options below:
65
+
66
+ #### Option A: OpenAI (cloud)
67
+ Set env vars:
68
+ ```bash
69
+ export OPENAI_API_KEY="YOUR_KEY"
70
+ ```
71
+
72
+ Then set provider (writes `.ai-translate.json`):
73
+ ```bash
74
+ npx @thor123141245r/ai-translate set provider openai
75
+ ```
76
+
77
+ #### Option B: Anthropic (cloud)
78
+ ```bash
79
+ export ANTHROPIC_API_KEY="YOUR_KEY"
80
+ npx @thor123141245r/ai-translate set provider anthropic
81
+ ```
82
+
83
+ #### Option C: Mistral (cloud)
84
+ ```bash
85
+ export MISTRAL_API_KEY="YOUR_KEY"
86
+ npx @thor123141245r/ai-translate set provider mistral
87
+ ```
88
+
89
+ #### Option D: DeepSeek (cloud)
90
+ ```bash
91
+ export DEEPSEEK_API_KEY="YOUR_KEY"
92
+ npx @thor123141245r/ai-translate set provider deepseek
93
+ ```
94
+
95
+ #### Option E: Ollama (local)
96
+ Start Ollama and make sure `OLLAMA_BASE_URL` works (default is `http://127.0.0.1:11434`).
97
+ ```bash
98
+ export OLLAMA_BASE_URL="http://127.0.0.1:11434"
99
+ npx @thor123141245r/ai-translate set provider ollama
100
+ ```
101
+
102
+ Notes:
103
+ - `AI_TRANSLATE_API_KEY` overrides provider-specific API keys.
104
+ - `AI_TRANSLATE_BASE_URL` overrides provider-specific base URLs.
105
+
106
+ ### Local development
59
107
  ```bash
60
108
  npm install
61
109
  npm run build
62
110
  ```
63
111
 
64
- ### CLI 用法
112
+ ## Usage
113
+
114
+ ### General file translation
65
115
  ```bash
66
- # 直接翻译文件
116
+ # Translate a file
67
117
  node dist/bin/ai-translate.js -f Spanish -t English -i input.md -o output.md
68
118
 
69
- # 使用配置文件并从 stdin 读取
119
+ # Read from stdin using config in current folder
70
120
  echo "translate" | node dist/bin/ai-translate.js -f en -t en -c .
71
121
  ```
72
122
 
73
- #### 通用文件翻译的工作方式
74
- 1. 根据 `--format` 或输入文件扩展名推断格式
75
- 2. 使用 LangChain text splitter 按格式分块(默认 chunkSize=1000
76
- 3. 每个分块通过统一 Prompt 交给模型翻译
77
- 4. 输出会尽量保留原始空白与结构
123
+ How it works:
124
+ 1. Infer `--format` from the flag or file extension
125
+ 2. Split input into chunks (default chunkSize=1000)
126
+ 3. Translate each chunk using a single consistent prompt
127
+ 4. Preserve original whitespace as much as possible
78
128
 
79
- ### i18n JSON 用法(en.json 作为标准)
80
- 直接把 `en.json` 当纯文本翻译会破坏 JSON 结构与 key。本仓库提供 `i18n` 子命令:以源语言 JSON 为标准,按 key 路径逐条翻译字符串 value,并把结果写回目标语言文件。
129
+ ### i18n JSON translation (use en.json as source of truth)
130
+ Do NOT translate `en.json` as plain text. It will likely break JSON syntax or translate keys.
131
+ Use `i18n` subcommand to translate leaf string values only.
81
132
 
82
133
  ```bash
83
- # 也可以用 npx 直接运行
134
+ # Run via npx
84
135
  npx @thor123141245r/ai-translate i18n --base ./src/i18n/pages/sora-watermask-remover --source en --targets ru
85
136
 
86
- # 目录内:存在 en.json / ru.json / de.json ...
87
- # 默认 mode=fill:保留已有翻译,只补齐缺失项
137
+ # Default mode=fill: keep existing translations, only fill missing values
88
138
  node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en
89
139
 
90
- # 指定目标语言(若目录里还没有目标文件,也会生成)
140
+ # Specify targets (also creates target files when missing)
91
141
  node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en --targets ru,de
92
142
 
93
- # 覆盖重翻(慎用)
143
+ # Overwrite all values (use with care)
94
144
  node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en --targets ru --mode overwrite
95
145
 
96
- # 仅预览统计(不写文件)
146
+ # Dry run (no file writes)
97
147
  node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en --dry
98
148
  ```
99
149
 
100
- #### i18n JSON 翻译的工作方式
101
- - 读取 `--base` 目录下的源文件(默认 `{source}.json`,例如 `en.json`)
102
- - 目标文件默认按 `{lang}.json` 命名(例如 `ru.json`)
103
- - 本地解析 JSON,并提取所有“叶子字符串 value”作为待翻译单元
104
- - 以批处理的方式调用模型:模型一次只处理一组短文本,不会拿到整份 JSON
105
- - 翻译结果按原 key 路径写回,严格不改动 key
106
- - 默认会在目录下写入缓存文件 `.ai-translate.cache.json`,避免重复翻译
107
-
108
- #### i18n 模式的常用参数
109
- - `--mode fill`:只补齐缺失项(推荐默认)
110
- - `--mode overwrite`:强制重翻全部字符串 value
111
- - `--mode prune`:对齐结构并清理目标文件中多余 key
112
- - `--batchMaxItems` / `--batchMaxChars`:控制每次调用模型的批处理大小
113
- - `--cache`:自定义缓存文件名(相对于 `--base` 目录)
114
-
115
- ### 开发态直接运行
116
- ```bash
117
- npm run dev:cli -- -f en -t zh-CN -i input.md -o output.md
118
- ```
150
+ How it works:
151
+ - Reads source JSON from `--base` (default `{source}.json`, e.g. `en.json`)
152
+ - Target files are `{lang}.json` (e.g. `ru.json`)
153
+ - Extracts all leaf string values from the source JSON
154
+ - Calls the model in batches (model never sees the whole JSON)
155
+ - Writes translated values back by key path (keys/structure are preserved)
156
+ - Writes a cache file `.ai-translate.cache.json` under the base directory by default
157
+
158
+ Common i18n flags:
159
+ - `--mode fill` (default): fill missing values only
160
+ - `--mode overwrite`: translate all string values
161
+ - `--mode prune`: align to source and remove extra keys
162
+ - `--batchMaxItems` / `--batchMaxChars`: control batch size per model call
163
+ - `--cache`: cache file name under `--base`
164
+
165
+ ## Configuration
166
+ Config file: `.ai-translate.json`. You can write it via CLI:
119
167
 
120
- ## 配置说明
121
- 配置文件名为 `.ai-translate.json`,可通过命令行写入:
122
168
  ```bash
123
169
  node dist/bin/ai-translate.js set provider ollama
124
170
  node dist/bin/ai-translate.js set apiKey YOUR_API_KEY
@@ -126,44 +172,39 @@ node dist/bin/ai-translate.js set model qwen2.5:7b
126
172
  node dist/bin/ai-translate.js set chunkSize 1000
127
173
  ```
128
174
 
129
- 支持的配置项:
130
- - provider
131
- - model
132
- - apiKey
133
- - baseUrl
134
- - temperature
135
- - maxRetries
136
- - chunkSize
175
+ ## Environment Variable Priority
176
+ Priority: env vars > config file > defaults.
137
177
 
138
- ## 环境变量优先级
139
- 运行时读取优先级:环境变量 > 配置文件 > 默认值。
140
-
141
- 优先读取的通用环境变量:
178
+ Common env vars:
142
179
  - `AI_TRANSLATE_API_KEY`
143
180
  - `AI_TRANSLATE_BASE_URL`
144
181
 
145
- 按提供方支持的环境变量:
182
+ Provider-specific env vars:
146
183
  - `OPENAI_API_KEY` / `OPENAI_BASE_URL`
147
184
  - `ANTHROPIC_API_KEY` / `ANTHROPIC_BASE_URL`
148
185
  - `MISTRAL_API_KEY` / `MISTRAL_BASE_URL`
149
186
  - `DEEPSEEK_API_KEY` / `DEEPSEEK_BASE_URL`
150
187
  - `OLLAMA_BASE_URL`
151
188
 
152
- 说明:
153
- - 通用变量存在时会覆盖配置文件对应字段
154
- - 未设置 apiKey 时,将由各 SDK 自行读取其默认环境变量
155
-
156
- ## 复用说明
157
- 本实现依赖 LangChain 的官方 SDK 与 `@commenthol/ai-translate` 的设计模式:
158
- - 文本分块使用 `@langchain/textsplitters`
159
- - 模型调用使用 `@langchain/*` 系列 ChatModel
160
- - 配置管理使用 `@commenthol/app-config`
189
+ ## Notes
190
+ - For i18n, always use `ai-translate i18n` instead of translating JSON as plain text.
191
+ - Avoid verbose logs and sensitive data in production environments.
161
192
 
162
- ## 注意事项
163
- - i18n 场景请优先使用 `ai-translate i18n`,不要直接把 `en.json` 当纯文本翻译
164
- - 生产环境注意避免输出冗长日志与敏感信息
165
-
166
- ## 最小自测
193
+ ## Minimal Validation
167
194
  ```bash
168
195
  npm run validate
169
196
  ```
197
+
198
+ # About the Author
199
+
200
+ I build **AI SaaS for global markets**—from **idea validation & vibe coding** to **engineering, infra, SEO/backlinks, and growth experiments**.
201
+
202
+ Everything here comes from **real projects, real traffic, and real revenue attempts**.
203
+
204
+ - **Knowledge Base**: [Thor’s AI Going-Global Content Planning](https://my.feishu.cn/wiki/DUzewBOq2iy1rPkSYJecMRXYnFh)
205
+ - **Blog**: [Thor-AI Blog](https://www.notion.so/Thor-AI-2eaf0388ab4680d0a98bedc8d290e1be?pvs=21)
206
+ - **Open Source (High Star)**: Smart Campus System — [GitHub](https://github.com/214140846/TOGO_School_Miniprograme) | [Gitee](https://gitee.com/zengyunengineer/TOGO_School_Miniprograme) | [Skillhub-MCP](https://github.com/214140846/skillhub-mcp)
207
+ - **Social**: [Jike](https://web.okjike.com/u/159D450D-2193-4739-8825-AA8EBEC2E9B4)
208
+ - **Products**: [sora2.cloud](https://sora2.cloud/) | [ricebowl.ai](https://ricebowl.ai/)
209
+ - **Notes**: [AI Video & Image Collection](https://www.notion.so/Ricebowl-AI-2eef0388ab468155b14cd0ac0dd14fa9?pvs=21)
210
+ - **PyPI**: [skillhub-mcp](https://pypi.org/project/skillhub-mcp/)
@@ -0,0 +1,194 @@
1
+ # ai-translate:可复用的 AI 翻译 CLI 与 i18n JSON 批量翻译
2
+
3
+ 本仓库是 npm 包 `@thor123141245r/ai-translate` 的源码。
4
+
5
+ 它提供两类能力:
6
+ - 通用文件翻译:把任意文本文件分块后交给大模型翻译(适合 Markdown、技术文档、代码注释等)
7
+ - i18n JSON 翻译:以 `en.json` 为标准,批量生成/补齐其他语言 JSON(严格保留 key 与结构,只翻译字符串 value)
8
+
9
+ 核心设计原则是:结构在本地处理,模型只做翻译。避免把大体量结构化文件整段塞进模型上下文导致不稳定。
10
+
11
+ ## 功能概览
12
+ - CLI:
13
+ - `ai-translate` 通用文件翻译
14
+ - `ai-translate i18n` i18n JSON 批量翻译
15
+ - 可复用模块:`AiTranslateTransform`、`TextSplitterStream`、`translateI18nDir`
16
+ - 配置:`.ai-translate.json`(支持环境变量覆盖)
17
+ - 兼容多模型提供方:ollama / openai / anthropic / mistral / deepseek(通过 LangChain 官方 SDK)
18
+ - i18n 专用能力:
19
+ - 只翻译 value,不改 key 与结构
20
+ - 批处理调用,避免上下文混乱
21
+ - 占位符保护(例如 `{{name}}`、`{name}`、`%s`)
22
+ - 本地缓存,减少重复翻译
23
+
24
+ ## CLI
25
+
26
+ ### 通用翻译参数
27
+ | 参数 | 作用 | 备注 |
28
+ | --- | --- | --- |
29
+ | `-h`, `--help` | 输出帮助信息 | |
30
+ | `-v`, `--version` | 输出版本号 | |
31
+ | `-c`, `--config DIR` | 指定配置目录或配置文件路径 | 读取 `.ai-translate.json` |
32
+ | `-f`, `--from LANG` | 源语言 | 可用英文名或 BCP47 代码 |
33
+ | `-t`, `--to LANG` | 目标语言 | 可用英文名或 BCP47 代码 |
34
+ | `-i`, `--input FILE` | 输入文件路径 | |
35
+ | `-o`, `--output FILE` | 输出文件路径 | |
36
+ | `--format FORMAT` | 指定输入格式 | cpp/go/java/js/php/proto/python/rst/ruby/rust/scala/swift/markdown/latex/html |
37
+ | `set KEY VALUE` | 写入配置项 | 见配置说明 |
38
+ | `i18n` | i18n JSON 批量翻译 | 只翻译 value |
39
+
40
+ ### 配置项
41
+ | 参数 | 作用 | 默认值 |
42
+ | --- | --- | --- |
43
+ | `provider` | 模型提供方 | `ollama` |
44
+ | `model` | 模型名称 | `qwen2.5:7b` |
45
+ | `apiKey` | 模型 API Key | 空 |
46
+ | `baseUrl` | 模型 Base URL | 空 |
47
+ | `temperature` | 模型温度 | `0.1` |
48
+ | `maxRetries` | 最大重试次数 | `10` |
49
+ | `chunkSize` | 文本分块大小 | `1000` |
50
+
51
+ ## 快速开始
52
+
53
+ ### npx / pnpx 运行
54
+ ```bash
55
+ npx @thor123141245r/ai-translate --help
56
+ pnpx @thor123141245r/ai-translate --help
57
+ ```
58
+
59
+ ### 选择模型提供方(要真正翻译必须配置)
60
+ 本工具需要能访问某个大模型提供方;如果未配置 provider 或未提供 key,翻译调用会失败。
61
+
62
+ 下面任选一种方式:
63
+
64
+ #### 方式 A:OpenAI(云)
65
+ 先配置环境变量:
66
+ ```bash
67
+ export OPENAI_API_KEY="你的key"
68
+ ```
69
+
70
+ 再设置 provider(会写入 `.ai-translate.json`):
71
+ ```bash
72
+ npx @thor123141245r/ai-translate set provider openai
73
+ ```
74
+
75
+ #### 方式 B:Anthropic(云)
76
+ ```bash
77
+ export ANTHROPIC_API_KEY="你的key"
78
+ npx @thor123141245r/ai-translate set provider anthropic
79
+ ```
80
+
81
+ #### 方式 C:Mistral(云)
82
+ ```bash
83
+ export MISTRAL_API_KEY="你的key"
84
+ npx @thor123141245r/ai-translate set provider mistral
85
+ ```
86
+
87
+ #### 方式 D:DeepSeek(云)
88
+ ```bash
89
+ export DEEPSEEK_API_KEY="你的key"
90
+ npx @thor123141245r/ai-translate set provider deepseek
91
+ ```
92
+
93
+ #### 方式 E:Ollama(本地)
94
+ 启动 Ollama,并确保 `OLLAMA_BASE_URL` 可访问(默认 `http://127.0.0.1:11434`)。
95
+ ```bash
96
+ export OLLAMA_BASE_URL="http://127.0.0.1:11434"
97
+ npx @thor123141245r/ai-translate set provider ollama
98
+ ```
99
+
100
+ 补充说明:
101
+ - `AI_TRANSLATE_API_KEY` 会覆盖各 provider 的 `*_API_KEY`
102
+ - `AI_TRANSLATE_BASE_URL` 会覆盖各 provider 的 `*_BASE_URL` 或 `OLLAMA_BASE_URL`
103
+
104
+ ### 本地开发
105
+ ```bash
106
+ npm install
107
+ npm run build
108
+ ```
109
+
110
+ ## 用法
111
+
112
+ ### 通用文件翻译
113
+ ```bash
114
+ # 翻译文件
115
+ node dist/bin/ai-translate.js -f Spanish -t English -i input.md -o output.md
116
+
117
+ # 从 stdin 读取,并使用当前目录的配置文件
118
+ echo "translate" | node dist/bin/ai-translate.js -f en -t en -c .
119
+ ```
120
+
121
+ 工作方式:
122
+ 1. 通过 `--format` 或文件扩展名推断格式
123
+ 2. 将输入按 chunkSize 分块(默认 1000)
124
+ 3. 对每个分块使用统一 Prompt 调用模型翻译
125
+ 4. 尽量保留原始空白与结构
126
+
127
+ ### i18n JSON 翻译(以 en.json 为标准)
128
+ 不要把 `en.json` 当纯文本翻译,这很容易破坏 JSON 语法或把 key 翻译掉。
129
+ 请使用 `i18n` 子命令:只翻译叶子字符串 value。
130
+
131
+ ```bash
132
+ # 用 npx 直接运行
133
+ npx @thor123141245r/ai-translate i18n --base ./src/i18n/pages/sora-watermask-remover --source en --targets ru
134
+
135
+ # 默认 mode=fill:保留已有翻译,只补齐缺失项
136
+ node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en
137
+
138
+ # 指定目标语言(即使目标文件不存在也会生成)
139
+ node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en --targets ru,de
140
+
141
+ # 覆盖重翻(慎用)
142
+ node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en --targets ru --mode overwrite
143
+
144
+ # 仅预览统计(不写文件)
145
+ node dist/bin/ai-translate.js i18n --base ./src/i18n/pages/sora-watermask-remover --source en --dry
146
+ ```
147
+
148
+ 工作方式:
149
+ - 从 `--base` 目录读取源文件(默认 `{source}.json`,例如 `en.json`)
150
+ - 目标文件默认 `{lang}.json`(例如 `ru.json`)
151
+ - 本地解析 JSON,提取所有“叶子字符串 value”作为待翻译单元
152
+ - 通过批处理调用模型(模型不会拿到整份 JSON)
153
+ - 按原 key 路径写回翻译结果,严格不改 key
154
+ - 默认在目录下写入缓存 `.ai-translate.cache.json`,减少重复翻译
155
+
156
+ i18n 常用参数:
157
+ - `--mode fill`:只补齐缺失项(推荐默认)
158
+ - `--mode overwrite`:重翻全部字符串 value
159
+ - `--mode prune`:对齐结构并清理多余 key
160
+ - `--batchMaxItems` / `--batchMaxChars`:控制批处理大小
161
+ - `--cache`:自定义缓存文件名(相对于 `--base`)
162
+
163
+ ## 配置说明
164
+ 配置文件名为 `.ai-translate.json`,可通过命令行写入:
165
+
166
+ ```bash
167
+ node dist/bin/ai-translate.js set provider ollama
168
+ node dist/bin/ai-translate.js set apiKey YOUR_API_KEY
169
+ node dist/bin/ai-translate.js set model qwen2.5:7b
170
+ node dist/bin/ai-translate.js set chunkSize 1000
171
+ ```
172
+
173
+ ## 环境变量优先级
174
+ 优先级:环境变量 > 配置文件 > 默认值。
175
+
176
+ 通用环境变量:
177
+ - `AI_TRANSLATE_API_KEY`
178
+ - `AI_TRANSLATE_BASE_URL`
179
+
180
+ 提供方环境变量:
181
+ - `OPENAI_API_KEY` / `OPENAI_BASE_URL`
182
+ - `ANTHROPIC_API_KEY` / `ANTHROPIC_BASE_URL`
183
+ - `MISTRAL_API_KEY` / `MISTRAL_BASE_URL`
184
+ - `DEEPSEEK_API_KEY` / `DEEPSEEK_BASE_URL`
185
+ - `OLLAMA_BASE_URL`
186
+
187
+ ## 注意事项
188
+ - i18n 场景请优先使用 `ai-translate i18n`,不要直接把 `en.json` 当纯文本翻译
189
+ - 生产环境注意避免输出冗长日志与敏感信息
190
+
191
+ ## 最小自测
192
+ ```bash
193
+ npm run validate
194
+ ```
package/package.json CHANGED
@@ -1,6 +1,6 @@
1
1
  {
2
2
  "name": "@thor123141245r/ai-translate",
3
- "version": "1.0.0",
3
+ "version": "1.0.1",
4
4
  "publishConfig": {
5
5
  "access": "public"
6
6
  },
@@ -19,7 +19,8 @@
19
19
  },
20
20
  "files": [
21
21
  "dist",
22
- "README.md"
22
+ "README.md",
23
+ "README.zh-CN.md"
23
24
  ],
24
25
  "scripts": {
25
26
  "build": "tsc -p tsconfig.json",