@lobehub/lobehub 2.0.0-next.253 → 2.0.0-next.254
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/discover.json +3 -0
- package/locales/ar/file.json +2 -0
- package/locales/ar/models.json +38 -10
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +42 -0
- package/locales/bg-BG/discover.json +3 -0
- package/locales/bg-BG/file.json +2 -0
- package/locales/bg-BG/models.json +36 -7
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +43 -1
- package/locales/de-DE/discover.json +3 -0
- package/locales/de-DE/file.json +2 -0
- package/locales/de-DE/models.json +45 -10
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +43 -1
- package/locales/en-US/discover.json +3 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/providers.json +0 -1
- package/locales/en-US/setting.json +43 -1
- package/locales/es-ES/discover.json +3 -0
- package/locales/es-ES/file.json +2 -0
- package/locales/es-ES/models.json +49 -10
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +43 -1
- package/locales/fa-IR/discover.json +3 -0
- package/locales/fa-IR/file.json +2 -0
- package/locales/fa-IR/models.json +39 -10
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +43 -1
- package/locales/fr-FR/discover.json +3 -0
- package/locales/fr-FR/file.json +2 -0
- package/locales/fr-FR/models.json +36 -7
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +42 -0
- package/locales/it-IT/discover.json +3 -0
- package/locales/it-IT/file.json +2 -0
- package/locales/it-IT/models.json +45 -10
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +42 -0
- package/locales/ja-JP/discover.json +3 -0
- package/locales/ja-JP/file.json +2 -0
- package/locales/ja-JP/models.json +42 -7
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +42 -0
- package/locales/ko-KR/discover.json +3 -0
- package/locales/ko-KR/file.json +2 -0
- package/locales/ko-KR/models.json +48 -7
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +42 -0
- package/locales/nl-NL/discover.json +3 -0
- package/locales/nl-NL/file.json +2 -0
- package/locales/nl-NL/models.json +4 -6
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +42 -0
- package/locales/pl-PL/discover.json +3 -0
- package/locales/pl-PL/file.json +2 -0
- package/locales/pl-PL/models.json +36 -7
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +43 -1
- package/locales/pt-BR/discover.json +3 -0
- package/locales/pt-BR/file.json +2 -0
- package/locales/pt-BR/models.json +47 -6
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +42 -0
- package/locales/ru-RU/discover.json +3 -0
- package/locales/ru-RU/file.json +2 -0
- package/locales/ru-RU/models.json +36 -7
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +42 -0
- package/locales/tr-TR/discover.json +3 -0
- package/locales/tr-TR/file.json +2 -0
- package/locales/tr-TR/models.json +36 -5
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +43 -1
- package/locales/vi-VN/discover.json +3 -0
- package/locales/vi-VN/file.json +2 -0
- package/locales/vi-VN/models.json +5 -5
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +42 -0
- package/locales/zh-CN/discover.json +3 -3
- package/locales/zh-CN/models.json +38 -9
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-CN/setting.json +42 -0
- package/locales/zh-TW/discover.json +3 -0
- package/locales/zh-TW/file.json +2 -0
- package/locales/zh-TW/models.json +54 -10
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +42 -0
- package/package.json +1 -1
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型。相较于 Claude 3 Haiku,其在多项能力上实现提升,并在众多智能基准测试中超越此前的最大模型 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它既可实现近乎即时的响应,也支持用户可见的逐步推理过程。Sonnet 在编程、数据科学、视觉处理和智能体任务方面表现尤为出色。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的速度与增强的推理能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 可实现近乎即时的响应,或通过可视化过程进行逐步推理。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一款结合通用能力与编程能力的开源模型。它保留了聊天模型的对话能力与编程模型的强大代码能力,并在偏好对齐方面表现更佳。DeepSeek-V2.5 还提升了写作与指令遵循能力。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式在给出最终答案前输出思维链条,以提升准确性。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本与图像输入,具备高度可控的高质量图像生成能力,可根据文本提示生成图像。",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "
|
|
483
|
-
"fal-ai/qwen-image.description": "
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义与外观编辑,精确处理中英文文本,并支持风格迁移、物体旋转等高质量编辑。",
|
|
483
|
+
"fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力与多样化视觉风格。",
|
|
484
484
|
"flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。",
|
|
486
486
|
"flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精准一致的结果。",
|
|
@@ -501,6 +501,35 @@
|
|
|
501
501
|
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B 是一款高效多模态模型,适用于广泛应用场景。",
|
|
502
502
|
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 优化多模态处理,适用于复杂任务。",
|
|
503
503
|
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash 是 Google 最新的多模态 AI 模型,处理速度快,支持文本、图像与视频输入,适用于高效任务扩展。",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 是一款可扩展的多模态 AI 解决方案,适用于复杂任务。",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 是最新的生产级模型,在数学、长上下文和视觉任务方面输出质量更高。",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 提供强大的多模态处理能力,为应用开发带来更大灵活性。",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 应用了最新优化,提升多模态处理效率。",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro 支持最多 200 万个 token,是一款适用于复杂任务的中型多模态模型。",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成以及 100 万 token 上下文窗口。",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Gemini 2.0 Flash 实验模型,支持图像生成。",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Gemini 2.0 Flash 的一个变体,优化了成本效率与低延迟表现。",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成以及 100 万 token 上下文窗口。",
|
|
515
|
+
"gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
516
|
+
"gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
517
|
+
"gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
518
|
+
"gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
|
|
519
|
+
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,适用于大规模使用场景。",
|
|
520
|
+
"gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite 的预览版本(2025 年 9 月 25 日发布)",
|
|
521
|
+
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite 是 Google 最小、性价比最高的模型,适用于大规模使用场景。",
|
|
522
|
+
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview 是 Google 功能最全、性价比最高的模型。",
|
|
523
|
+
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash 的预览版本(2025 年 9 月 25 日发布)",
|
|
524
|
+
"gemini-2.5-flash.description": "Gemini 2.5 Flash 是 Google 功能最全、性价比最高的模型。",
|
|
525
|
+
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,能够处理代码、数学、STEM 问题,并分析大规模数据集、代码库和长文档。",
|
|
526
|
+
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,能够处理代码、数学、STEM 问题,并分析大规模数据集、代码库和长文档。",
|
|
527
|
+
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,能够处理代码、数学、STEM 问题,并分析大规模数据集、代码库和长文档。",
|
|
528
|
+
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash 是为速度而打造的最智能模型,将前沿智能与卓越搜索能力相结合。",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最强大的智能体与编程模型,在最先进推理基础上提供更丰富的视觉效果与更深入的交互体验。",
|
|
504
533
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
505
534
|
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
|
|
506
535
|
"gemini-pro-latest.description": "Latest release of Gemini Pro",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
|
|
30
30
|
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
|
|
33
32
|
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
|
|
34
33
|
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
|
|
35
34
|
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
|
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "{{name}} 官方模型服务",
|
|
3
3
|
"about.title": "关于",
|
|
4
4
|
"advancedSettings": "进阶配置",
|
|
5
|
+
"agentCronJobs.addJob": "添加定时任务",
|
|
6
|
+
"agentCronJobs.confirmDelete": "确定要删除此定时任务吗?",
|
|
7
|
+
"agentCronJobs.content": "任务内容",
|
|
8
|
+
"agentCronJobs.create": "创建",
|
|
9
|
+
"agentCronJobs.createSuccess": "定时任务创建成功",
|
|
10
|
+
"agentCronJobs.deleteJob": "删除任务",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "定时任务删除成功",
|
|
12
|
+
"agentCronJobs.description": "通过定时执行自动化您的智能体",
|
|
13
|
+
"agentCronJobs.disable": "禁用",
|
|
14
|
+
"agentCronJobs.editJob": "编辑定时任务",
|
|
15
|
+
"agentCronJobs.empty.description": "创建您的第一个定时任务以实现智能体自动化",
|
|
16
|
+
"agentCronJobs.empty.title": "暂无定时任务",
|
|
17
|
+
"agentCronJobs.enable": "启用",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "输入智能体的提示词或指令",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "留空表示无限次",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "输入任务名称",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "结束时间",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "开始时间",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "任务内容不能为空",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "开始时间必须早于结束时间",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "任务名称不能为空",
|
|
26
|
+
"agentCronJobs.interval.12hours": "每12小时",
|
|
27
|
+
"agentCronJobs.interval.1hour": "每小时",
|
|
28
|
+
"agentCronJobs.interval.30min": "每30分钟",
|
|
29
|
+
"agentCronJobs.interval.6hours": "每6小时",
|
|
30
|
+
"agentCronJobs.interval.daily": "每日",
|
|
31
|
+
"agentCronJobs.interval.weekly": "每周",
|
|
32
|
+
"agentCronJobs.lastExecuted": "上次执行时间",
|
|
33
|
+
"agentCronJobs.maxExecutions": "最大执行次数",
|
|
34
|
+
"agentCronJobs.name": "任务名称",
|
|
35
|
+
"agentCronJobs.never": "从未",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "剩余:{{count}}",
|
|
37
|
+
"agentCronJobs.save": "保存",
|
|
38
|
+
"agentCronJobs.schedule": "计划",
|
|
39
|
+
"agentCronJobs.status.depleted": "已耗尽",
|
|
40
|
+
"agentCronJobs.status.disabled": "已禁用",
|
|
41
|
+
"agentCronJobs.status.enabled": "已启用",
|
|
42
|
+
"agentCronJobs.timeRange": "时间范围",
|
|
43
|
+
"agentCronJobs.title": "定时任务",
|
|
44
|
+
"agentCronJobs.unlimited": "无限",
|
|
45
|
+
"agentCronJobs.updateSuccess": "定时任务更新成功",
|
|
46
|
+
"agentCronJobs.weekdays": "工作日",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "头像",
|
|
6
48
|
"agentInfoDescription.basic.description": "描述",
|
|
7
49
|
"agentInfoDescription.basic.name": "名称",
|
|
@@ -156,6 +156,8 @@
|
|
|
156
156
|
"mcp.categories.business.name": "商業服務",
|
|
157
157
|
"mcp.categories.developer.description": "開發相關的工具與服務",
|
|
158
158
|
"mcp.categories.developer.name": "開發工具",
|
|
159
|
+
"mcp.categories.discover.description": "推薦與熱門的 MCP 伺服器",
|
|
160
|
+
"mcp.categories.discover.name": "探索",
|
|
159
161
|
"mcp.categories.gaming-entertainment.description": "遊戲、娛樂和休閒活動",
|
|
160
162
|
"mcp.categories.gaming-entertainment.name": "遊戲娛樂",
|
|
161
163
|
"mcp.categories.health-wellness.description": "健康、健身與身心養護",
|
|
@@ -343,6 +345,7 @@
|
|
|
343
345
|
"mcp.sorts.isValidated": "已驗證外掛",
|
|
344
346
|
"mcp.sorts.promptsCount": "提示詞數",
|
|
345
347
|
"mcp.sorts.ratingCount": "評分數",
|
|
348
|
+
"mcp.sorts.recommended": "推薦",
|
|
346
349
|
"mcp.sorts.resourcesCount": "資源數",
|
|
347
350
|
"mcp.sorts.toolsCount": "工具數",
|
|
348
351
|
"mcp.sorts.updatedAt": "最近更新",
|
package/locales/zh-TW/file.json
CHANGED
|
@@ -18,6 +18,8 @@
|
|
|
18
18
|
"empty": "暫無已上傳文件/文件夾",
|
|
19
19
|
"header.actions.builtInBlockList.filtered": "已過濾 {{ignored}} 個檔案(共 {{total}} 個檔案)",
|
|
20
20
|
"header.actions.connect": "連接...",
|
|
21
|
+
"header.actions.createFolderError": "無法建立資料夾",
|
|
22
|
+
"header.actions.creatingFolder": "正在建立資料夾...",
|
|
21
23
|
"header.actions.gitignore.apply": "套用規則",
|
|
22
24
|
"header.actions.gitignore.cancel": "忽略規則",
|
|
23
25
|
"header.actions.gitignore.content": "偵測到 .gitignore 檔案(共 {{count}} 個檔案),是否套用忽略規則?",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型。相較於 Claude 3 Haiku,其在多項技能上皆有提升,並在多項智能基準測試中超越先前最大模型 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最具智慧的模型,也是市場上首個混合推理模型。它能夠即時回應,或進行可視化的逐步推理。Sonnet 尤其擅長程式設計、資料科學、視覺處理與智能體任務。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 最快且最聰明的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 為高度複雜任務打造的最強大模型,於效能、智能、流暢度與理解力方面皆表現卓越。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
|
|
358
|
-
"deepseek-chat.description": "DeepSeek
|
|
358
|
+
"deepseek-chat.description": "一款結合通用與程式能力的開源模型。保留聊天模型的對話能力與程式模型的強大編碼能力,並提升偏好對齊。DeepSeek-V2.5 也在寫作與指令遵循方面有所進步。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式會在最終答案前輸出思考鏈,以提升準確性。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是來自字節跳動 Seed 團隊的圖像生成模型,支援文字與圖像輸入,能夠高品質且高度可控地生成圖像,從文字提示中創建圖像。",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "來自 Qwen
|
|
483
|
-
"fal-ai/qwen-image.description": "Qwen
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯,能精確處理中英文文字,並實現風格轉換、物體旋轉等高品質編輯。",
|
|
483
|
+
"fal-ai/qwen-image.description": "來自 Qwen 團隊的強大圖像生成模型,具備優異的中文文字渲染能力與多樣化視覺風格。",
|
|
484
484
|
"flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。",
|
|
486
486
|
"flux-kontext-max.description": "最先進的語境圖像生成與編輯技術,結合文字與圖像輸入,實現精準且一致的結果。",
|
|
@@ -526,9 +526,53 @@
|
|
|
526
526
|
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview 是 Google 最先進的推理模型,能處理程式碼、數學與 STEM 問題,並分析大型資料集、程式碼庫與長篇文件。",
|
|
527
527
|
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview 是 Google 最先進的推理模型,能處理程式碼、數學與 STEM 問題,並分析大型資料集、程式碼庫與長篇文件。",
|
|
528
528
|
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗艦推理模型,支援長上下文,適用於處理複雜任務。",
|
|
529
|
+
"gemini-3-flash-preview.description": "Gemini 3 Flash 是為速度而生的智慧模型,結合前沿智能與卓越的搜尋接地能力。",
|
|
530
|
+
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,支援多模態對話。",
|
|
531
|
+
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,並支援多模態聊天。",
|
|
532
|
+
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最強大的智能代理與情境編碼模型,具備頂尖推理能力、豐富視覺表現與深度互動。",
|
|
529
533
|
"gemini-flash-latest.description": "Gemini Flash 最新版本",
|
|
530
534
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本",
|
|
531
535
|
"gemini-pro-latest.description": "Gemini Pro 最新版本",
|
|
536
|
+
"gemma-7b-it.description": "Gemma 7B 是一款適合中小型任務的高性價比模型。",
|
|
537
|
+
"gemma2-9b-it.description": "Gemma 2 9B 專為特定任務與工具整合進行優化。",
|
|
538
|
+
"gemma2.description": "Gemma 2 是 Google 的高效模型,涵蓋從小型應用到複雜資料處理的多種場景。",
|
|
539
|
+
"gemma2:27b.description": "Gemma 2 是 Google 的高效模型,涵蓋從小型應用到複雜資料處理的多種場景。",
|
|
540
|
+
"gemma2:2b.description": "Gemma 2 是 Google 的高效模型,涵蓋從小型應用到複雜資料處理的多種場景。",
|
|
541
|
+
"generalv3.5.description": "Spark Max 是功能最完整的版本,支援網頁搜尋與多種內建插件。其核心能力、系統角色與函數調用皆經過全面優化,能在複雜應用場景中展現卓越表現。",
|
|
542
|
+
"generalv3.description": "Spark Pro 是一款針對專業領域優化的高效能大型語言模型,專注於數學、程式設計、醫療與教育,支援網頁搜尋與天氣、日期等內建插件。其在複雜知識問答、語言理解與高階文本創作方面表現出色,是專業應用的理想選擇。",
|
|
543
|
+
"glm-4-0520.description": "GLM-4-0520 是最新版本模型,專為高度複雜與多樣化任務設計,具備卓越效能。",
|
|
544
|
+
"glm-4-32b-0414.description": "GLM-4 32B 0414 是一款通用 GLM 模型,支援多任務文本生成與理解。",
|
|
545
|
+
"glm-4-9b-chat.description": "GLM-4-9B-Chat 在語義、數學、推理、程式與知識方面表現優異,並支援網頁瀏覽、程式執行、自訂工具調用與長文本推理,支援包括日語、韓語、德語在內的 26 種語言。",
|
|
546
|
+
"glm-4-air-250414.description": "GLM-4-Air 是一款高性價比選擇,效能接近 GLM-4,速度快且成本低。",
|
|
547
|
+
"glm-4-air.description": "GLM-4-Air 是一款高性價比選擇,效能接近 GLM-4,速度快且成本低。",
|
|
548
|
+
"glm-4-airx.description": "GLM-4-AirX 是 GLM-4-Air 的高效版本,推理速度提升至 2.6 倍。",
|
|
549
|
+
"glm-4-alltools.description": "GLM-4-AllTools 是一款多功能智能體模型,針對複雜指令規劃與工具使用(如網頁瀏覽、程式解釋、文本生成)進行優化,適合多任務執行。",
|
|
550
|
+
"glm-4-flash-250414.description": "GLM-4-Flash 適合簡單任務:速度最快且免費。",
|
|
551
|
+
"glm-4-flash.description": "GLM-4-Flash 適合簡單任務:速度最快且免費。",
|
|
552
|
+
"glm-4-flashx.description": "GLM-4-FlashX 是 Flash 的增強版,具備超快推理能力。",
|
|
553
|
+
"glm-4-long.description": "GLM-4-Long 支援超長輸入,適用於記憶型任務與大規模文件處理。",
|
|
554
|
+
"glm-4-plus.description": "GLM-4-Plus 是高智能旗艦模型,擅長處理長文本與複雜任務,整體效能全面升級。",
|
|
555
|
+
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking 是目前已知最強的約 10B 視覺語言模型,涵蓋影片理解、圖像問答、學科解題、OCR、文件與圖表閱讀、GUI 智能體、前端編碼與語義對齊等 SOTA 任務。透過先進強化學習與思考鏈推理,提升準確性與豐富度,超越傳統非思考模型的結果與可解釋性。",
|
|
556
|
+
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking 是目前已知最強的約 10B 視覺語言模型,涵蓋影片理解、圖像問答、學科解題、OCR、文件與圖表閱讀、GUI 智能體、前端編碼與語義對齊等 SOTA 任務。透過先進強化學習與思考鏈推理,提升準確性與豐富度,超越傳統非思考模型的結果與可解釋性。",
|
|
557
|
+
"glm-4.5-air.description": "GLM-4.5 輕量版,兼顧效能與成本,支援靈活的混合思考模式。",
|
|
558
|
+
"glm-4.5-airx.description": "GLM-4.5-Air 快速版,回應更迅速,適用於大規模高速應用。",
|
|
559
|
+
"glm-4.5-flash.description": "免費的 GLM-4.5 版本,在推理、程式與智能體任務中表現強勁。",
|
|
560
|
+
"glm-4.5-x.description": "GLM-4.5 快速版,生成速度高達每秒 100 個 token,效能出色。",
|
|
561
|
+
"glm-4.5.description": "智譜旗艦模型,支援可切換思考模式,整體表現達開源 SOTA,支援最多 128K 上下文。",
|
|
562
|
+
"glm-4.5v.description": "智譜新一代 MoE 視覺推理模型,總參數 106B,啟用 12B,於圖像、影片、文件理解與 GUI 任務中,在同級開源多模態模型中達到 SOTA 水準。",
|
|
563
|
+
"glm-4.6.description": "智譜最新旗艦模型 GLM-4.6(355B)在高階編碼、長文本處理、推理與智能體能力上全面超越前代,特別在程式能力上對齊 Claude Sonnet 4,成為國內頂尖的 Coding 模型。",
|
|
564
|
+
"glm-4.7.description": "GLM-4.7 是智譜最新旗艦模型,針對 Agentic Coding 場景強化了編碼能力、長程任務規劃與工具協同,並在多個公開基準榜單中取得開源模型領先表現。通用能力提升,回應更簡潔自然,寫作更具沉浸感。執行複雜智能體任務與工具調用時,指令遵循更強,Artifacts 與 Agentic Coding 的前端美感與長程任務完成效率進一步提升。",
|
|
565
|
+
"glm-4.description": "GLM-4 是 2024 年 1 月推出的舊版旗艦模型,現已由更強的 GLM-4-0520 取代。",
|
|
566
|
+
"glm-4v-flash.description": "GLM-4V-Flash 專注於單張圖像的高效理解,適用於即時或批次圖像處理等快速分析場景。",
|
|
567
|
+
"glm-4v-plus-0111.description": "GLM-4V-Plus 能理解影片與多張圖像,適合多模態任務。",
|
|
568
|
+
"glm-4v-plus.description": "GLM-4V-Plus 能理解影片與多張圖像,適合多模態任務。",
|
|
569
|
+
"glm-4v.description": "GLM-4V 在各類視覺任務中展現強大的圖像理解與推理能力。",
|
|
570
|
+
"glm-z1-air.description": "具備強大推理能力的模型,適用於需要深度推理的任務。",
|
|
571
|
+
"glm-z1-airx.description": "超高速推理,兼具高品質推理表現。",
|
|
572
|
+
"glm-z1-flash.description": "GLM-Z1 系列具備強大的複雜推理能力,擅長邏輯、數學與程式任務。",
|
|
573
|
+
"glm-z1-flashx.description": "快速且低成本:Flash 增強版,具備超快推理與高併發能力。",
|
|
574
|
+
"glm-zero-preview.description": "GLM-Zero-Preview 具備強大的複雜推理能力,擅長邏輯、數學與程式任務。",
|
|
575
|
+
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適用於需要最高品質回應與推理的複雜任務。",
|
|
532
576
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "先進的圖像推理能力,適用於視覺理解代理應用。",
|
|
533
577
|
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本提供接近 405B 的效能。該模型基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。經指令微調版本針對多語言對話進行最佳化,在業界基準測試中超越多數開放與封閉模型。知識截止時間:2023 年 12 月。",
|
|
534
578
|
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能強大的 70B 參數模型,擅長推理、程式編寫與廣泛語言任務。",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
|
|
30
30
|
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數(Credits)來計算使用量。",
|
|
33
32
|
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
|
|
34
33
|
"mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
|
|
35
34
|
"modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",
|
|
@@ -2,6 +2,48 @@
|
|
|
2
2
|
"_cloud.officialProvider": "{{name}} 官方模型服務",
|
|
3
3
|
"about.title": "關於",
|
|
4
4
|
"advancedSettings": "進階設定",
|
|
5
|
+
"agentCronJobs.addJob": "新增排程任務",
|
|
6
|
+
"agentCronJobs.confirmDelete": "您確定要刪除此排程任務嗎?",
|
|
7
|
+
"agentCronJobs.content": "任務內容",
|
|
8
|
+
"agentCronJobs.create": "建立",
|
|
9
|
+
"agentCronJobs.createSuccess": "排程任務建立成功",
|
|
10
|
+
"agentCronJobs.deleteJob": "刪除任務",
|
|
11
|
+
"agentCronJobs.deleteSuccess": "排程任務刪除成功",
|
|
12
|
+
"agentCronJobs.description": "透過排程執行自動化您的代理程式",
|
|
13
|
+
"agentCronJobs.disable": "停用",
|
|
14
|
+
"agentCronJobs.editJob": "編輯排程任務",
|
|
15
|
+
"agentCronJobs.empty.description": "建立您的第一個排程任務以自動化代理程式",
|
|
16
|
+
"agentCronJobs.empty.title": "尚無排程任務",
|
|
17
|
+
"agentCronJobs.enable": "啟用",
|
|
18
|
+
"agentCronJobs.form.content.placeholder": "輸入給代理程式的提示或指令",
|
|
19
|
+
"agentCronJobs.form.maxExecutions.placeholder": "留空表示無限制",
|
|
20
|
+
"agentCronJobs.form.name.placeholder": "輸入任務名稱",
|
|
21
|
+
"agentCronJobs.form.timeRange.end": "結束時間",
|
|
22
|
+
"agentCronJobs.form.timeRange.start": "開始時間",
|
|
23
|
+
"agentCronJobs.form.validation.contentRequired": "任務內容為必填",
|
|
24
|
+
"agentCronJobs.form.validation.invalidTimeRange": "開始時間必須早於結束時間",
|
|
25
|
+
"agentCronJobs.form.validation.nameRequired": "任務名稱為必填",
|
|
26
|
+
"agentCronJobs.interval.12hours": "每 12 小時",
|
|
27
|
+
"agentCronJobs.interval.1hour": "每小時",
|
|
28
|
+
"agentCronJobs.interval.30min": "每 30 分鐘",
|
|
29
|
+
"agentCronJobs.interval.6hours": "每 6 小時",
|
|
30
|
+
"agentCronJobs.interval.daily": "每日",
|
|
31
|
+
"agentCronJobs.interval.weekly": "每週",
|
|
32
|
+
"agentCronJobs.lastExecuted": "上次執行時間",
|
|
33
|
+
"agentCronJobs.maxExecutions": "最大執行次數",
|
|
34
|
+
"agentCronJobs.name": "任務名稱",
|
|
35
|
+
"agentCronJobs.never": "從未",
|
|
36
|
+
"agentCronJobs.remainingExecutions": "剩餘:{{count}}",
|
|
37
|
+
"agentCronJobs.save": "儲存",
|
|
38
|
+
"agentCronJobs.schedule": "排程",
|
|
39
|
+
"agentCronJobs.status.depleted": "已耗盡",
|
|
40
|
+
"agentCronJobs.status.disabled": "已停用",
|
|
41
|
+
"agentCronJobs.status.enabled": "已啟用",
|
|
42
|
+
"agentCronJobs.timeRange": "時間範圍",
|
|
43
|
+
"agentCronJobs.title": "排程任務",
|
|
44
|
+
"agentCronJobs.unlimited": "無限制",
|
|
45
|
+
"agentCronJobs.updateSuccess": "排程任務更新成功",
|
|
46
|
+
"agentCronJobs.weekdays": "平日",
|
|
5
47
|
"agentInfoDescription.basic.avatar": "頭像",
|
|
6
48
|
"agentInfoDescription.basic.description": "描述",
|
|
7
49
|
"agentInfoDescription.basic.name": "名稱",
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.254",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|