@lobehub/lobehub 2.0.0-next.200 → 2.0.0-next.202
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +2 -0
- package/locales/ar/models.json +64 -7
- package/locales/ar/plugin.json +2 -1
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/chat.json +2 -0
- package/locales/bg-BG/models.json +49 -5
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/chat.json +2 -0
- package/locales/de-DE/models.json +36 -7
- package/locales/de-DE/plugin.json +2 -1
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/chat.json +2 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/plugin.json +2 -1
- package/locales/en-US/providers.json +1 -0
- package/locales/es-ES/chat.json +2 -0
- package/locales/es-ES/models.json +106 -7
- package/locales/es-ES/plugin.json +2 -1
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/chat.json +2 -0
- package/locales/fa-IR/models.json +83 -5
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/chat.json +2 -0
- package/locales/fr-FR/models.json +38 -7
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/chat.json +2 -0
- package/locales/it-IT/models.json +40 -5
- package/locales/it-IT/plugin.json +2 -1
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/chat.json +2 -0
- package/locales/ja-JP/models.json +84 -7
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/chat.json +2 -0
- package/locales/ko-KR/models.json +65 -7
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/chat.json +2 -0
- package/locales/nl-NL/models.json +62 -5
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/chat.json +2 -0
- package/locales/pl-PL/models.json +85 -0
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/chat.json +2 -0
- package/locales/pt-BR/models.json +37 -6
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/chat.json +2 -0
- package/locales/ru-RU/models.json +36 -7
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/chat.json +2 -0
- package/locales/tr-TR/models.json +28 -7
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/chat.json +2 -0
- package/locales/vi-VN/models.json +62 -5
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/chat.json +2 -0
- package/locales/zh-CN/models.json +87 -6
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-TW/chat.json +2 -0
- package/locales/zh-TW/models.json +71 -7
- package/locales/zh-TW/plugin.json +2 -1
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +2 -2
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
- package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
- package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
- package/packages/types/src/aiChat.ts +0 -1
- package/packages/types/src/message/ui/chat.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.ts +16 -2
- package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
- package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
- package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
- package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
- package/src/app/[variants]/(desktop)/desktop-onboarding/index.tsx +8 -2
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
- package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
- package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
- package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
- package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
- package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
- package/src/features/User/DataStatistics.tsx +4 -4
- package/src/hooks/useQueryParam.ts +0 -2
- package/src/libs/trpc/async/asyncAuth.ts +0 -2
- package/src/libs/trpc/async/context.ts +3 -11
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
- package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
- package/src/server/modules/AgentRuntime/factory.ts +39 -20
- package/src/server/modules/ModelRuntime/index.ts +138 -1
- package/src/server/routers/async/__tests__/caller.test.ts +22 -27
- package/src/server/routers/async/caller.ts +4 -6
- package/src/server/routers/async/file.ts +10 -5
- package/src/server/routers/async/image.ts +5 -4
- package/src/server/routers/async/ragEval.ts +7 -5
- package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
- package/src/server/routers/lambda/aiChat.ts +5 -21
- package/src/server/routers/lambda/chunk.ts +9 -28
- package/src/server/routers/lambda/image.ts +1 -7
- package/src/server/routers/lambda/ragEval.ts +1 -1
- package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
- package/src/server/routers/lambda/userMemories/search.ts +7 -7
- package/src/server/routers/lambda/userMemories/shared.ts +8 -10
- package/src/server/routers/lambda/userMemories/tools.ts +140 -118
- package/src/server/routers/lambda/userMemories.test.ts +3 -7
- package/src/server/routers/lambda/userMemories.ts +44 -29
- package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
- package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
- package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
- package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
- package/src/server/services/chunk/index.ts +6 -5
- package/src/server/services/toolExecution/types.ts +1 -2
- package/src/services/__tests__/_url.test.ts +0 -1
- package/src/services/_url.ts +0 -3
- package/src/services/aiChat.ts +5 -12
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
- package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现提升,并在多个基准测试中超越前旗舰 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致的深度思考,并可精细控制。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,具备闪电般的速度与深度思考能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,API 用户可实现精细控制。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活机制,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位任务。",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。在公开基准测试中达到 GPT-5 水平,并率先将思考能力融入工具使用,在开源智能体评估中表现领先。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练数据达 2T(87% 代码,13% 中英文文本)。引入 16K 上下文窗口与中间填充任务,支持项目级代码补全与片段填充。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支持实时网页搜索,结合 671B 规模能力与更快响应。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版,具备 671B 参数与实时网页搜索能力,提供更强理解与生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,数学、编程与推理任务表现可与 OpenAI-o1 相媲美。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在输出前生成思维链以提升准确性,在竞赛中表现优异,推理能力可媲美 Gemini-3.0-Pro。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
|
|
@@ -390,6 +390,87 @@
|
|
|
390
390
|
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think 是一款完整的深度思考模型,具备更强的长链推理能力。",
|
|
391
391
|
"deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首个将思考融入工具使用的混合推理模型,采用高效架构节省算力,结合大规模强化学习提升能力,配合大规模合成任务数据增强泛化能力,三者结合使其性能媲美 GPT-5-High,输出长度大幅降低,显著减少计算开销与用户等待时间。",
|
|
392
392
|
"deepseek-v3.description": "DeepSeek-V3 是一款强大的 MoE 模型,总参数量为 671B,每个 token 激活参数为 37B。",
|
|
393
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small 是一款轻量级多模态模型,适用于资源受限和高并发场景。",
|
|
394
|
+
"deepseek-vl2.description": "DeepSeek VL2 是一款多模态模型,支持图文理解与细粒度视觉问答。",
|
|
395
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 是一款拥有 685B 参数的 MoE 模型,是 DeepSeek 聊天系列的最新旗舰版本。\n\n该模型基于 [DeepSeek V3](/deepseek/deepseek-chat-v3) 构建,在多项任务中表现出色。",
|
|
396
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 是一款拥有 685B 参数的 MoE 模型,是 DeepSeek 聊天系列的最新旗舰版本。\n\n该模型基于 [DeepSeek V3](/deepseek/deepseek-chat-v3) 构建,在多项任务中表现出色。",
|
|
397
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 的长上下文混合推理模型,支持思考与非思考模式切换,并可集成工具使用。",
|
|
398
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3 是 DeepSeek 的高性能混合推理模型,适用于复杂任务与工具集成。",
|
|
399
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 是一款专注于开放可用性与深度推理的更新版本。",
|
|
400
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 在仅使用少量标注数据的情况下显著提升推理能力,并在最终答案前输出思维链以提高准确性。",
|
|
401
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B 是基于 Llama 3.3 70B 精炼而成的大语言模型,使用 DeepSeek R1 输出进行微调,在性能上可与大型前沿模型竞争。",
|
|
402
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B 是基于 Llama-3.1-8B-Instruct 精炼而成的大语言模型,使用 DeepSeek R1 输出进行训练。",
|
|
403
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B 是基于 Qwen 2.5 14B 精炼而成的大语言模型,使用 DeepSeek R1 输出进行训练。在多个基准测试中超越 OpenAI o1-mini,在密集模型中实现 SOTA 表现。基准亮点:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nCodeForces 评分: 1481\n基于 DeepSeek R1 输出的微调实现了与更大前沿模型的竞争性能。",
|
|
404
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B 是基于 Qwen 2.5 32B 精炼而成的大语言模型,使用 DeepSeek R1 输出进行训练。在多个基准测试中超越 OpenAI o1-mini,在密集模型中实现 SOTA 表现。基准亮点:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nCodeForces 评分: 1691\n基于 DeepSeek R1 输出的微调实现了与更大前沿模型的竞争性能。",
|
|
405
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1 已更新为 DeepSeek-R1-0528。通过更强的计算资源与后训练算法优化,显著提升了推理深度与能力。在数学、编程与通用逻辑基准测试中表现优异,接近 o3 与 Gemini 2.5 Pro 等领先模型。",
|
|
406
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1 是 DeepSeek 团队最新开源模型,在数学、编程与推理任务中表现出色,推理能力可媲美 OpenAI o1。",
|
|
407
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 在仅使用少量标注数据的情况下显著提升推理能力,并在最终答案前输出思维链以提高准确性。",
|
|
408
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking(reasoner)是 DeepSeek 的实验性推理模型,适用于高复杂度推理任务。",
|
|
409
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base 是 DeepSeek V3 模型的改进版本。",
|
|
410
|
+
"deepseek/deepseek-v3.description": "一款快速的通用大语言模型,具备增强的推理能力。",
|
|
411
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 在推理速度方面实现重大突破,领先于以往模型。在开源模型中排名第一,性能媲美最先进的闭源模型。DeepSeek-V3 采用 Multi-Head Latent Attention(MLA)与 DeepSeekMoE 架构,这些技术已在 DeepSeek-V2 中充分验证。同时引入无损辅助策略实现负载均衡,并采用多 token 预测训练目标以增强性能。",
|
|
412
|
+
"deepseek_r1.description": "DeepSeek-R1 是一款基于强化学习的推理模型,解决重复与可读性问题。在强化学习前使用冷启动数据进一步提升推理能力。在数学、编程与推理任务中表现与 OpenAI-o1 相当,训练过程精心设计以提升整体效果。",
|
|
413
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B 是基于 Llama-3.3-70B-Instruct 精炼而成。作为 DeepSeek-R1 系列的一部分,使用 DeepSeek-R1 生成的样本进行微调,在数学、编程与推理方面表现出色。",
|
|
414
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 精炼而成,使用 DeepSeek-R1 生成的 80 万高质量样本进行微调,推理能力强大。",
|
|
415
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 精炼而成,使用 DeepSeek-R1 生成的 80 万高质量样本进行微调,在数学、编程与推理方面表现卓越。",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B 擅长使用工具探索代码库、编辑多个文件,并支持软件工程智能体。",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite 是一款全新轻量模型,响应速度极快,提供顶级质量与低延迟体验。",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k 是 Doubao-1.5-Pro 的全面升级版,整体性能提升 10%。支持 256k 上下文窗口与最多 12k 输出 token,性能更强、窗口更大,适用于更广泛的场景。",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro 是新一代旗舰模型,在知识、编程与推理方面全面升级,表现卓越。",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 是一款全新深度推理模型(m 版本支持原生多模态深度推理),在数学、编程、科学推理及创意写作等通用任务中表现出色。在 AIME 2024、Codeforces 与 GPQA 等基准测试中达到或接近顶级水平。支持 128k 上下文窗口与 16k 输出。",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 是一款全新深度推理模型,在数学、编程、科学推理及创意写作等通用任务中表现出色。在 AIME 2024、Codeforces 与 GPQA 等基准测试中达到或接近顶级水平。支持 128k 上下文窗口与 16k 输出。",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "一款全新视觉深度推理模型,具备更强的多模态理解与推理能力,在 59 个公开基准中有 37 项达到 SOTA 水平。",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS 是一款原生 GUI 智能体模型,具备类人感知、推理与操作能力,可无缝与界面交互。",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite 是一款升级版多模态模型,支持任意分辨率与极端长宽比图像,增强视觉推理、文档识别、细节理解与指令执行能力。支持 128k 上下文窗口与最多 16k 输出 token。",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro 是一款升级版多模态模型,支持任意分辨率与极端长宽比图像,增强视觉推理、文档识别、细节理解与指令执行能力。",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro 是一款升级版多模态模型,支持任意分辨率与极端长宽比图像,增强视觉推理、文档识别、细节理解与指令执行能力。",
|
|
427
|
+
"doubao-lite-128k.description": "超快响应,性价比更高,适用于多种场景,支持推理与微调,具备 128k 上下文窗口。",
|
|
428
|
+
"doubao-lite-32k.description": "超快响应,性价比更高,适用于多种场景,支持推理与微调,具备 32k 上下文窗口。",
|
|
429
|
+
"doubao-lite-4k.description": "超快响应,性价比更高,适用于多种场景,支持推理与微调,具备 4k 上下文窗口。",
|
|
430
|
+
"doubao-pro-256k.description": "适用于复杂任务的旗舰性能模型,在参考问答、摘要、创作、文本分类与角色扮演等方面表现强劲。支持推理与微调,具备 256k 上下文窗口。",
|
|
431
|
+
"doubao-pro-32k.description": "适用于复杂任务的旗舰性能模型,在参考问答、摘要、创作、文本分类与角色扮演等方面表现强劲。支持推理与微调,具备 32k 上下文窗口。",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash 是一款超快多模态深度推理模型,TPOT 低至 10ms,支持文本与图像输入,在文本理解方面超越前代 lite 模型,在视觉方面媲美 pro 模型。支持 256k 上下文窗口与最多 16k 输出 token。",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite 是一款全新多模态深度推理模型,支持可调推理强度(最小、低、中、高),性价比更高,适用于常见任务,支持最长 256k 上下文窗口。",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking 显著增强推理能力,在编程、数学与逻辑推理方面全面超越 Doubao-1.5-thinking-pro,并新增视觉理解能力。支持 256k 上下文窗口与最多 16k 输出 token。",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision 是一款视觉深度推理模型,在教育、图像审核、安检与 AI 搜索问答等场景中提供更强的多模态理解与推理能力。支持 256k 上下文窗口与最多 64k 输出 token。",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 是一款全新多模态深度推理模型,支持自动、思考与非思考模式。在非思考模式下,性能显著优于 Doubao-1.5-pro/250115。支持 256k 上下文窗口与最多 16k 输出 token。",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 拥有更强的多模态理解与智能体能力,支持文本/图像/视频输入与上下文缓存,在复杂任务中表现更出色。",
|
|
438
|
+
"doubao-seed-code.description": "豆包 Seed-Code 是专为智能体编程深度优化的模型,支持多模态输入(文本/图像/视频)和 256k 上下文窗口,兼容 Anthropic API,适用于编程、视觉理解和智能体工作流。",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "字节跳动 Seed 团队推出的 Doubao 图像模型,支持文本与图像输入,具备高度可控的高质量图像生成能力。支持基于文本的图像编辑,输出尺寸长边范围为 512 至 1536。",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本与图像输入,具备高度可控的高质量图像生成能力,可根据文本提示生成图像。",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本与图像输入,具备高度可控的高质量图像生成能力,可根据文本提示生成图像。",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-Vision 是豆包推出的多模态模型,具备强大的图像理解与推理能力,并能精准执行指令。在图文提取与图像推理任务中表现出色,支持更复杂、更广泛的视觉问答场景。",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-Vision 是豆包推出的多模态模型,具备强大的图像理解与推理能力,并能精准执行指令。在图文提取与图像推理任务中表现出色,支持更复杂、更广泛的视觉问答场景。",
|
|
444
|
+
"emohaa.description": "Emohaa 是一款具备专业心理咨询能力的心理健康模型,帮助用户理解情绪问题。",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B 是一款开源轻量模型,适用于本地化和定制化部署。",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B 是一款开源大参数模型,具备更强的理解与生成能力。",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B 是百度 ERNIE 推出的超大规模 MoE 模型,推理能力卓越。",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview 是一款用于评估 ERNIE 4.5 的 8K 上下文预览模型。",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K 预览版具备发布级能力,适用于集成与灰度测试。",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K 是一款高性能通用模型,支持搜索增强与工具调用,适用于问答、编程与智能体场景。",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K 是一款中等长度上下文版本,适用于问答、知识库检索与多轮对话。",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "最新的 ERNIE 4.5 Turbo,整体性能优化,适合作为主力生产模型。",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview 是一款 32K 多模态预览模型,用于评估长上下文视觉能力。",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K 是一款中长上下文多模态模型,支持长文档与图像的联合理解。",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL 最新版是最新的多模态模型,图文理解与推理能力进一步提升。",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview 是一款多模态预览模型,支持图文理解与生成,适用于视觉问答与内容理解。",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL 是一款成熟的多模态模型,适用于生产级图文理解与识别。",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B 是一款开源多模态模型,支持图文理解与推理。",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "文心 5.0 Thinking 是一款原生全模态旗舰模型,实现文本、图像、音频与视频的统一建模,全面升级复杂问答、创作与智能体能力。",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "文心 5.0 Thinking Preview 是一款原生全模态旗舰模型,实现文本、图像、音频与视频的统一建模,全面升级复杂问答、创作与智能体能力。",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K 是一款角色对话模型,适用于 IP 角色构建与长期陪伴聊天。",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview 是一款角色与剧情创作模型预览版,用于功能评估与测试。",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K 是一款面向小说与剧情创作的角色模型,适合长篇故事生成。",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit 是一款图像编辑模型,支持擦除、重绘与变体生成。",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K 是一款轻量通用模型,适用于成本敏感的日常问答与内容生成。",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K 是一款轻量高性能模型,适用于延迟与成本敏感场景。",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K 专为长篇小说与 IP 剧情创作打造,支持多角色叙事。",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K 是一款免 I/O 费用模型,适用于长文本理解与大规模试验。",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K 是一款免费快速模型,适用于日常聊天与轻量文本任务。",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K 是一款高并发高价值模型,适用于大规模在线服务与企业应用。",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文,适用于复杂推理与多轮对话。",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款思考模型预览版,用于评估与测试。",
|
|
393
474
|
"gemini-flash-latest.description": "Latest release of Gemini Flash",
|
|
394
475
|
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
|
|
395
476
|
"gemini-pro-latest.description": "Latest release of Gemini Pro",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "创建计划:<goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "创建待办",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "执行任务",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "已创建任务:",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "创建任务中:",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "执行多个任务",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "删除待办",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "更新计划",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
|
|
30
30
|
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud 使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
|
|
32
33
|
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
|
|
33
34
|
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
|
|
34
35
|
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",
|
package/locales/zh-TW/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} 個批次子任務",
|
|
296
296
|
"task.metrics.stepsShort": "步驟",
|
|
297
297
|
"task.metrics.toolCallsShort": "次使用工具",
|
|
298
|
+
"task.status.cancelled": "任務已取消",
|
|
299
|
+
"task.status.failed": "任務失敗",
|
|
298
300
|
"task.status.initializing": "任務啟動中...",
|
|
299
301
|
"task.subtask": "子任務",
|
|
300
302
|
"thread.divider": "子話題",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
|
|
272
272
|
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
273
273
|
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型,在多項技能上全面提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首個混合推理模型,支援即時回應與延伸思考,並提供細緻的控制能力。",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智慧的 Haiku 模型,具備閃電般的速度與延伸思考能力。",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設,於效能、智慧、流暢度與理解力方面表現卓越。",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今最智慧的模型,為 API 使用者提供即時回應或逐步思考的能力,並具備細緻控制功能。",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 在推理與輸出長度之間取得平衡,適用於日常問答與智能代理任務。其公開基準測試達到 GPT-5 水準,並首創將思考整合至工具使用,在開源代理評估中表現領先。",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在輸出前先生成思考鏈以提升準確性,在競賽中表現優異,推理能力媲美 Gemini-3.0-Pro。",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
|
|
@@ -392,6 +392,70 @@
|
|
|
392
392
|
"deepseek-v3.description": "DeepSeek-V3 是一款強大的 MoE 模型,總參數達 671B,每個 token 啟用 37B 參數。",
|
|
393
393
|
"deepseek-vl2-small.description": "DeepSeek VL2 Small 是輕量級多模態模型,適用於資源受限與高併發場景。",
|
|
394
394
|
"deepseek-vl2.description": "DeepSeek VL2 是一款多模態模型,支援圖文理解與細緻的視覺問答任務。",
|
|
395
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 是一款擁有 685B 參數的 MoE 模型,是 DeepSeek 旗艦聊天系列的最新版本。\n\n它基於 [DeepSeek V3](/deepseek/deepseek-chat-v3) 打造,在多項任務中表現出色。",
|
|
396
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 是一款擁有 685B 參數的 MoE 模型,是 DeepSeek 旗艦聊天系列的最新版本。\n\n它基於 [DeepSeek V3](/deepseek/deepseek-chat-v3) 打造,在多項任務中表現出色。",
|
|
397
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 的長上下文混合推理模型,支援思考與非思考模式切換,並整合工具使用。",
|
|
398
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3 是 DeepSeek 的高效能混合推理模型,適用於複雜任務與工具整合。",
|
|
399
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 是一個專注於開放可用性與深度推理的更新版本。",
|
|
400
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 在僅需少量標註資料的情況下大幅提升推理能力,並在最終答案前輸出思考鏈以提高準確性。",
|
|
401
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B 是基於 Llama 3.3 70B 精煉而成的大型語言模型,透過 DeepSeek R1 輸出進行微調,達到與大型前沿模型相當的效能。",
|
|
402
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B 是基於 Llama-3.1-8B-Instruct 精煉而成的語言模型,使用 DeepSeek R1 輸出進行訓練。",
|
|
403
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B 是基於 Qwen 2.5 14B 精煉而成的語言模型,使用 DeepSeek R1 輸出進行訓練。其在多項基準測試中超越 OpenAI o1-mini,於密集模型中達到 SOTA 水準。基準亮點:\nAIME 2024 pass@1:69.7\nMATH-500 pass@1:93.9\nCodeForces 評分:1481\n透過 DeepSeek R1 輸出微調,效能媲美更大型的前沿模型。",
|
|
404
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B 是基於 Qwen 2.5 32B 精煉而成的語言模型,使用 DeepSeek R1 輸出進行訓練。其在多項基準測試中超越 OpenAI o1-mini,於密集模型中達到 SOTA 水準。基準亮點:\nAIME 2024 pass@1:72.6\nMATH-500 pass@1:94.3\nCodeForces 評分:1691\n透過 DeepSeek R1 輸出微調,效能媲美更大型的前沿模型。",
|
|
405
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1 已更新為 DeepSeek-R1-0528。透過更強的運算資源與後訓練演算法優化,其推理深度與能力大幅提升。在數學、程式設計與邏輯基準測試中表現優異,接近 o3 與 Gemini 2.5 Pro 等領先模型。",
|
|
406
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1 是 DeepSeek 團隊最新釋出的開源模型,在數學、程式設計與推理任務中展現強大推理能力,表現可媲美 OpenAI o1。",
|
|
407
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 在僅需少量標註資料的情況下大幅提升推理能力,並在最終答案前輸出思考鏈以提高準確性。",
|
|
408
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking(reasoner)是 DeepSeek 的實驗性推理模型,適用於高複雜度推理任務。",
|
|
409
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base 是 DeepSeek V3 模型的改進版本。",
|
|
410
|
+
"deepseek/deepseek-v3.description": "一款快速的通用大型語言模型,具備增強的推理能力。",
|
|
411
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 在推理速度上相較前代實現重大突破。其在開源模型中排名第一,並可媲美最先進的封閉模型。DeepSeek-V3 採用 Multi-Head Latent Attention(MLA)與 DeepSeekMoE 架構,兩者皆已在 DeepSeek-V2 中驗證。另引入無損輔助策略以實現負載平衡,並採用多標記預測訓練目標以提升效能。",
|
|
412
|
+
"deepseek_r1.description": "DeepSeek-R1 是一款以強化學習驅動的推理模型,針對重複與可讀性問題進行優化。在進行強化學習前,使用冷啟動資料進一步提升推理表現。其在數學、程式設計與推理任務中表現與 OpenAI-o1 相當,透過精心設計的訓練流程提升整體效能。",
|
|
413
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B 是從 Llama-3.3-70B-Instruct 精煉而來。作為 DeepSeek-R1 系列的一部分,該模型以 DeepSeek-R1 生成樣本進行微調,在數學、程式設計與推理方面表現出色。",
|
|
414
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B 是從 Qwen2.5-14B 精煉而來,並以 DeepSeek-R1 生成的 80 萬條精選樣本進行微調,展現強大推理能力。",
|
|
415
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B 是從 Qwen2.5-32B 精煉而來,並以 DeepSeek-R1 生成的 80 萬條精選樣本進行微調,在數學、程式設計與推理方面表現卓越。",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B 擅長使用工具探索程式碼庫、編輯多個檔案,並支援軟體工程代理人。",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite 是一款全新輕量級模型,具備極速回應能力,提供頂級品質與低延遲表現。",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k 是 Doubao-1.5-Pro 的全面升級版,整體效能提升 10%。支援 256k 上下文視窗與最多 12k 輸出字元,提供更高效能、更大視窗與更廣泛應用價值。",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro 是新一代旗艦模型,全面升級,在知識、程式設計與推理方面表現出色。",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 是一款全新深度推理模型(m 版本支援原生多模態深度推理),在數學、程式設計、科學推理及創意寫作等通用任務中表現優異。於 AIME 2024、Codeforces 與 GPQA 等基準測試中達到或接近頂尖水準。支援 128k 上下文視窗與 16k 輸出。",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 是一款全新深度推理模型,在數學、程式設計、科學推理及創意寫作等通用任務中表現優異。於 AIME 2024、Codeforces 與 GPQA 等基準測試中達到或接近頂尖水準。支援 128k 上下文視窗與 16k 輸出。",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "全新視覺深度推理模型,具備更強的多模態理解與推理能力,在 59 個公開基準中有 37 項達到 SOTA 表現。",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS 是一款原生圖形介面導向代理模型,透過類人感知、推理與行動,與介面無縫互動。",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite 是升級版多模態模型,支援任意解析度與極端長寬比的圖像,強化視覺推理、文件識別、細節理解與指令遵循。支援 128k 上下文視窗與最多 16k 輸出字元。",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro 是升級版多模態模型,支援任意解析度與極端長寬比的圖像,強化視覺推理、文件識別、細節理解與指令遵循。",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro 是升級版多模態模型,支援任意解析度與極端長寬比的圖像,強化視覺推理、文件識別、細節理解與指令遵循。",
|
|
427
|
+
"doubao-lite-128k.description": "極速回應與高性價比,提供多場景靈活選擇。支援推理與微調,具備 128k 上下文視窗。",
|
|
428
|
+
"doubao-lite-32k.description": "極速回應與高性價比,提供多場景靈活選擇。支援推理與微調,具備 32k 上下文視窗。",
|
|
429
|
+
"doubao-lite-4k.description": "極速回應與高性價比,提供多場景靈活選擇。支援推理與微調,具備 4k 上下文視窗。",
|
|
430
|
+
"doubao-pro-256k.description": "最強旗艦模型,適用於複雜任務,在參考問答、摘要、創作、文本分類與角色扮演等方面表現卓越。支援推理與微調,具備 256k 上下文視窗。",
|
|
431
|
+
"doubao-pro-32k.description": "最強旗艦模型,適用於複雜任務,在參考問答、摘要、創作、文本分類與角色扮演等方面表現卓越。支援推理與微調,具備 32k 上下文視窗。",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash 是一款極速多模態深度推理模型,TPOT 低至 10ms。支援文字與圖像,文字理解超越前代 lite 模型,視覺能力媲美競品 pro 模型。支援 256k 上下文視窗與最多 16k 輸出字元。",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite 是一款全新多模態深度推理模型,支援可調推理強度(最低、低、中、高),在常見任務中提供更高性價比與穩定選擇,支援最高 256k 上下文視窗。",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking 大幅強化推理能力,進一步提升程式設計、數學與邏輯推理核心能力,並新增視覺理解。支援 256k 上下文視窗與最多 16k 輸出字元。",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision 是一款視覺深度推理模型,針對教育、圖像審查、檢測/安防與 AI 搜尋問答等場景提供更強的多模態理解與推理能力。支援 256k 上下文視窗與最多 64k 輸出字元。",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 是一款全新多模態深度推理模型,具備自動、思考與非思考模式。在非思考模式下,效能顯著超越 Doubao-1.5-pro/250115。支援 256k 上下文視窗與最多 16k 輸出字元。",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 擁有更強的多模態理解與 Agent 能力,支援文字/圖片/影片輸入與上下文快取,在複雜任務中展現更卓越的表現。",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code 專為代理式程式設計深度優化,支援多模態輸入(文字/圖片/影片)與 256k 上下文視窗,兼容 Anthropic API,適用於程式設計、視覺理解與代理工作流程。",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "Doubao 影像模型(來自字節跳動 Seed)支援文字與圖像輸入,實現高度可控、高品質的圖像生成。支援文字引導的圖像編輯,輸出尺寸長邊介於 512 至 1536。",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,實現高度可控、高品質的圖像生成。可根據文字提示生成圖像。",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,實現高度可控、高品質的圖像生成。可根據文字提示生成圖像。",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision 是 Doubao 推出的多模態模型,具備強大的圖像理解與推理能力,並能精準執行指令。擅長圖文抽取與基於圖像的推理任務,支援更複雜與廣泛的視覺問答場景。",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision 是 Doubao 推出的多模態模型,具備強大的圖像理解與推理能力,並能精準執行指令。擅長圖文抽取與基於圖像的推理任務,支援更複雜與廣泛的視覺問答場景。",
|
|
444
|
+
"emohaa.description": "Emohaa 是一款心理健康模型,具備專業諮詢能力,協助使用者理解情緒問題。",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B 是一款開源輕量級模型,適合本地與客製化部署。",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B 是一款開源大參數模型,具備更強的理解與生成能力。",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B 是百度 ERNIE 的超大規模 MoE 模型,推理能力卓越。",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview 是一款 8K 上下文預覽模型,用於評估 ERNIE 4.5。",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "ERNIE 4.5 Turbo 128K 預覽版具備正式版本能力,適合整合與金絲雀測試。",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K 是一款高效能通用模型,支援搜尋增強與工具調用,適用於問答、程式設計與代理場景。",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K 是中長上下文版本,適用於問答、知識庫檢索與多輪對話。",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "最新 ERNIE 4.5 Turbo,整體效能優化,適合作為主要生產模型。",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K 預覽版是一款 32K 多模態模型,用於評估長上下文視覺能力。",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K 是中長上下文多模態版本,適用於長文檔與圖像理解。",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL 最新版,圖文理解與推理能力提升。",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL 預覽版是一款多模態模型,適用於圖文理解與生成,支援視覺問答與內容理解。",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL 是一款成熟的多模態模型,適用於生產級圖文理解與識別。",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B 是一款開源多模態模型,支援圖文理解與推理。",
|
|
395
459
|
"gemini-flash-latest.description": "Gemini Flash 最新版本",
|
|
396
460
|
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本",
|
|
397
461
|
"gemini-pro-latest.description": "Gemini Pro 最新版本",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "建立計畫:<goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "建立待辦",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "執行任務",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "任務已建立:",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "正在建立任務:",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "執行多項任務",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "刪除待辦",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "更新計劃",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
|
|
30
30
|
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
|
|
31
31
|
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數(Credits)來計算使用量。",
|
|
32
33
|
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
|
|
33
34
|
"mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
|
|
34
35
|
"modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",
|
package/package.json
CHANGED
|
@@ -1,6 +1,6 @@
|
|
|
1
1
|
{
|
|
2
2
|
"name": "@lobehub/lobehub",
|
|
3
|
-
"version": "2.0.0-next.
|
|
3
|
+
"version": "2.0.0-next.202",
|
|
4
4
|
"description": "LobeHub - an open-source,comprehensive AI Agent framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.",
|
|
5
5
|
"keywords": [
|
|
6
6
|
"framework",
|
|
@@ -40,7 +40,7 @@
|
|
|
40
40
|
"build:analyze": "NODE_OPTIONS=--max-old-space-size=8192 ANALYZE=true next build --webpack",
|
|
41
41
|
"build:docker": "npm run prebuild && NODE_OPTIONS=--max-old-space-size=8192 DOCKER=true next build --webpack && npm run build-sitemap",
|
|
42
42
|
"build:electron": "cross-env NODE_OPTIONS=--max-old-space-size=8192 NEXT_PUBLIC_IS_DESKTOP_APP=1 tsx scripts/electronWorkflow/buildNextApp.mts",
|
|
43
|
-
"build:vercel": "npm run prebuild && cross-env NODE_OPTIONS=--max-old-space-size=6144 next build --webpack",
|
|
43
|
+
"build:vercel": "npm run prebuild && cross-env NODE_OPTIONS=--max-old-space-size=6144 next build --webpack && npm run postbuild",
|
|
44
44
|
"clean:node_modules": "bash -lc 'set -e; echo \"Removing all node_modules...\"; rm -rf node_modules; pnpm -r exec rm -rf node_modules; rm -rf apps/desktop/node_modules; echo \"All node_modules removed.\"'",
|
|
45
45
|
"db:generate": "drizzle-kit generate && npm run workflow:dbml",
|
|
46
46
|
"db:migrate": "MIGRATION_DB=1 tsx ./scripts/migrateServerDB/index.ts",
|
|
@@ -3,7 +3,7 @@
|
|
|
3
3
|
import type { BuiltinInspectorProps } from '@lobechat/types';
|
|
4
4
|
import { createStaticStyles, cx } from 'antd-style';
|
|
5
5
|
import { memo } from 'react';
|
|
6
|
-
import {
|
|
6
|
+
import { useTranslation } from 'react-i18next';
|
|
7
7
|
|
|
8
8
|
import { highlightTextStyles, shinyTextStyles } from '@/styles';
|
|
9
9
|
|
|
@@ -21,31 +21,46 @@ const styles = createStaticStyles(({ css, cssVar }) => ({
|
|
|
21
21
|
}));
|
|
22
22
|
|
|
23
23
|
export const ExecTaskInspector = memo<BuiltinInspectorProps<ExecTaskParams, ExecTaskState>>(
|
|
24
|
-
({ args, partialArgs, isArgumentsStreaming }) => {
|
|
24
|
+
({ args, partialArgs, isArgumentsStreaming, isLoading }) => {
|
|
25
25
|
const { t } = useTranslation('plugin');
|
|
26
26
|
|
|
27
27
|
const description = args?.description || partialArgs?.description;
|
|
28
28
|
|
|
29
|
-
|
|
29
|
+
// 参数还在流式传输且没有 description
|
|
30
|
+
if (isArgumentsStreaming) {
|
|
31
|
+
if (!description)
|
|
32
|
+
return (
|
|
33
|
+
<div className={cx(styles.root, shinyTextStyles.shinyText)}>
|
|
34
|
+
<span>{t('builtins.lobe-gtd.apiName.execTask')}</span>
|
|
35
|
+
</div>
|
|
36
|
+
);
|
|
37
|
+
|
|
30
38
|
return (
|
|
31
39
|
<div className={cx(styles.root, shinyTextStyles.shinyText)}>
|
|
32
|
-
<span>{t('builtins.lobe-gtd.apiName.execTask')}</span>
|
|
40
|
+
<span>{t('builtins.lobe-gtd.apiName.execTask.loading')}</span>
|
|
41
|
+
<span className={highlightTextStyles.primary}>{description}</span>
|
|
42
|
+
</div>
|
|
43
|
+
);
|
|
44
|
+
}
|
|
45
|
+
|
|
46
|
+
// 有 description 时,根据 loading 状态显示不同文案
|
|
47
|
+
if (description) {
|
|
48
|
+
return (
|
|
49
|
+
<div className={cx(styles.root, isLoading && shinyTextStyles.shinyText)}>
|
|
50
|
+
<span>
|
|
51
|
+
{isLoading
|
|
52
|
+
? t('builtins.lobe-gtd.apiName.execTask.loading')
|
|
53
|
+
: t('builtins.lobe-gtd.apiName.execTask.completed')}
|
|
54
|
+
</span>
|
|
55
|
+
<span className={highlightTextStyles.primary}>{description}</span>
|
|
33
56
|
</div>
|
|
34
57
|
);
|
|
35
58
|
}
|
|
36
59
|
|
|
60
|
+
// fallback
|
|
37
61
|
return (
|
|
38
|
-
<div className={
|
|
39
|
-
{
|
|
40
|
-
<Trans
|
|
41
|
-
components={{ desc: <span className={highlightTextStyles.primary} /> }}
|
|
42
|
-
i18nKey="builtins.lobe-gtd.apiName.execTask.result"
|
|
43
|
-
ns="plugin"
|
|
44
|
-
values={{ description }}
|
|
45
|
-
/>
|
|
46
|
-
) : (
|
|
47
|
-
<span>{t('builtins.lobe-gtd.apiName.execTask')}</span>
|
|
48
|
-
)}
|
|
62
|
+
<div className={styles.root}>
|
|
63
|
+
<span>{t('builtins.lobe-gtd.apiName.execTask')}</span>
|
|
49
64
|
</div>
|
|
50
65
|
);
|
|
51
66
|
},
|
|
@@ -14,7 +14,7 @@ export const GTDManifest: BuiltinToolManifest = {
|
|
|
14
14
|
'Create a high-level plan document. Plans define the strategic direction (the "what" and "why"), while todos handle the actionable steps.',
|
|
15
15
|
name: GTDApiName.createPlan,
|
|
16
16
|
humanIntervention: 'required',
|
|
17
|
-
renderDisplayControl: '
|
|
17
|
+
renderDisplayControl: 'expand',
|
|
18
18
|
parameters: {
|
|
19
19
|
properties: {
|
|
20
20
|
goal: {
|