@lobehub/chat 1.81.3 → 1.81.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/electron.json +32 -0
- package/locales/ar/models.json +126 -3
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/tool.json +25 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/electron.json +32 -0
- package/locales/bg-BG/models.json +126 -3
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/tool.json +25 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/electron.json +32 -0
- package/locales/de-DE/models.json +126 -3
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/tool.json +25 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/electron.json +32 -0
- package/locales/en-US/models.json +126 -3
- package/locales/en-US/plugin.json +1 -0
- package/locales/en-US/tool.json +25 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/electron.json +32 -0
- package/locales/es-ES/models.json +126 -3
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/tool.json +25 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/electron.json +32 -0
- package/locales/fa-IR/models.json +126 -3
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/tool.json +25 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/electron.json +32 -0
- package/locales/fr-FR/models.json +126 -3
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/tool.json +25 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/electron.json +32 -0
- package/locales/it-IT/models.json +126 -3
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/tool.json +25 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/electron.json +32 -0
- package/locales/ja-JP/models.json +126 -3
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/tool.json +25 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/electron.json +32 -0
- package/locales/ko-KR/models.json +126 -3
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/tool.json +25 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/electron.json +32 -0
- package/locales/nl-NL/models.json +126 -3
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/tool.json +25 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/electron.json +32 -0
- package/locales/pl-PL/models.json +126 -3
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/tool.json +25 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/electron.json +32 -0
- package/locales/pt-BR/models.json +126 -3
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/tool.json +25 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/electron.json +32 -0
- package/locales/ru-RU/models.json +126 -3
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/tool.json +25 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/electron.json +32 -0
- package/locales/tr-TR/models.json +126 -3
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/tool.json +25 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/electron.json +32 -0
- package/locales/vi-VN/models.json +126 -3
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/tool.json +25 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/electron.json +32 -0
- package/locales/zh-CN/models.json +131 -8
- package/locales/zh-CN/plugin.json +1 -0
- package/locales/zh-CN/tool.json +25 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/electron.json +32 -0
- package/locales/zh-TW/models.json +126 -3
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/tool.json +25 -0
- package/package.json +3 -2
- package/packages/electron-client-ipc/src/events/index.ts +5 -5
- package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
- package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
- package/packages/electron-client-ipc/src/types/index.ts +2 -1
- package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
- package/scripts/prebuild.mts +5 -1
- package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
- package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
- package/src/features/User/UserPanel/useMenu.tsx +8 -1
- package/src/libs/agent-runtime/google/index.ts +3 -0
- package/src/libs/trpc/client/desktop.ts +14 -0
- package/src/locales/default/common.ts +2 -0
- package/src/locales/default/electron.ts +34 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/tool.ts +25 -0
- package/src/server/routers/desktop/index.ts +9 -0
- package/src/server/routers/desktop/pgTable.ts +43 -0
- package/src/services/electron/autoUpdate.ts +17 -0
- package/src/services/electron/file.ts +31 -0
- package/src/services/electron/localFileService.ts +39 -0
- package/src/services/electron/remoteServer.ts +40 -0
- package/src/store/chat/index.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
- package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
- package/src/store/chat/slices/plugin/action.ts +3 -3
- package/src/store/chat/store.ts +2 -0
- package/src/store/electron/actions/sync.ts +117 -0
- package/src/store/electron/index.ts +1 -0
- package/src/store/electron/initialState.ts +18 -0
- package/src/store/electron/selectors/index.ts +1 -0
- package/src/store/electron/selectors/sync.ts +9 -0
- package/src/store/electron/store.ts +29 -0
- package/src/tools/index.ts +8 -0
- package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
- package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
- package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
- package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
- package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
- package/src/tools/local-files/Render/index.tsx +36 -0
- package/src/tools/local-files/components/FileItem.tsx +117 -0
- package/src/tools/local-files/index.ts +149 -0
- package/src/tools/local-files/systemRole.ts +46 -0
- package/src/tools/local-files/type.ts +33 -0
- package/src/tools/renders.ts +3 -0
- package/packages/electron-client-ipc/src/events/search.ts +0 -4
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
- /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
@@ -5,9 +5,15 @@
|
|
5
5
|
"01-ai/yi-1.5-9b-chat": {
|
6
6
|
"description": "零一万物,最新开源微调模型,90亿参数,微调支持多种对话场景,高质量训练数据,对齐人类偏好。"
|
7
7
|
},
|
8
|
+
"360/deepseek-r1": {
|
9
|
+
"description": "【360部署版】DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
|
10
|
+
},
|
8
11
|
"360gpt-pro": {
|
9
12
|
"description": "360GPT Pro 作为 360 AI 模型系列的重要成员,以高效的文本处理能力满足多样化的自然语言应用场景,支持长文本理解和多轮对话等功能。"
|
10
13
|
},
|
14
|
+
"360gpt-pro-trans": {
|
15
|
+
"description": "翻译专用模型,深度微调优化,翻译效果领先。"
|
16
|
+
},
|
11
17
|
"360gpt-turbo": {
|
12
18
|
"description": "360GPT Turbo 提供强大的计算和对话能力,具备出色的语义理解和生成效率,是企业和开发者理想的智能助理解决方案。"
|
13
19
|
},
|
@@ -45,7 +51,7 @@
|
|
45
51
|
"description": "模型能力国内第一,在知识百科、长文本、生成创作等中文任务上超越国外主流模型。还具备行业领先的多模态能力,多项权威评测基准表现优异。"
|
46
52
|
},
|
47
53
|
"DeepSeek-R1": {
|
48
|
-
"description": "
|
54
|
+
"description": "DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。"
|
49
55
|
},
|
50
56
|
"DeepSeek-R1-Distill-Llama-70B": {
|
51
57
|
"description": "DeepSeek R1——DeepSeek 套件中更大更智能的模型——被蒸馏到 Llama 70B 架构中。基于基准测试和人工评估,该模型比原始 Llama 70B 更智能,尤其在需要数学和事实精确性的任务上表现出色。"
|
@@ -54,14 +60,26 @@
|
|
54
60
|
"description": "基于 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
55
61
|
},
|
56
62
|
"DeepSeek-R1-Distill-Qwen-14B": {
|
57
|
-
"description": "
|
63
|
+
"description": "DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由 DeepSeek-R1 生成的样本数据。"
|
58
64
|
},
|
59
65
|
"DeepSeek-R1-Distill-Qwen-32B": {
|
60
|
-
"description": "DeepSeek-R1
|
66
|
+
"description": "DeepSeek-R1-Distill 模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由 DeepSeek-R1 生成的样本数据。"
|
61
67
|
},
|
62
68
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
63
69
|
"description": "基于 Qwen2.5-Math-7B 的 DeepSeek-R1 蒸馏模型,通过强化学习与冷启动数据优化推理性能,开源模型刷新多任务标杆。"
|
64
70
|
},
|
71
|
+
"DeepSeek-V3": {
|
72
|
+
"description": "DeepSeek-V3 是一款由深度求索公司自研的MoE模型。DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。"
|
73
|
+
},
|
74
|
+
"Doubao-1.5-thinking-pro": {
|
75
|
+
"description": "Doubao-1.5全新深度思考模型,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。"
|
76
|
+
},
|
77
|
+
"Doubao-1.5-thinking-pro-vision": {
|
78
|
+
"description": "Doubao-1.5全新深度思考模型,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。支持128k上下文窗口,16k输出。"
|
79
|
+
},
|
80
|
+
"Doubao-1.5-vision-pro": {
|
81
|
+
"description": "Doubao-1.5-vision-pro 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。"
|
82
|
+
},
|
65
83
|
"Doubao-1.5-vision-pro-32k": {
|
66
84
|
"description": "Doubao-1.5-vision-pro 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。"
|
67
85
|
},
|
@@ -341,6 +359,15 @@
|
|
341
359
|
"SenseChat-Vision": {
|
342
360
|
"description": "最新版本模型 (V5.5),支持多图的输入,全面实现模型基础能力优化,在对象属性识别、空间关系、动作事件识别、场景理解、情感识别、逻辑常识推理和文本理解生成上都实现了较大提升。"
|
343
361
|
},
|
362
|
+
"SenseNova-V6-Pro": {
|
363
|
+
"description": "实现图片、文本、视频能力的原生统一,突破传统多模态分立局限,在OpenCompass和SuperCLUE评测中斩获双冠军。"
|
364
|
+
},
|
365
|
+
"SenseNova-V6-Reasoner": {
|
366
|
+
"description": "兼顾视觉、语言深度推理,实现慢思考和深度推理,呈现完整的思维链过程。"
|
367
|
+
},
|
368
|
+
"SenseNova-V6-Turbo": {
|
369
|
+
"description": "实现图片、文本、视频能力的原生统一,突破传统多模态分立局限,在多模基础能力、语言基础能力等核心维度全面领先,文理兼修,在多项测评中多次位列国内外第一梯队水平。"
|
370
|
+
},
|
344
371
|
"Skylark2-lite-8k": {
|
345
372
|
"description": "云雀(Skylark)第二代模型,Skylark2-lite模型有较高的响应速度,适用于实时性要求高、成本敏感、对模型精度要求不高的场景,上下文窗口长度为8k。"
|
346
373
|
},
|
@@ -356,6 +383,21 @@
|
|
356
383
|
"Skylark2-pro-turbo-8k": {
|
357
384
|
"description": "云雀(Skylark)第二代模型,Skylark2-pro-turbo-8k推理更快,成本更低,上下文窗口长度为8k。"
|
358
385
|
},
|
386
|
+
"THUDM/GLM-4-32B-0414": {
|
387
|
+
"description": "GLM-4-32B-0414 是 GLM 系列的新一代开源模型,拥有 320 亿参数。该模型性能可与 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列相媲美。"
|
388
|
+
},
|
389
|
+
"THUDM/GLM-4-9B-0414": {
|
390
|
+
"description": "GLM-4-9B-0414 是 GLM 系列的小型模型,拥有 90 亿参数。该模型继承了 GLM-4-32B 系列的技术特点,但提供了更轻量级的部署选择。尽管规模较小,GLM-4-9B-0414 仍在代码生成、网页设计、SVG 图形生成和基于搜索的写作等任务上展现出色能力。"
|
391
|
+
},
|
392
|
+
"THUDM/GLM-Z1-32B-0414": {
|
393
|
+
"description": "GLM-Z1-32B-0414 是一个具有深度思考能力的推理模型。该模型基于 GLM-4-32B-0414 通过冷启动和扩展强化学习开发,并在数学、代码和逻辑任务上进行了进一步训练。与基础模型相比,GLM-Z1-32B-0414 显著提升了数学能力和解决复杂任务的能力。"
|
394
|
+
},
|
395
|
+
"THUDM/GLM-Z1-9B-0414": {
|
396
|
+
"description": "GLM-Z1-9B-0414 是 GLM 系列的小型模型,仅有 90 亿参数,但保持了开源传统的同时展现出惊人的能力。尽管规模较小,该模型在数学推理和通用任务上仍表现出色,其总体性能在同等规模的开源模型中已处于领先水平。"
|
397
|
+
},
|
398
|
+
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
399
|
+
"description": "GLM-Z1-Rumination-32B-0414 是一个具有沉思能力的深度推理模型(与 OpenAI 的 Deep Research 对标)。与典型的深度思考模型不同,沉思模型采用更长时间的深度思考来解决更开放和复杂的问题。"
|
400
|
+
},
|
359
401
|
"THUDM/chatglm3-6b": {
|
360
402
|
"description": "ChatGLM3-6B 是 ChatGLM 系列的开源模型,由智谱 AI 开发。该模型保留了前代模型的优秀特性,如对话流畅和部署门槛低,同时引入了新的特性。它采用了更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的预训练模型中表现出色。ChatGLM3-6B 支持多轮对话、工具调用、代码执行和 Agent 任务等复杂场景。除对话模型外,还开源了基础模型 ChatGLM-6B-Base 和长文本对话模型 ChatGLM3-6B-32K。该模型对学术研究完全开放,在登记后也允许免费商业使用"
|
361
403
|
},
|
@@ -521,6 +563,9 @@
|
|
521
563
|
"charglm-3": {
|
522
564
|
"description": "CharGLM-3 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
|
523
565
|
},
|
566
|
+
"charglm-4": {
|
567
|
+
"description": "CharGLM-4 专为角色扮演与情感陪伴设计,支持超长多轮记忆与个性化对话,应用广泛。"
|
568
|
+
},
|
524
569
|
"chatglm3": {
|
525
570
|
"description": "ChatGLM3 是智谱 AI 与清华 KEG 实验室发布的闭源模型,经过海量中英标识符的预训练与人类偏好对齐训练,相比一代模型在 MMLU、C-Eval、GSM8K 分别取得了 16%、36%、280% 的提升,并登顶中文任务榜单 C-Eval。适用于对知识量、推理能力、创造力要求较高的场景,比如广告文案、小说写作、知识类写作、代码生成等。"
|
526
571
|
},
|
@@ -630,11 +675,20 @@
|
|
630
675
|
"description": "Command R+ 是一款高性能的大型语言模型,专为真实企业场景和复杂应用而设计。"
|
631
676
|
},
|
632
677
|
"command-r-plus-04-2024": {
|
678
|
+
"description": "command-r-plus 是 command-r-plus-04-2024 的别名,因此如果您在 API 中使用 command-r-plus,实际上指向的就是该模型。"
|
679
|
+
},
|
680
|
+
"command-r-plus-08-2024": {
|
633
681
|
"description": "Command R+ 是一个遵循指令的对话模型,在语言任务方面表现出更高的质量、更可靠,并且相比以往模型具有更长的上下文长度。它最适用于复杂的 RAG 工作流和多步工具使用。"
|
634
682
|
},
|
635
683
|
"command-r7b-12-2024": {
|
636
684
|
"description": "command-r7b-12-2024 是一个小型且高效的更新版本,于 2024 年 12 月发布。它在 RAG、工具使用、代理等需要复杂推理和多步处理的任务中表现出色。"
|
637
685
|
},
|
686
|
+
"compound-beta": {
|
687
|
+
"description": "Compound-beta 是一个复合 AI 系统,由 GroqCloud 中已经支持的多个开放可用的模型提供支持,可以智能地、有选择地使用工具来回答用户查询。"
|
688
|
+
},
|
689
|
+
"compound-beta-mini": {
|
690
|
+
"description": "Compound-beta-mini 是一个复合 AI 系统,由 GroqCloud 中已经支持的公开可用模型提供支持,可以智能地、有选择地使用工具来回答用户查询。"
|
691
|
+
},
|
638
692
|
"dall-e-2": {
|
639
693
|
"description": "第二代 DALL·E 模型,支持更真实、准确的图像生成,分辨率是第一代的4倍"
|
640
694
|
},
|
@@ -779,6 +833,18 @@
|
|
779
833
|
"deepseek/deepseek-v3/community": {
|
780
834
|
"description": "DeepSeek-V3在推理速度方面实现了比之前模型的重大突破。在开源模型中排名第一,并可与全球最先进的闭源模型相媲美。DeepSeek-V3 采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了全面验证。此外,DeepSeek-V3 开创了一种用于负载均衡的辅助无损策略,并设定了多标记预测训练目标以获得更强的性能。"
|
781
835
|
},
|
836
|
+
"deepseek_r1": {
|
837
|
+
"description": "DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。"
|
838
|
+
},
|
839
|
+
"deepseek_r1_distill_llama_70b": {
|
840
|
+
"description": "DeepSeek-R1-Distill-Llama-70B 是基于 Llama-3.3-70B-Instruct 经过蒸馏训练得到的模型。该模型是 DeepSeek-R1 系列的一部分,通过使用 DeepSeek-R1 生成的样本进行微调,在数学、编程和推理等多个领域展现出优秀的性能。"
|
841
|
+
},
|
842
|
+
"deepseek_r1_distill_qwen_14b": {
|
843
|
+
"description": "DeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。"
|
844
|
+
},
|
845
|
+
"deepseek_r1_distill_qwen_32b": {
|
846
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。"
|
847
|
+
},
|
782
848
|
"doubao-1.5-lite-32k": {
|
783
849
|
"description": "Doubao-1.5-lite 全新一代轻量版模型,极致响应速度,效果与时延均达到全球一流水平。"
|
784
850
|
},
|
@@ -788,6 +854,9 @@
|
|
788
854
|
"doubao-1.5-pro-32k": {
|
789
855
|
"description": "Doubao-1.5-pro 全新一代主力模型,性能全面升级,在知识、代码、推理、等方面表现卓越。"
|
790
856
|
},
|
857
|
+
"doubao-1.5-vision-lite": {
|
858
|
+
"description": "Doubao-1.5-vision-lite 全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。支持 128k 上下文窗口,输出长度支持最大 16k tokens。"
|
859
|
+
},
|
791
860
|
"emohaa": {
|
792
861
|
"description": "Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。"
|
793
862
|
},
|
@@ -953,6 +1022,9 @@
|
|
953
1022
|
"glm-4-air": {
|
954
1023
|
"description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。"
|
955
1024
|
},
|
1025
|
+
"glm-4-air-250414": {
|
1026
|
+
"description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。"
|
1027
|
+
},
|
956
1028
|
"glm-4-airx": {
|
957
1029
|
"description": "GLM-4-AirX 提供 GLM-4-Air 的高效版本,推理速度可达其2.6倍。"
|
958
1030
|
},
|
@@ -962,6 +1034,9 @@
|
|
962
1034
|
"glm-4-flash": {
|
963
1035
|
"description": "GLM-4-Flash 是处理简单任务的理想选择,速度最快且免费。"
|
964
1036
|
},
|
1037
|
+
"glm-4-flash-250414": {
|
1038
|
+
"description": "GLM-4-Flash 是处理简单任务的理想选择,速度最快且免费。"
|
1039
|
+
},
|
965
1040
|
"glm-4-flashx": {
|
966
1041
|
"description": "GLM-4-FlashX 是Flash的增强版本,超快推理速度。"
|
967
1042
|
},
|
@@ -980,6 +1055,18 @@
|
|
980
1055
|
"glm-4v-plus": {
|
981
1056
|
"description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。"
|
982
1057
|
},
|
1058
|
+
"glm-4v-plus-0111": {
|
1059
|
+
"description": "GLM-4V-Plus 具备对视频内容及多图片的理解能力,适合多模态任务。"
|
1060
|
+
},
|
1061
|
+
"glm-z1-air": {
|
1062
|
+
"description": "推理模型: 具备强大推理能力,适用于需要深度推理的任务。"
|
1063
|
+
},
|
1064
|
+
"glm-z1-airx": {
|
1065
|
+
"description": "极速推理:具有超快的推理速度和强大的推理效果。"
|
1066
|
+
},
|
1067
|
+
"glm-z1-flash": {
|
1068
|
+
"description": "GLM-Z1 系列具备强大的复杂推理能力,在逻辑推理、数学、编程等领域表现优异。最大上下文长度为32K。"
|
1069
|
+
},
|
983
1070
|
"glm-zero-preview": {
|
984
1071
|
"description": "GLM-Zero-Preview具备强大的复杂推理能力,在逻辑推理、数学、编程等领域表现优异。"
|
985
1072
|
},
|
@@ -1074,7 +1161,7 @@
|
|
1074
1161
|
"description": "GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。"
|
1075
1162
|
},
|
1076
1163
|
"gpt-4.1-nano": {
|
1077
|
-
"description": "GPT-4.1
|
1164
|
+
"description": "GPT-4.1 nano 是最快,最具成本效益的GPT-4.1模型。"
|
1078
1165
|
},
|
1079
1166
|
"gpt-4.5-preview": {
|
1080
1167
|
"description": "GPT-4.5 的研究预览版,它是我们迄今为止最大、最强大的 GPT 模型。它拥有广泛的世界知识,并能更好地理解用户意图,使其在创造性任务和自主规划方面表现出色。GPT-4.5 可接受文本和图像输入,并生成文本输出(包括结构化输出)。支持关键的开发者功能,如函数调用、批量 API 和流式输出。在需要创造性、开放式思考和对话的任务(如写作、学习或探索新想法)中,GPT-4.5 表现尤为出色。知识截止日期为 2023 年 10 月。"
|
@@ -1199,12 +1286,15 @@
|
|
1199
1286
|
"hunyuan-turbos-20250226": {
|
1200
1287
|
"description": "hunyuan-TurboS pv2.1.2 固定版本预训练底座训练token 数升级;数学/逻辑/代码等思考能力提升;中英文通用体验效果提升,包括文本创作、文本理解、知识问答、闲聊等。"
|
1201
1288
|
},
|
1202
|
-
"hunyuan-turbos-20250313": {
|
1203
|
-
"description": "统一数学解题步骤的风格,加强数学多轮问答。文本创作优化回答风格,去除AI味,增加文采。"
|
1204
|
-
},
|
1205
1289
|
"hunyuan-turbos-latest": {
|
1206
1290
|
"description": "hunyuan-TurboS 混元旗舰大模型最新版本,具备更强的思考能力,更优的体验效果。"
|
1207
1291
|
},
|
1292
|
+
"hunyuan-turbos-longtext-128k-20250325": {
|
1293
|
+
"description": "擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力。在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求。"
|
1294
|
+
},
|
1295
|
+
"hunyuan-turbos-vision": {
|
1296
|
+
"description": "此模型适用于图文理解场景,是基于混元最新 turbos 的新一代视觉语言旗舰大模型,聚焦图文理解相关任务,包括基于图片的实体识别、知识问答、文案创作、拍照解题等方面,相比前一代模型全面提升。"
|
1297
|
+
},
|
1208
1298
|
"hunyuan-vision": {
|
1209
1299
|
"description": "混元最新多模态模型,支持图片+文本输入生成文本内容。"
|
1210
1300
|
},
|
@@ -1223,6 +1313,12 @@
|
|
1223
1313
|
"internlm3-latest": {
|
1224
1314
|
"description": "我们最新的模型系列,有着卓越的推理性能,领跑同量级开源模型。默认指向我们最新发布的 InternLM3 系列模型,当前指向 internlm3-8b-instruct。"
|
1225
1315
|
},
|
1316
|
+
"jamba-large": {
|
1317
|
+
"description": "我们最强大、最先进的模型,专为处理企业级复杂任务而设计,具备卓越的性能。"
|
1318
|
+
},
|
1319
|
+
"jamba-mini": {
|
1320
|
+
"description": "在同级别中最高效的模型,兼顾速度与质量,具备更小的体积。"
|
1321
|
+
},
|
1226
1322
|
"jina-deepsearch-v1": {
|
1227
1323
|
"description": "深度搜索结合了网络搜索、阅读和推理,可进行全面调查。您可以将其视为一个代理,接受您的研究任务 - 它会进行广泛搜索并经过多次迭代,然后才能给出答案。这个过程涉及持续的研究、推理和从各个角度解决问题。这与直接从预训练数据生成答案的标准大模型以及依赖一次性表面搜索的传统 RAG 系统有着根本的不同。"
|
1228
1324
|
},
|
@@ -1568,8 +1664,17 @@
|
|
1568
1664
|
"o1-preview": {
|
1569
1665
|
"description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
|
1570
1666
|
},
|
1667
|
+
"o3": {
|
1668
|
+
"description": "o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。"
|
1669
|
+
},
|
1571
1670
|
"o3-mini": {
|
1572
|
-
"description": "o3-mini
|
1671
|
+
"description": "o3-mini 在与 o1-mini 相同的成本和延迟目标下提供高智能。"
|
1672
|
+
},
|
1673
|
+
"o3-mini-high": {
|
1674
|
+
"description": "o3-mini 高推理等级版,在与 o1-mini 相同的成本和延迟目标下提供高智能。"
|
1675
|
+
},
|
1676
|
+
"o4-mini": {
|
1677
|
+
"description": "o4-mini 是我们最新的小型 o 系列模型。 它专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。"
|
1573
1678
|
},
|
1574
1679
|
"open-codestral-mamba": {
|
1575
1680
|
"description": "Codestral Mamba是专注于代码生成的Mamba 2语言模型,为先进的代码和推理任务提供强力支持。"
|
@@ -1598,6 +1703,12 @@
|
|
1598
1703
|
"openai/o1-preview": {
|
1599
1704
|
"description": "o1是OpenAI新的推理模型,适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
|
1600
1705
|
},
|
1706
|
+
"openai/o4-mini": {
|
1707
|
+
"description": "o4-mini 专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。"
|
1708
|
+
},
|
1709
|
+
"openai/o4-mini-high": {
|
1710
|
+
"description": "o4-mini 高推理等级版,专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。"
|
1711
|
+
},
|
1601
1712
|
"openrouter/auto": {
|
1602
1713
|
"description": "根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我调节)或 GPT-4o。"
|
1603
1714
|
},
|
@@ -1793,6 +1904,9 @@
|
|
1793
1904
|
"qwq-plus-latest": {
|
1794
1905
|
"description": "基于 Qwen2.5 模型训练的 QwQ 推理模型,通过强化学习大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、LiveCodeBench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平。"
|
1795
1906
|
},
|
1907
|
+
"qwq_32b": {
|
1908
|
+
"description": "Qwen 系列中等规模的推理模型。与传统的指令调优模型相比,具备思考和推理能力的 QwQ 在下游任务中,尤其是在解决难题时,能够显著提升性能。"
|
1909
|
+
},
|
1796
1910
|
"r1-1776": {
|
1797
1911
|
"description": "R1-1776 是 DeepSeek R1 模型的一个版本,经过后训练,可提供未经审查、无偏见的事实信息。"
|
1798
1912
|
},
|
@@ -1851,14 +1965,23 @@
|
|
1851
1965
|
"description": "小型视觉模型,适合基本的图文任务。"
|
1852
1966
|
},
|
1853
1967
|
"step-2-16k": {
|
1968
|
+
"description": "支持大规模上下文交互,适合复杂对话场景。"
|
1969
|
+
},
|
1970
|
+
"step-2-16k-exp": {
|
1854
1971
|
"description": "step-2模型的实验版本,包含最新的特性,滚动更新中。不推荐在正式生产环境使用。"
|
1855
1972
|
},
|
1856
1973
|
"step-2-mini": {
|
1857
1974
|
"description": "基于新一代自研Attention架构MFA的极速大模型,用极低成本达到和step1类似的效果,同时保持了更高的吞吐和更快响应时延。能够处理通用任务,在代码能力上具备特长。"
|
1858
1975
|
},
|
1976
|
+
"step-r1-v-mini": {
|
1977
|
+
"description": "该模型是拥有强大的图像理解能力的推理大模型,能够处理图像和文字信息,经过深度思考后输出文本生成文本内容。该模型在视觉推理领域表现突出,同时拥有第一梯队的数学、代码、文本推理能力。上下文长度为100k。"
|
1978
|
+
},
|
1859
1979
|
"taichu_llm": {
|
1860
1980
|
"description": "基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力"
|
1861
1981
|
},
|
1982
|
+
"taichu_o1": {
|
1983
|
+
"description": "taichu_o1是新一代推理大模型,通过多模态交互和强化学习实现类人思维链,支持复杂决策推演,在保持高精度输出的同时展现可模型推理的思维路径,适用于策略分析与深度思考等场景。"
|
1984
|
+
},
|
1862
1985
|
"taichu_vl": {
|
1863
1986
|
"description": "融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出"
|
1864
1987
|
},
|
package/locales/zh-CN/tool.json
CHANGED
@@ -7,6 +7,20 @@
|
|
7
7
|
"images": "图片:",
|
8
8
|
"prompt": "提示词"
|
9
9
|
},
|
10
|
+
"localFiles": {
|
11
|
+
"file": "文件",
|
12
|
+
"folder": "文件夹",
|
13
|
+
"open": "打开",
|
14
|
+
"openFile": "打开文件",
|
15
|
+
"openFolder": "打开文件夹",
|
16
|
+
"read": {
|
17
|
+
"more": "查看更多"
|
18
|
+
},
|
19
|
+
"readFile": "读取文件",
|
20
|
+
"readFileError": "读取文件失败,请检查文件路径是否正确",
|
21
|
+
"readFiles": "读取文件",
|
22
|
+
"readFilesError": "读取文件失败,请检查文件路径是否正确"
|
23
|
+
},
|
10
24
|
"search": {
|
11
25
|
"createNewSearch": "创建新的搜索记录",
|
12
26
|
"emptyResult": "没有搜索到结果,请修改关键词后重试",
|
@@ -53,5 +67,16 @@
|
|
53
67
|
"summary": "总结",
|
54
68
|
"summaryTooltip": "总结当前内容",
|
55
69
|
"viewMoreResults": "查看更多 {{results}} 个结果"
|
70
|
+
},
|
71
|
+
"updateArgs": {
|
72
|
+
"duplicateKeyError": "字段键必须唯一",
|
73
|
+
"form": {
|
74
|
+
"add": "添加一项",
|
75
|
+
"key": "字段键",
|
76
|
+
"value": "字段值"
|
77
|
+
},
|
78
|
+
"formValidationFailed": "表单验证失败,请检查参数格式",
|
79
|
+
"keyRequired": "字段键不能为空",
|
80
|
+
"stringifyError": "无法序列化参数,请检查参数格式"
|
56
81
|
}
|
57
82
|
}
|
@@ -0,0 +1,32 @@
|
|
1
|
+
{
|
2
|
+
"remoteServer": {
|
3
|
+
"authError": "授權失敗: {{error}}",
|
4
|
+
"authPending": "請在瀏覽器中完成授權",
|
5
|
+
"configDesc": "連接到遠端LobeChat伺服器,啟用資料同步",
|
6
|
+
"configError": "配置出錯",
|
7
|
+
"configTitle": "配置雲端同步",
|
8
|
+
"connect": "連接並授權",
|
9
|
+
"connected": "已連接",
|
10
|
+
"disconnect": "斷開連接",
|
11
|
+
"disconnectError": "斷開連接失敗",
|
12
|
+
"disconnected": "未連接",
|
13
|
+
"fetchError": "獲取配置失敗",
|
14
|
+
"invalidUrl": "請輸入有效的URL地址",
|
15
|
+
"serverUrl": "伺服器地址",
|
16
|
+
"statusConnected": "已連接",
|
17
|
+
"statusDisconnected": "未連接",
|
18
|
+
"urlRequired": "請輸入伺服器地址"
|
19
|
+
},
|
20
|
+
"updater": {
|
21
|
+
"downloadingUpdate": "正在下載更新",
|
22
|
+
"downloadingUpdateDesc": "更新正在下載中,請稍候...",
|
23
|
+
"later": "稍後更新",
|
24
|
+
"newVersionAvailable": "新版本可用",
|
25
|
+
"newVersionAvailableDesc": "發現新版本 {{version}},是否立即下載?",
|
26
|
+
"restartAndInstall": "重啟並安裝",
|
27
|
+
"updateError": "更新錯誤",
|
28
|
+
"updateReady": "更新已就緒",
|
29
|
+
"updateReadyDesc": "Lobe Chat {{version}} 已下載完成,重啟應用後即可完成安裝。",
|
30
|
+
"upgradeNow": "立即更新"
|
31
|
+
}
|
32
|
+
}
|