@lobehub/lobehub 2.0.0-next.50 → 2.0.0-next.52

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (171) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
  3. package/apps/desktop/src/main/controllers/ShellCommandCtr.ts +242 -0
  4. package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
  5. package/apps/desktop/src/main/controllers/__tests__/ShellCommandCtr.test.ts +499 -0
  6. package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
  7. package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
  8. package/changelog/v1.json +18 -0
  9. package/locales/ar/chat.json +20 -0
  10. package/locales/ar/common.json +1 -0
  11. package/locales/ar/components.json +6 -0
  12. package/locales/ar/models.json +119 -126
  13. package/locales/ar/plugin.json +2 -1
  14. package/locales/bg-BG/chat.json +20 -0
  15. package/locales/bg-BG/common.json +1 -0
  16. package/locales/bg-BG/components.json +6 -0
  17. package/locales/bg-BG/models.json +104 -132
  18. package/locales/bg-BG/plugin.json +2 -1
  19. package/locales/de-DE/chat.json +20 -0
  20. package/locales/de-DE/common.json +1 -0
  21. package/locales/de-DE/components.json +6 -0
  22. package/locales/de-DE/models.json +119 -126
  23. package/locales/de-DE/plugin.json +2 -1
  24. package/locales/en-US/chat.json +20 -0
  25. package/locales/en-US/common.json +1 -0
  26. package/locales/en-US/components.json +6 -0
  27. package/locales/en-US/models.json +167 -126
  28. package/locales/en-US/plugin.json +2 -1
  29. package/locales/es-ES/chat.json +20 -0
  30. package/locales/es-ES/common.json +1 -0
  31. package/locales/es-ES/components.json +6 -0
  32. package/locales/es-ES/models.json +119 -126
  33. package/locales/es-ES/plugin.json +2 -1
  34. package/locales/fa-IR/chat.json +20 -0
  35. package/locales/fa-IR/common.json +1 -0
  36. package/locales/fa-IR/components.json +6 -0
  37. package/locales/fa-IR/models.json +119 -126
  38. package/locales/fa-IR/plugin.json +2 -1
  39. package/locales/fr-FR/chat.json +20 -0
  40. package/locales/fr-FR/common.json +1 -0
  41. package/locales/fr-FR/components.json +6 -0
  42. package/locales/fr-FR/models.json +119 -126
  43. package/locales/fr-FR/plugin.json +2 -1
  44. package/locales/it-IT/chat.json +20 -0
  45. package/locales/it-IT/common.json +1 -0
  46. package/locales/it-IT/components.json +6 -0
  47. package/locales/it-IT/models.json +119 -126
  48. package/locales/it-IT/plugin.json +2 -1
  49. package/locales/ja-JP/chat.json +20 -0
  50. package/locales/ja-JP/common.json +1 -0
  51. package/locales/ja-JP/components.json +6 -0
  52. package/locales/ja-JP/models.json +119 -126
  53. package/locales/ja-JP/plugin.json +2 -1
  54. package/locales/ko-KR/chat.json +20 -0
  55. package/locales/ko-KR/common.json +1 -0
  56. package/locales/ko-KR/components.json +6 -0
  57. package/locales/ko-KR/models.json +119 -126
  58. package/locales/ko-KR/plugin.json +2 -1
  59. package/locales/nl-NL/chat.json +20 -0
  60. package/locales/nl-NL/common.json +1 -0
  61. package/locales/nl-NL/components.json +6 -0
  62. package/locales/nl-NL/models.json +119 -126
  63. package/locales/nl-NL/plugin.json +2 -1
  64. package/locales/pl-PL/chat.json +20 -0
  65. package/locales/pl-PL/common.json +1 -0
  66. package/locales/pl-PL/components.json +6 -0
  67. package/locales/pl-PL/models.json +119 -126
  68. package/locales/pl-PL/plugin.json +2 -1
  69. package/locales/pt-BR/chat.json +20 -0
  70. package/locales/pt-BR/common.json +1 -0
  71. package/locales/pt-BR/components.json +6 -0
  72. package/locales/pt-BR/models.json +119 -126
  73. package/locales/pt-BR/plugin.json +2 -1
  74. package/locales/ru-RU/chat.json +20 -0
  75. package/locales/ru-RU/common.json +1 -0
  76. package/locales/ru-RU/components.json +6 -0
  77. package/locales/ru-RU/models.json +119 -126
  78. package/locales/ru-RU/plugin.json +2 -1
  79. package/locales/tr-TR/chat.json +20 -0
  80. package/locales/tr-TR/common.json +1 -0
  81. package/locales/tr-TR/components.json +6 -0
  82. package/locales/tr-TR/models.json +119 -126
  83. package/locales/tr-TR/plugin.json +2 -1
  84. package/locales/vi-VN/chat.json +20 -0
  85. package/locales/vi-VN/common.json +1 -0
  86. package/locales/vi-VN/components.json +6 -0
  87. package/locales/vi-VN/models.json +119 -126
  88. package/locales/vi-VN/plugin.json +2 -1
  89. package/locales/zh-CN/chat.json +20 -0
  90. package/locales/zh-CN/common.json +1 -0
  91. package/locales/zh-CN/components.json +6 -0
  92. package/locales/zh-CN/models.json +173 -80
  93. package/locales/zh-CN/plugin.json +2 -1
  94. package/locales/zh-TW/chat.json +20 -0
  95. package/locales/zh-TW/common.json +1 -0
  96. package/locales/zh-TW/components.json +6 -0
  97. package/locales/zh-TW/models.json +119 -126
  98. package/locales/zh-TW/plugin.json +2 -1
  99. package/package.json +1 -1
  100. package/packages/agent-runtime/src/core/InterventionChecker.ts +1 -1
  101. package/packages/agent-runtime/src/core/__tests__/InterventionChecker.test.ts +23 -23
  102. package/packages/agent-runtime/src/types/state.ts +7 -1
  103. package/packages/const/src/settings/tool.ts +1 -5
  104. package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
  105. package/packages/file-loaders/src/loaders/docx/index.ts +1 -1
  106. package/packages/model-bank/src/aiModels/wenxin.ts +1348 -291
  107. package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
  108. package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
  109. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
  110. package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
  111. package/packages/model-runtime/src/providers/wenxin/index.ts +22 -1
  112. package/packages/model-runtime/src/utils/modelParse.ts +6 -0
  113. package/packages/types/src/tool/builtin.ts +15 -4
  114. package/packages/types/src/tool/intervention.ts +32 -2
  115. package/packages/types/src/user/settings/tool.ts +3 -27
  116. package/src/config/modelProviders/wenxin.ts +2 -3
  117. package/src/features/Conversation/MarkdownElements/remarkPlugins/__snapshots__/createRemarkSelfClosingTagPlugin.test.ts.snap +133 -0
  118. package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.test.ts +48 -0
  119. package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.ts +2 -1
  120. package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  121. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/Fallback.tsx +98 -0
  122. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/ModeSelector.tsx +5 -6
  123. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +40 -36
  124. package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  125. package/src/features/Conversation/Messages/Group/Tool/Render/index.tsx +25 -18
  126. package/src/features/LocalFile/LocalFile.tsx +55 -5
  127. package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
  128. package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
  129. package/src/locales/default/components.ts +6 -0
  130. package/src/locales/default/plugin.ts +2 -1
  131. package/src/services/chat/chat.test.ts +1 -0
  132. package/src/services/electron/localFileService.ts +4 -0
  133. package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
  134. package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
  135. package/src/store/chat/agents/GeneralChatAgent.ts +26 -1
  136. package/src/store/chat/agents/__tests__/GeneralChatAgent.test.ts +173 -0
  137. package/src/store/chat/slices/aiChat/actions/conversationControl.ts +8 -40
  138. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +91 -34
  139. package/src/store/user/selectors.ts +1 -0
  140. package/src/store/user/slices/settings/action.ts +12 -0
  141. package/src/store/user/slices/settings/selectors/__snapshots__/settings.test.ts.snap +0 -7
  142. package/src/store/user/slices/settings/selectors/index.ts +1 -0
  143. package/src/store/user/slices/settings/selectors/settings.test.ts +0 -37
  144. package/src/store/user/slices/settings/selectors/settings.ts +0 -5
  145. package/src/store/user/slices/settings/selectors/toolIntervention.ts +17 -0
  146. package/src/tools/code-interpreter/Render/index.tsx +1 -1
  147. package/src/tools/interventions.ts +32 -0
  148. package/src/tools/local-system/Intervention/RunCommand/index.tsx +56 -0
  149. package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
  150. package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
  151. package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
  152. package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
  153. package/src/tools/local-system/Render/RunCommand/index.tsx +103 -27
  154. package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
  155. package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
  156. package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
  157. package/src/tools/local-system/index.ts +184 -4
  158. package/src/tools/local-system/systemRole.ts +62 -8
  159. package/src/tools/placeholders.ts +39 -8
  160. package/src/tools/renders.ts +56 -9
  161. package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
  162. package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
  163. package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
  164. package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
  165. package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
  166. package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
  167. package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
  168. package/src/tools/local-system/Placeholder/index.tsx +0 -25
  169. package/src/tools/local-system/Render/index.tsx +0 -40
  170. package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
  171. package/src/tools/web-browsing/Render/index.tsx +0 -57
@@ -1049,6 +1049,9 @@
1049
1049
  "deepseek-r1-0528": {
1050
1050
  "description": "685B 满血版模型,2025年5月28日发布。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能较高,能力较强。"
1051
1051
  },
1052
+ "deepseek-r1-250528": {
1053
+ "description": "DeepSeek R1 250528,满血版 DeepSeek-R1 推理模型,适合高难度数学和逻辑任务。"
1054
+ },
1052
1055
  "deepseek-r1-70b-fast-online": {
1053
1056
  "description": "DeepSeek R1 70B 快速版,支持实时联网搜索,在保持模型性能的同时提供更快的响应速度。"
1054
1057
  },
@@ -1059,31 +1062,34 @@
1059
1062
  "description": "deepseek-r1-distill-llama 是基于 Llama 从 DeepSeek-R1 蒸馏而来的模型。"
1060
1063
  },
1061
1064
  "deepseek-r1-distill-llama-70b": {
1062
- "description": "DeepSeek-R1-Distill-Llama-70B是DeepSeek-R1基于Llama3.3-70B-Instruct的蒸馏模型。"
1065
+ "description": "DeepSeek R1 Distill Llama 70B,通用 R1 推理能力与 Llama 生态结合的蒸馏模型。"
1063
1066
  },
1064
1067
  "deepseek-r1-distill-llama-8b": {
1065
- "description": "DeepSeek-R1-Distill-Llama-8B是DeepSeek-R1基于Llama3.1-8B-Base的蒸馏模型。"
1068
+ "description": "DeepSeek-R1-Distill-Llama-8B 是一个基于 Llama-3.1-8B 的蒸馏大型语言模型,使用了 DeepSeek R1 的输出。"
1066
1069
  },
1067
- "deepseek-r1-distill-qianfan-llama-70b": {
1068
- "description": "2025年2月14日首次发布,由千帆大模型研发团队以 Llama3_70B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。"
1070
+ "deepseek-r1-distill-qianfan-70b": {
1071
+ "description": "DeepSeek R1 Distill Qianfan 70B,基于 Qianfan-70B 的 R1 蒸馏模型,性价比高。"
1069
1072
  },
1070
- "deepseek-r1-distill-qianfan-llama-8b": {
1071
- "description": "2025年2月14日首次发布,由千帆大模型研发团队以 Llama3_8B为base模型(Built with Meta Llama)蒸馏所得,蒸馏数据中也同步添加了千帆的语料。"
1073
+ "deepseek-r1-distill-qianfan-8b": {
1074
+ "description": "DeepSeek R1 Distill Qianfan 8B,基于 Qianfan-8B 的 R1 蒸馏模型,适合中小型应用。"
1075
+ },
1076
+ "deepseek-r1-distill-qianfan-llama-70b": {
1077
+ "description": "DeepSeek R1 Distill Qianfan Llama 70B,基于 Llama-70B 的 R1 蒸馏模型。"
1072
1078
  },
1073
1079
  "deepseek-r1-distill-qwen": {
1074
1080
  "description": "deepseek-r1-distill-qwen 是基于 Qwen 从 DeepSeek-R1 蒸馏而来的模型。"
1075
1081
  },
1076
1082
  "deepseek-r1-distill-qwen-1.5b": {
1077
- "description": "DeepSeek-R1-Distill-Qwen-1.5B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
1083
+ "description": "DeepSeek R1 Distill Qwen 1.5B,超轻量 R1 蒸馏模型,适用于极低资源环境。"
1078
1084
  },
1079
1085
  "deepseek-r1-distill-qwen-14b": {
1080
- "description": "DeepSeek-R1-Distill-Qwen-14B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
1086
+ "description": "DeepSeek R1 Distill Qwen 14B,中等规模 R1 蒸馏模型,适合多场景部署。"
1081
1087
  },
1082
1088
  "deepseek-r1-distill-qwen-32b": {
1083
- "description": "DeepSeek-R1-Distill-Qwen-32B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
1089
+ "description": "DeepSeek R1 Distill Qwen 32B,基于 Qwen-32BR1 蒸馏模型,平衡性能与成本。"
1084
1090
  },
1085
1091
  "deepseek-r1-distill-qwen-7b": {
1086
- "description": "DeepSeek-R1-Distill-Qwen-7B是DeepSeek-R1基于Qwen-2.5系列的蒸馏模型。"
1092
+ "description": "DeepSeek R1 Distill Qwen 7B,轻量级 R1 蒸馏模型,适合边缘与企业私有化环境。"
1087
1093
  },
1088
1094
  "deepseek-r1-fast-online": {
1089
1095
  "description": "DeepSeek R1 满血快速版,支持实时联网搜索,结合了 671B 参数的强大能力和更快的响应速度。"
@@ -1112,12 +1118,24 @@
1112
1118
  "deepseek-v3.1-terminus": {
1113
1119
  "description": "DeepSeek-V3.1-Terminus 是深度求索推出的终端优化版本大语言模型,专为终端设备优化。"
1114
1120
  },
1121
+ "deepseek-v3.1-think-250821": {
1122
+ "description": "DeepSeek V3.1 Think 250821,对应 Terminus 版本的深度思考模型,适用于高性能推理场景。"
1123
+ },
1115
1124
  "deepseek-v3.1:671b": {
1116
1125
  "description": "DeepSeek V3.1:下一代推理模型,提升了复杂推理与链路思考能力,适合需要深入分析的任务。"
1117
1126
  },
1118
1127
  "deepseek-v3.2-exp": {
1119
1128
  "description": "deepseek-v3.2-exp 引入稀疏注意力机制,旨在提升处理长文本时的训练与推理效率,价格低于 deepseek-v3.1。"
1120
1129
  },
1130
+ "deepseek-v3.2-think": {
1131
+ "description": "DeepSeek V3.2 Think,满血版深度思考模型,强化长链路推理能力。"
1132
+ },
1133
+ "deepseek-vl2": {
1134
+ "description": "DeepSeek VL2,多模态模型,支持图文理解与细粒度视觉问答。"
1135
+ },
1136
+ "deepseek-vl2-small": {
1137
+ "description": "DeepSeek VL2 Small,轻量多模态版本,适用于资源受限与高并发场景。"
1138
+ },
1121
1139
  "deepseek/deepseek-chat-v3-0324": {
1122
1140
  "description": "DeepSeek V3 是一个 685B 参数的专家混合模型,是 DeepSeek 团队旗舰聊天模型系列的最新迭代。\n\n它继承了 [DeepSeek V3](/deepseek/deepseek-chat-v3) 模型,并在各种任务上表现出色。"
1123
1141
  },
@@ -1253,83 +1271,89 @@
1253
1271
  "emohaa": {
1254
1272
  "description": "Emohaa 是心理模型,具备专业咨询能力,帮助用户理解情感问题。"
1255
1273
  },
1256
- "ernie-3.5-128k": {
1257
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
1258
- },
1259
- "ernie-3.5-8k": {
1260
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
1261
- },
1262
- "ernie-3.5-8k-preview": {
1263
- "description": "百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。"
1264
- },
1265
- "ernie-4.0-8k-latest": {
1266
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
1267
- },
1268
- "ernie-4.0-8k-preview": {
1269
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。"
1270
- },
1271
- "ernie-4.0-turbo-128k": {
1272
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
1273
- },
1274
- "ernie-4.0-turbo-8k-latest": {
1275
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
1276
- },
1277
- "ernie-4.0-turbo-8k-preview": {
1278
- "description": "百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀"
1274
+ "ernie-4.5-0.3b": {
1275
+ "description": "ERNIE 4.5 0.3B,开源轻量版模型,适合作为本地和定制化部署方案。"
1279
1276
  },
1280
1277
  "ernie-4.5-21b-a3b": {
1281
- "description": "ERNIE 4.5 21B A3B 是百度文心推出的混合专家模型,具备强大的推理和多语言能力。"
1278
+ "description": "ERNIE 4.5 21B A3B,开源大参数版模型,在理解和生成任务上表现更强。"
1282
1279
  },
1283
1280
  "ernie-4.5-300b-a47b": {
1284
1281
  "description": "ERNIE 4.5 300B A47B 是百度文心推出的超大规模混合专家模型,具备卓越的推理能力。"
1285
1282
  },
1286
1283
  "ernie-4.5-8k-preview": {
1287
- "description": "文心大模型4.5是百度自主研发的新一代原生多模态基础大模型,通过多个模态联合建模实现协同优化,多模态理解能力优秀;具备更精进的语言能力,理解、生成、逻辑、记忆能力全面提升,去幻觉、逻辑推理、代码能力显著提升。"
1284
+ "description": "ERNIE 4.5 8K Preview,8K 上下文预览模型,用于体验与测试文心 4.5 能力。"
1288
1285
  },
1289
1286
  "ernie-4.5-turbo-128k": {
1290
- "description": "文心4.5 Turbo在去幻觉、逻辑推理和代码能力等方面也有着明显增强。对比文心4.5,速度更快、价格更低。模型能力全面提升,更好满足多轮长历史对话处理、长文档理解问答任务。"
1287
+ "description": "ERNIE 4.5 Turbo 128K,高性能通用模型,支持搜索增强与工具调用,适用于问答、代码、智能体等多种业务场景。"
1288
+ },
1289
+ "ernie-4.5-turbo-128k-preview": {
1290
+ "description": "ERNIE 4.5 Turbo 128K 预览版,提供与正式版一致的能力体验,适合联调和灰度测试。"
1291
1291
  },
1292
1292
  "ernie-4.5-turbo-32k": {
1293
- "description": "文心4.5 Turbo在去幻觉、逻辑推理和代码能力等方面也有着明显增强。对比文心4.5,速度更快、价格更低。文本创作、知识问答等能力提升显著。输出长度及整句时延相较ERNIE 4.5有所增加。"
1293
+ "description": "ERNIE 4.5 Turbo 32K,中长上下文版本,适用于问答、知识库检索和多轮对话等场景。"
1294
+ },
1295
+ "ernie-4.5-turbo-latest": {
1296
+ "description": "ERNIE 4.5 Turbo 最新版,综合性能优化,适合作为生产环境通用主力模型。"
1297
+ },
1298
+ "ernie-4.5-turbo-vl": {
1299
+ "description": "ERNIE 4.5 Turbo VL,成熟多模态模型,适合生产环境中的图文理解与识别任务。"
1294
1300
  },
1295
1301
  "ernie-4.5-turbo-vl-32k": {
1296
- "description": "文心一言大模型全新版本,图片理解、创作、翻译、代码等能力显著提升,首次支持32K上下文长度,首Token时延显著降低。"
1302
+ "description": "ERNIE 4.5 Turbo VL 32K,中长文本多模态版本,适用于长文档+图片联合理解。"
1303
+ },
1304
+ "ernie-4.5-turbo-vl-32k-preview": {
1305
+ "description": "ERNIE 4.5 Turbo VL 32K Preview,多模态 32K 预览版,便于评估长上下文视觉能力。"
1306
+ },
1307
+ "ernie-4.5-turbo-vl-latest": {
1308
+ "description": "ERNIE 4.5 Turbo VL Latest,多模态最新版本,提供更优图文理解与推理效果。"
1309
+ },
1310
+ "ernie-4.5-turbo-vl-preview": {
1311
+ "description": "ERNIE 4.5 Turbo VL Preview,多模态预览模型,支持图文理解与生成,适合视觉问答与内容理解体验。"
1312
+ },
1313
+ "ernie-4.5-vl-28b-a3b": {
1314
+ "description": "ERNIE 4.5 VL 28B A3B,多模态开源模型,支持图文理解与推理任务。"
1315
+ },
1316
+ "ernie-5.0-thinking-preview": {
1317
+ "description": "文心5.0 Thinking 预览版,原生全模态旗舰模型,支持文本、图像、音频、视频统一建模,综合能力全面升级,适用于复杂问答、创作与智能体场景。"
1297
1318
  },
1298
1319
  "ernie-char-8k": {
1299
- "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
1320
+ "description": "ERNIE Character 8K,角色人格对话模型,适合 IP 角色构建与长期陪伴对话。"
1300
1321
  },
1301
1322
  "ernie-char-fiction-8k": {
1302
- "description": "百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优。"
1323
+ "description": "ERNIE Character Fiction 8K,面向小说与剧情创作的人格模型,适合长文本故事生成。"
1324
+ },
1325
+ "ernie-char-fiction-8k-preview": {
1326
+ "description": "ERNIE Character Fiction 8K Preview,人物与剧情创作模型预览版,用于功能体验与测试。"
1303
1327
  },
1304
1328
  "ernie-irag-edit": {
1305
- "description": "百度自研的ERNIE iRAG Edit图像编辑模型支持基于图片进行erase(消除对象)、repaint(重绘对象)、variation(生成变体)等操作。"
1329
+ "description": "ERNIE iRAG Edit,支持图片擦除、重绘与变体生成的图像编辑模型。"
1306
1330
  },
1307
1331
  "ernie-lite-8k": {
1308
- "description": "ERNIE Lite是百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。"
1332
+ "description": "ERNIE Lite 8K,轻量级通用模型,适合对成本敏感的日常问答和内容生成场景。"
1309
1333
  },
1310
1334
  "ernie-lite-pro-128k": {
1311
- "description": "百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,效果比ERNIE Lite更优,适合低算力AI加速卡推理使用。"
1335
+ "description": "ERNIE Lite Pro 128K,轻量高性能模型,适合对延迟和成本敏感的业务场景。"
1312
1336
  },
1313
1337
  "ernie-novel-8k": {
1314
- "description": "百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。"
1338
+ "description": "ERNIE Novel 8K,长篇小说与 IP 剧情创作模型,擅长多角色、多线叙事。"
1315
1339
  },
1316
1340
  "ernie-speed-128k": {
1317
- "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
1341
+ "description": "ERNIE Speed 128K,免输入输出费用的大模型,适合长文本理解与大规模试用场景。"
1342
+ },
1343
+ "ernie-speed-8k": {
1344
+ "description": "ERNIE Speed 8K,免费快速模型,适合日常对话和轻量文本任务。"
1318
1345
  },
1319
1346
  "ernie-speed-pro-128k": {
1320
- "description": "百度2024年最新发布的自研高性能大语言模型,通用能力优异,效果比ERNIE Speed更优,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。"
1347
+ "description": "ERNIE Speed Pro 128K,高并发高性价比模型,适合大规模在线服务与企业应用。"
1321
1348
  },
1322
1349
  "ernie-tiny-8k": {
1323
- "description": "ERNIE Tiny是百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。"
1324
- },
1325
- "ernie-x1-32k": {
1326
- "description": "具备更强的理解、规划、反思、进化能力。作为能力更全面的深度思考模型,文心X1兼备准确、创意和文采,在中文知识问答、文学创作、文稿写作、日常对话、逻辑推理、复杂计算及工具调用等方面表现尤为出色。"
1327
- },
1328
- "ernie-x1-32k-preview": {
1329
- "description": "文心大模型X1具备更强的理解、规划、反思、进化能力。作为能力更全面的深度思考模型,文心X1兼备准确、创意和文采,在中文知识问答、文学创作、文稿写作、日常对话、逻辑推理、复杂计算及工具调用等方面表现尤为出色。"
1350
+ "description": "ERNIE Tiny 8K,极轻量模型,适合简单问答、分类等低成本推理场景。"
1330
1351
  },
1331
1352
  "ernie-x1-turbo-32k": {
1332
- "description": "ERNIE-X1-32K相比,模型效果和性能更好。"
1353
+ "description": "ERNIE X1 Turbo 32K,高速思考模型,32K 长上下文,适合复杂推理与多轮对话。"
1354
+ },
1355
+ "ernie-x1.1-preview": {
1356
+ "description": "ERNIE X1.1 Preview,ERNIE X1.1 思考模型预览版,适合能力验证与测试。"
1333
1357
  },
1334
1358
  "fal-ai/bytedance/seedream/v4": {
1335
1359
  "description": "Seedream 4.0 图片生成模型由字节跳动 Seed 团队研发,支持文字与图片输入,提供高可控、高质量的图片生成体验。基于文本提示词生成图片。"
@@ -1389,7 +1413,7 @@
1389
1413
  "description": "FLUX.1 [schnell] 作为目前开源最先进的少步模型,不仅超越了同类竞争者,甚至还优于诸如 Midjourney v6.0 和 DALL·E 3 (HD) 等强大的非精馏模型。该模型经过专门微调,以保留预训练阶段的全部输出多样性,相较于当前市场上的最先进模型,FLUX.1 [schnell] 显著提升了在视觉质量、指令遵从、尺寸/比例变化、字体处理及输出多样性等方面的可能,为用户带来更为丰富多样的创意图像生成体验。"
1390
1414
  },
1391
1415
  "flux.1-schnell": {
1392
- "description": "具有120亿参数的修正流变换器,能够根据文本描述生成图像。"
1416
+ "description": "FLUX.1-schnell,高性能图像生成模型,适合快速生成多风格图片。"
1393
1417
  },
1394
1418
  "gemini-1.0-pro-001": {
1395
1419
  "description": "Gemini 1.0 Pro 001 (Tuning) 提供稳定并可调优的性能,是复杂任务解决方案的理想选择。"
@@ -1538,6 +1562,9 @@
1538
1562
  "glm-4-0520": {
1539
1563
  "description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。"
1540
1564
  },
1565
+ "glm-4-32b-0414": {
1566
+ "description": "GLM-4 32B 0414,GLM 系列通用大模型版本,支持多任务文本生成与理解。"
1567
+ },
1541
1568
  "glm-4-9b-chat": {
1542
1569
  "description": "GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面均表现出较高性能。还具备网页浏览、代码执行、自定义工具调用和长文本推理。 支持包括日语,韩语,德语在内的 26 种语言。"
1543
1570
  },
@@ -2036,14 +2063,26 @@
2036
2063
  "internlm3-latest": {
2037
2064
  "description": "我们最新的模型系列,有着卓越的推理性能,领跑同量级开源模型。默认指向我们最新发布的 InternLM3 系列模型,当前指向 internlm3-8b-instruct。"
2038
2065
  },
2066
+ "internvl2.5-38b-mpo": {
2067
+ "description": "InternVL2.5 38B MPO,多模态预训练模型,支持复杂图文推理任务。"
2068
+ },
2039
2069
  "internvl2.5-latest": {
2040
2070
  "description": "我们仍在维护的 InternVL2.5 版本,具备优异且稳定的性能。默认指向我们最新发布的 InternVL2.5 系列模型,当前指向 internvl2.5-78b。"
2041
2071
  },
2072
+ "internvl3-14b": {
2073
+ "description": "InternVL3 14B,中等规模多模态模型,在性能与成本间取得平衡。"
2074
+ },
2075
+ "internvl3-1b": {
2076
+ "description": "InternVL3 1B,轻量多模态模型,适合资源受限环境部署。"
2077
+ },
2078
+ "internvl3-38b": {
2079
+ "description": "InternVL3 38B,大规模多模态开源模型,适用于高精度图文理解任务。"
2080
+ },
2042
2081
  "internvl3-latest": {
2043
2082
  "description": "我们最新发布多模态大模型,具备更强的图文理解能力、长时序图片理解能力,性能比肩顶尖闭源模型。默认指向我们最新发布的 InternVL 系列模型,当前指向 internvl3-78b。"
2044
2083
  },
2045
2084
  "irag-1.0": {
2046
- "description": "百度自研的iRAG(image based RAG),检索增强的文生图技术,将百度搜索的亿级图片资源跟强大的基础模型能力相结合,就可以生成各种超真实的图片,整体效果远远超过文生图原生系统,去掉了AI味儿,而且成本很低。iRAG具备无幻觉、超真实、立等可取等特点。"
2085
+ "description": "ERNIE iRAG,图像检索增强生成模型,支持以图搜图、图文检索与内容生成。"
2047
2086
  },
2048
2087
  "jamba-large": {
2049
2088
  "description": "我们最强大、最先进的模型,专为处理企业级复杂任务而设计,具备卓越的性能。"
@@ -2064,7 +2103,7 @@
2064
2103
  "description": "kimi-k2-0905-preview 模型上下文长度为 256k,具备更强的 Agentic Coding 能力、更突出的前端代码的美观度和实用性、以及更好的上下文理解能力。"
2065
2104
  },
2066
2105
  "kimi-k2-instruct": {
2067
- "description": "Kimi K2 Instruct 是月之暗面推出的大语言模型,具有超长上下文处理能力。"
2106
+ "description": "Kimi K2 Instruct,Kimi 官方推理模型,支持长上下文与代码、问答等多场景。"
2068
2107
  },
2069
2108
  "kimi-k2-turbo-preview": {
2070
2109
  "description": "kimi-k2 是一款具备超强代码和 Agent 能力的 MoE 架构基础模型,总参数 1T,激活参数 32B。在通用知识推理、编程、数学、Agent 等主要类别的基准性能测试中,K2 模型的性能超过其他主流开源模型。"
@@ -2735,6 +2774,54 @@
2735
2774
  "pro-deepseek-v3": {
2736
2775
  "description": "企业专属服务专用模型,包并发服务。"
2737
2776
  },
2777
+ "qianfan-70b": {
2778
+ "description": "Qianfan 70B,大参数中文模型,适合高质量内容生成与复杂推理任务。"
2779
+ },
2780
+ "qianfan-8b": {
2781
+ "description": "Qianfan 8B,中型通用模型,适合成本与效果平衡的文本生成和问答场景。"
2782
+ },
2783
+ "qianfan-agent-intent-32k": {
2784
+ "description": "Qianfan Agent Intent 32K,面向意图识别与智能体编排的模型,支持长上下文场景。"
2785
+ },
2786
+ "qianfan-agent-lite-8k": {
2787
+ "description": "Qianfan Agent Lite 8K,轻量智能体模型,适合低成本多轮对话与业务编排。"
2788
+ },
2789
+ "qianfan-agent-speed-32k": {
2790
+ "description": "Qianfan Agent Speed 32K,高流控智能体模型,适合大规模、多任务 Agent 应用。"
2791
+ },
2792
+ "qianfan-agent-speed-8k": {
2793
+ "description": "Qianfan Agent Speed 8K,面向中短对话与快速响应的高并发智能体模型。"
2794
+ },
2795
+ "qianfan-check-vl": {
2796
+ "description": "Qianfan Check VL,多模态内容审核与检测模型,支持图文合规与识别任务。"
2797
+ },
2798
+ "qianfan-composition": {
2799
+ "description": "Qianfan Composition,多模态创作模型,支持图文混合理解与生成。"
2800
+ },
2801
+ "qianfan-engcard-vl": {
2802
+ "description": "Qianfan EngCard VL,专注英文场景的多模态识别模型。"
2803
+ },
2804
+ "qianfan-lightning-128b-a19b": {
2805
+ "description": "Qianfan Lightning 128B A19B,高性能中文通用模型,适用于复杂问答与大规模推理任务。"
2806
+ },
2807
+ "qianfan-llama-vl-8b": {
2808
+ "description": "Qianfan Llama VL 8B,基于 Llama 的多模态模型,面向通用图文理解任务。"
2809
+ },
2810
+ "qianfan-multipicocr": {
2811
+ "description": "Qianfan MultiPicOCR,多图 OCR 模型,支持多张图片文字检测与识别。"
2812
+ },
2813
+ "qianfan-qi-vl": {
2814
+ "description": "Qianfan QI VL,多模态问答模型,支持复杂图文场景下的精准检索与问答。"
2815
+ },
2816
+ "qianfan-singlepicocr": {
2817
+ "description": "Qianfan SinglePicOCR,单图 OCR 模型,支持高精度字符识别。"
2818
+ },
2819
+ "qianfan-vl-70b": {
2820
+ "description": "Qianfan VL 70B,大参数视觉语言模型,适用于复杂图文理解场景。"
2821
+ },
2822
+ "qianfan-vl-8b": {
2823
+ "description": "Qianfan VL 8B,轻量视觉语言模型,适合日常图文问答和分析。"
2824
+ },
2738
2825
  "qvq-72b-preview": {
2739
2826
  "description": "QVQ-72B-Preview 是由 Qwen 团队开发的实验性研究模型,专注于提升视觉推理能力。"
2740
2827
  },
@@ -2886,7 +2973,7 @@
2886
2973
  "description": "通义千问2.5对外开源的72B规模的模型。"
2887
2974
  },
2888
2975
  "qwen2.5-7b-instruct": {
2889
- "description": "通义千问2.5对外开源的7B规模的模型。"
2976
+ "description": "Qwen2.5 7B Instruct,成熟的开源指令模型,适用于多场景对话与生成。"
2890
2977
  },
2891
2978
  "qwen2.5-coder-1.5b-instruct": {
2892
2979
  "description": "通义千问代码模型开源版。"
@@ -2919,13 +3006,13 @@
2919
3006
  "description": "Qwen-Omni 系列模型支持输入多种模态的数据,包括视频、音频、图片、文本,并输出音频与文本。"
2920
3007
  },
2921
3008
  "qwen2.5-vl-32b-instruct": {
2922
- "description": "Qwen2.5VL系列模型,在math和学科问题解答达到了接近Qwen2.5VL-72B的水平,回复风格面向人类偏好进行大幅调整,尤其是数学、逻辑推理、知识问答等客观类query,模型回复详实程度和格式清晰度明显改善。此版本为32B版本。"
3009
+ "description": "Qwen2.5 VL 32B Instruct,多模态开源模型,适合私有化部署与多场景应用。"
2923
3010
  },
2924
3011
  "qwen2.5-vl-72b-instruct": {
2925
3012
  "description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
2926
3013
  },
2927
3014
  "qwen2.5-vl-7b-instruct": {
2928
- "description": "指令跟随、数学、解题、代码整体提升,万物识别能力提升,支持多样格式直接精准定位视觉元素,支持对长视频文件(最长10分钟)进行理解和秒级别的事件时刻定位,能理解时间先后和快慢,基于解析和定位能力支持操控OS或Mobile的Agent,关键信息抽取能力和Json格式输出能力强,此版本为72B版本,本系列能力最强的版本。"
3015
+ "description": "Qwen2.5 VL 7B Instruct,轻量多模态模型,兼顾部署成本与识别能力。"
2929
3016
  },
2930
3017
  "qwen2.5-vl-instruct": {
2931
3018
  "description": "Qwen2.5-VL 是 Qwen 模型家族中视觉语言模型的最新版本。"
@@ -2952,46 +3039,46 @@
2952
3039
  "description": "Qwen3 是阿里巴巴的新一代大规模语言模型,以优异的性能支持多元化的应用需求。"
2953
3040
  },
2954
3041
  "qwen3-0.6b": {
2955
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3042
+ "description": "Qwen3 0.6B,入门级模型,适用于简单推理和资源极度受限环境。"
2956
3043
  },
2957
3044
  "qwen3-1.7b": {
2958
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3045
+ "description": "Qwen3 1.7B,超轻量模型,便于边缘与终端部署。"
2959
3046
  },
2960
3047
  "qwen3-14b": {
2961
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3048
+ "description": "Qwen3 14B,中型模型,适合多语言问答与文本生成。"
2962
3049
  },
2963
3050
  "qwen3-235b-a22b": {
2964
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3051
+ "description": "Qwen3 235B A22B,通用大模型,面向多种复杂任务。"
2965
3052
  },
2966
3053
  "qwen3-235b-a22b-instruct-2507": {
2967
- "description": "基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-235B-A22B)主观创作能力与模型安全性均有小幅度提升。"
3054
+ "description": "Qwen3 235B A22B Instruct 2507,通用旗舰 Instruct 模型,适合多种生成与推理任务。"
2968
3055
  },
2969
3056
  "qwen3-235b-a22b-thinking-2507": {
2970
- "description": "基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-235B-A22B)逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景。"
3057
+ "description": "Qwen3 235B A22B Thinking 2507,超大规模思考模型,适用于高难度推理。"
2971
3058
  },
2972
3059
  "qwen3-30b-a3b": {
2973
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3060
+ "description": "Qwen3 30B A3B,中大型通用模型,在成本与效果间平衡。"
2974
3061
  },
2975
3062
  "qwen3-30b-a3b-instruct-2507": {
2976
- "description": "相较上一版本(Qwen3-30B-A3B)中英文和多语言整体通用能力有大幅提升。主观开放类任务专项优化,显著更加符合用户偏好,能够提供更有帮助性的回复。"
3063
+ "description": "Qwen3 30B A3B Instruct 2507,中大型 Instruct 模型,适合高质量生成与问答。"
2977
3064
  },
2978
3065
  "qwen3-30b-a3b-thinking-2507": {
2979
- "description": "基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-30B-A3B)逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景。"
3066
+ "description": "Qwen3 30B A3B Thinking 2507,中大型思考模型,兼顾精度与成本。"
2980
3067
  },
2981
3068
  "qwen3-32b": {
2982
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3069
+ "description": "Qwen3 32B,适合需要更强理解能力的通用任务场景。"
2983
3070
  },
2984
3071
  "qwen3-4b": {
2985
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3072
+ "description": "Qwen3 4B,适合中小型应用和本地推理场景。"
2986
3073
  },
2987
3074
  "qwen3-8b": {
2988
- "description": "Qwen3是一款能力大幅提升的新一代通义千问大模型,在推理、通用、Agent和多语言等多个核心能力上均达到业界领先水平,并支持思考模式切换。"
3075
+ "description": "Qwen3 8B,轻量模型,部署灵活,适用于高并发业务。"
2989
3076
  },
2990
3077
  "qwen3-coder-30b-a3b-instruct": {
2991
3078
  "description": "通义千问代码模型开源版。最新的 qwen3-coder-30b-a3b-instruct 是基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程、代码能力卓越的同时兼具通用能力。"
2992
3079
  },
2993
3080
  "qwen3-coder-480b-a35b-instruct": {
2994
- "description": "通义千问代码模型开源版。最新的 qwen3-coder-480b-a35b-instruct 是基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程、代码能力卓越的同时兼具通用能力。"
3081
+ "description": "Qwen3 Coder 480B A35B Instruct,旗舰级代码模型,支持多语言编程与复杂代码理解。"
2995
3082
  },
2996
3083
  "qwen3-coder-flash": {
2997
3084
  "description": "通义千问代码模型。最新的 Qwen3-Coder 系列模型是基于 Qwen3 的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程,代码能力卓越的同时兼具通用能力。"
@@ -3009,28 +3096,34 @@
3009
3096
  "description": "基于 Qwen3 的新一代非思考模式开源模型,相较上一版本(通义千问3-235B-A22B-Instruct-2507)中文文本理解能力更佳、逻辑推理能力有增强、文本生成类任务表现更好。"
3010
3097
  },
3011
3098
  "qwen3-next-80b-a3b-thinking": {
3012
- "description": "基于 Qwen3 的新一代思考模式开源模型,相较上一版本(通义千问3-235B-A22B-Thinking-2507)指令遵循能力有提升、模型总结回复更加精简。"
3099
+ "description": "Qwen3 Next 80B A3B Thinking,面向复杂任务的旗舰推理模型版本。"
3013
3100
  },
3014
3101
  "qwen3-omni-flash": {
3015
3102
  "description": "Qwen-Omni 模型能够接收文本、图片、音频、视频等多种模态的组合输入,并生成文本或语音形式的回复, 提供多种拟人音色,支持多语言和方言的语音输出,可应用于文本创作、视觉识别、语音助手等场景。"
3016
3103
  },
3017
3104
  "qwen3-vl-235b-a22b-instruct": {
3018
- "description": "Qwen3 VL 235B A22B 非思考模式(Instruct),适用于非思考指令场景,保持强大的视觉理解能力。"
3105
+ "description": "Qwen3 VL 235B A22B Instruct,旗舰多模态模型,面向高要求理解与创作场景。"
3019
3106
  },
3020
3107
  "qwen3-vl-235b-a22b-thinking": {
3021
- "description": "Qwen3 VL 235B A22B 思考模式(开源版),针对高难度强推理与长视频理解场景,提供顶尖的视觉+文本推理能力。"
3108
+ "description": "Qwen3 VL 235B A22B Thinking,旗舰思考版,用于复杂多模态推理与规划任务。"
3022
3109
  },
3023
3110
  "qwen3-vl-30b-a3b-instruct": {
3024
- "description": "Qwen3 VL 30B 非思考模式(Instruct),面向普通指令跟随场景,保持较高的多模态理解与生成能力。"
3111
+ "description": "Qwen3 VL 30B A3B Instruct,多模态大模型,兼顾精度与推理性能。"
3025
3112
  },
3026
3113
  "qwen3-vl-30b-a3b-thinking": {
3027
- "description": "Qwen-VL(开源版)提供视觉理解与文本生成能力,支持智能体交互、视觉编码、空间感知、长视频理解与深度思考,并在复杂场景下具备更强的文字识别与多语言支持。"
3114
+ "description": "Qwen3 VL 30B A3B Thinking,面向复杂多模态任务的深度思考版本。"
3115
+ },
3116
+ "qwen3-vl-32b-instruct": {
3117
+ "description": "Qwen3 VL 32B Instruct,多模态指令微调模型,适用于高质量图文问答与创作。"
3118
+ },
3119
+ "qwen3-vl-32b-thinking": {
3120
+ "description": "Qwen3 VL 32B Thinking,多模态深度思考版本,强化复杂推理与长链路分析。"
3028
3121
  },
3029
3122
  "qwen3-vl-8b-instruct": {
3030
- "description": "Qwen3 VL 8B 非思考模式(Instruct),适合常规多模态生成与识别任务。"
3123
+ "description": "Qwen3 VL 8B Instruct,轻量多模态模型,适合日常视觉问答与应用集成。"
3031
3124
  },
3032
3125
  "qwen3-vl-8b-thinking": {
3033
- "description": "Qwen3 VL 8B 思考模式,面向轻量级多模态推理与交互场景,保留长上下文理解能力。"
3126
+ "description": "Qwen3 VL 8B Thinking,多模态思维链模型,适合对视觉信息进行细致推理。"
3034
3127
  },
3035
3128
  "qwen3-vl-flash": {
3036
3129
  "description": "Qwen3 VL Flash:轻量化高速推理版本,适合对延迟敏感或大批量请求场景。"
@@ -255,10 +255,11 @@
255
255
  "moveLocalFiles": "移动文件",
256
256
  "readLocalFile": "读取文件内容",
257
257
  "renameLocalFile": "重命名",
258
+ "runCommand": "执行代码",
258
259
  "searchLocalFiles": "搜索文件",
259
260
  "writeLocalFile": "写入文件"
260
261
  },
261
- "title": "本地文件"
262
+ "title": "本地系统"
262
263
  },
263
264
  "mcpInstall": {
264
265
  "CHECKING_INSTALLATION": "检查安装环境...",
@@ -369,6 +369,26 @@
369
369
  "remained": "剩餘",
370
370
  "used": "使用"
371
371
  },
372
+ "tool": {
373
+ "intervention": {
374
+ "approve": "批准",
375
+ "approveAndRemember": "批准並記住",
376
+ "approveOnce": "僅本次批准",
377
+ "mode": {
378
+ "allowList": "白名單",
379
+ "allowListDesc": "僅自動執行已批准的工具",
380
+ "autoRun": "自動批准",
381
+ "autoRunDesc": "自動批准所有工具執行",
382
+ "manual": "手動",
383
+ "manualDesc": "每次調用都需要手動批准"
384
+ },
385
+ "reject": "拒絕",
386
+ "rejectReasonPlaceholder": "輸入拒絕原因將幫助 Agent 理解並優化後續行動",
387
+ "rejectTitle": "拒絕本次工具調用",
388
+ "rejectedWithReason": "本次工具調用被主動拒絕:{{reason}}",
389
+ "toolRejected": "本次工具調用被主動拒絕"
390
+ }
391
+ },
372
392
  "topic": {
373
393
  "checkOpenNewTopic": "是否開啟新主題?",
374
394
  "checkSaveCurrentMessages": "是否將當前對話保存為話題?",
@@ -135,6 +135,7 @@
135
135
  }
136
136
  },
137
137
  "close": "關閉",
138
+ "confirm": "確認",
138
139
  "contact": "聯繫我們",
139
140
  "copy": "複製",
140
141
  "copyFail": "複製失敗",
@@ -106,6 +106,12 @@
106
106
  "keyPlaceholder": "鍵",
107
107
  "valuePlaceholder": "值"
108
108
  },
109
+ "LocalFile": {
110
+ "action": {
111
+ "open": "開啟",
112
+ "showInFolder": "在資料夾中顯示"
113
+ }
114
+ },
109
115
  "MaxTokenSlider": {
110
116
  "unlimited": "無限制"
111
117
  },