@lobehub/lobehub 2.0.0-next.50 → 2.0.0-next.52
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
- package/apps/desktop/src/main/controllers/ShellCommandCtr.ts +242 -0
- package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
- package/apps/desktop/src/main/controllers/__tests__/ShellCommandCtr.test.ts +499 -0
- package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
- package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +20 -0
- package/locales/ar/common.json +1 -0
- package/locales/ar/components.json +6 -0
- package/locales/ar/models.json +119 -126
- package/locales/ar/plugin.json +2 -1
- package/locales/bg-BG/chat.json +20 -0
- package/locales/bg-BG/common.json +1 -0
- package/locales/bg-BG/components.json +6 -0
- package/locales/bg-BG/models.json +104 -132
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/de-DE/chat.json +20 -0
- package/locales/de-DE/common.json +1 -0
- package/locales/de-DE/components.json +6 -0
- package/locales/de-DE/models.json +119 -126
- package/locales/de-DE/plugin.json +2 -1
- package/locales/en-US/chat.json +20 -0
- package/locales/en-US/common.json +1 -0
- package/locales/en-US/components.json +6 -0
- package/locales/en-US/models.json +167 -126
- package/locales/en-US/plugin.json +2 -1
- package/locales/es-ES/chat.json +20 -0
- package/locales/es-ES/common.json +1 -0
- package/locales/es-ES/components.json +6 -0
- package/locales/es-ES/models.json +119 -126
- package/locales/es-ES/plugin.json +2 -1
- package/locales/fa-IR/chat.json +20 -0
- package/locales/fa-IR/common.json +1 -0
- package/locales/fa-IR/components.json +6 -0
- package/locales/fa-IR/models.json +119 -126
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fr-FR/chat.json +20 -0
- package/locales/fr-FR/common.json +1 -0
- package/locales/fr-FR/components.json +6 -0
- package/locales/fr-FR/models.json +119 -126
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/it-IT/chat.json +20 -0
- package/locales/it-IT/common.json +1 -0
- package/locales/it-IT/components.json +6 -0
- package/locales/it-IT/models.json +119 -126
- package/locales/it-IT/plugin.json +2 -1
- package/locales/ja-JP/chat.json +20 -0
- package/locales/ja-JP/common.json +1 -0
- package/locales/ja-JP/components.json +6 -0
- package/locales/ja-JP/models.json +119 -126
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ko-KR/chat.json +20 -0
- package/locales/ko-KR/common.json +1 -0
- package/locales/ko-KR/components.json +6 -0
- package/locales/ko-KR/models.json +119 -126
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/nl-NL/chat.json +20 -0
- package/locales/nl-NL/common.json +1 -0
- package/locales/nl-NL/components.json +6 -0
- package/locales/nl-NL/models.json +119 -126
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/pl-PL/chat.json +20 -0
- package/locales/pl-PL/common.json +1 -0
- package/locales/pl-PL/components.json +6 -0
- package/locales/pl-PL/models.json +119 -126
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pt-BR/chat.json +20 -0
- package/locales/pt-BR/common.json +1 -0
- package/locales/pt-BR/components.json +6 -0
- package/locales/pt-BR/models.json +119 -126
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/ru-RU/chat.json +20 -0
- package/locales/ru-RU/common.json +1 -0
- package/locales/ru-RU/components.json +6 -0
- package/locales/ru-RU/models.json +119 -126
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/tr-TR/chat.json +20 -0
- package/locales/tr-TR/common.json +1 -0
- package/locales/tr-TR/components.json +6 -0
- package/locales/tr-TR/models.json +119 -126
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/vi-VN/chat.json +20 -0
- package/locales/vi-VN/common.json +1 -0
- package/locales/vi-VN/components.json +6 -0
- package/locales/vi-VN/models.json +119 -126
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/zh-CN/chat.json +20 -0
- package/locales/zh-CN/common.json +1 -0
- package/locales/zh-CN/components.json +6 -0
- package/locales/zh-CN/models.json +173 -80
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-TW/chat.json +20 -0
- package/locales/zh-TW/common.json +1 -0
- package/locales/zh-TW/components.json +6 -0
- package/locales/zh-TW/models.json +119 -126
- package/locales/zh-TW/plugin.json +2 -1
- package/package.json +1 -1
- package/packages/agent-runtime/src/core/InterventionChecker.ts +1 -1
- package/packages/agent-runtime/src/core/__tests__/InterventionChecker.test.ts +23 -23
- package/packages/agent-runtime/src/types/state.ts +7 -1
- package/packages/const/src/settings/tool.ts +1 -5
- package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
- package/packages/file-loaders/src/loaders/docx/index.ts +1 -1
- package/packages/model-bank/src/aiModels/wenxin.ts +1348 -291
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
- package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
- package/packages/model-runtime/src/providers/wenxin/index.ts +22 -1
- package/packages/model-runtime/src/utils/modelParse.ts +6 -0
- package/packages/types/src/tool/builtin.ts +15 -4
- package/packages/types/src/tool/intervention.ts +32 -2
- package/packages/types/src/user/settings/tool.ts +3 -27
- package/src/config/modelProviders/wenxin.ts +2 -3
- package/src/features/Conversation/MarkdownElements/remarkPlugins/__snapshots__/createRemarkSelfClosingTagPlugin.test.ts.snap +133 -0
- package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.test.ts +48 -0
- package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.ts +2 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/Fallback.tsx +98 -0
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/ModeSelector.tsx +5 -6
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +40 -36
- package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/Group/Tool/Render/index.tsx +25 -18
- package/src/features/LocalFile/LocalFile.tsx +55 -5
- package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
- package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
- package/src/locales/default/components.ts +6 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/services/chat/chat.test.ts +1 -0
- package/src/services/electron/localFileService.ts +4 -0
- package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
- package/src/store/chat/agents/GeneralChatAgent.ts +26 -1
- package/src/store/chat/agents/__tests__/GeneralChatAgent.test.ts +173 -0
- package/src/store/chat/slices/aiChat/actions/conversationControl.ts +8 -40
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +91 -34
- package/src/store/user/selectors.ts +1 -0
- package/src/store/user/slices/settings/action.ts +12 -0
- package/src/store/user/slices/settings/selectors/__snapshots__/settings.test.ts.snap +0 -7
- package/src/store/user/slices/settings/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/settings.test.ts +0 -37
- package/src/store/user/slices/settings/selectors/settings.ts +0 -5
- package/src/store/user/slices/settings/selectors/toolIntervention.ts +17 -0
- package/src/tools/code-interpreter/Render/index.tsx +1 -1
- package/src/tools/interventions.ts +32 -0
- package/src/tools/local-system/Intervention/RunCommand/index.tsx +56 -0
- package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
- package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
- package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
- package/src/tools/local-system/Render/RunCommand/index.tsx +103 -27
- package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
- package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
- package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
- package/src/tools/local-system/index.ts +184 -4
- package/src/tools/local-system/systemRole.ts +62 -8
- package/src/tools/placeholders.ts +39 -8
- package/src/tools/renders.ts +56 -9
- package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
- package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
- package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
- package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
- package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
- package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
- package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
- package/src/tools/local-system/Placeholder/index.tsx +0 -25
- package/src/tools/local-system/Render/index.tsx +0 -40
- package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
- package/src/tools/web-browsing/Render/index.tsx +0 -57
|
@@ -1049,6 +1049,9 @@
|
|
|
1049
1049
|
"deepseek-r1-0528": {
|
|
1050
1050
|
"description": "Пълноценен модел с 685 милиарда параметри, пуснат на 28 май 2025 г. DeepSeek-R1 използва мащабно обучение с подсилване в последващия етап на обучение, значително подобрявайки способността за разсъждение с минимални анотирани данни. Отличава се с висока производителност и способности в задачи по математика, кодиране и естествен езиков разсъждения."
|
|
1051
1051
|
},
|
|
1052
|
+
"deepseek-r1-250528": {
|
|
1053
|
+
"description": "DeepSeek R1 250528, пълнофункционален модел за дедукция DeepSeek-R1, подходящ за сложни математически и логически задачи."
|
|
1054
|
+
},
|
|
1052
1055
|
"deepseek-r1-70b-fast-online": {
|
|
1053
1056
|
"description": "DeepSeek R1 70B бърза версия, поддържаща търсене в реално време, предлагаща по-бърза скорост на отговор, без да компрометира производителността на модела."
|
|
1054
1057
|
},
|
|
@@ -1059,31 +1062,34 @@
|
|
|
1059
1062
|
"description": "deepseek-r1-distill-llama е модел, дестилиран от DeepSeek-R1 на базата на Llama."
|
|
1060
1063
|
},
|
|
1061
1064
|
"deepseek-r1-distill-llama-70b": {
|
|
1062
|
-
"description": "DeepSeek R1
|
|
1065
|
+
"description": "DeepSeek R1 Distill Llama 70B, дистилиран модел, съчетаващ универсалните дедуктивни способности на R1 с екосистемата на Llama."
|
|
1063
1066
|
},
|
|
1064
1067
|
"deepseek-r1-distill-llama-8b": {
|
|
1065
|
-
"description": "
|
|
1068
|
+
"description": "DeepSeek-R1-Distill-Llama-8B е дистилиран голям езиков модел, базиран на Llama-3.1-8B, използващ изхода на DeepSeek R1."
|
|
1066
1069
|
},
|
|
1067
|
-
"deepseek-r1-distill-qianfan-
|
|
1068
|
-
"description": "
|
|
1070
|
+
"deepseek-r1-distill-qianfan-70b": {
|
|
1071
|
+
"description": "DeepSeek R1 Distill Qianfan 70B, дистилиран модел R1, базиран на Qianfan-70B, с високо съотношение цена/качество."
|
|
1069
1072
|
},
|
|
1070
|
-
"deepseek-r1-distill-qianfan-
|
|
1071
|
-
"description": "
|
|
1073
|
+
"deepseek-r1-distill-qianfan-8b": {
|
|
1074
|
+
"description": "DeepSeek R1 Distill Qianfan 8B, дистилиран модел R1, базиран на Qianfan-8B, подходящ за малки и средни приложения."
|
|
1075
|
+
},
|
|
1076
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
|
1077
|
+
"description": "DeepSeek R1 Distill Qianfan Llama 70B, дистилиран модел R1, базиран на Llama-70B."
|
|
1072
1078
|
},
|
|
1073
1079
|
"deepseek-r1-distill-qwen": {
|
|
1074
1080
|
"description": "deepseek-r1-distill-qwen е модел, базиран на Qwen, дестилиран от DeepSeek-R1."
|
|
1075
1081
|
},
|
|
1076
1082
|
"deepseek-r1-distill-qwen-1.5b": {
|
|
1077
|
-
"description": "
|
|
1083
|
+
"description": "DeepSeek R1 Distill Qwen 1.5B, ултралек дистилиран модел R1, подходящ за среди с изключително ограничени ресурси."
|
|
1078
1084
|
},
|
|
1079
1085
|
"deepseek-r1-distill-qwen-14b": {
|
|
1080
|
-
"description": "
|
|
1086
|
+
"description": "DeepSeek R1 Distill Qwen 14B, дистилиран модел R1 със среден мащаб, подходящ за разгръщане в различни сценарии."
|
|
1081
1087
|
},
|
|
1082
1088
|
"deepseek-r1-distill-qwen-32b": {
|
|
1083
|
-
"description": "
|
|
1089
|
+
"description": "DeepSeek R1 Distill Qwen 32B, дистилиран модел R1, базиран на Qwen-32B, балансиращ между производителност и разходи."
|
|
1084
1090
|
},
|
|
1085
1091
|
"deepseek-r1-distill-qwen-7b": {
|
|
1086
|
-
"description": "
|
|
1092
|
+
"description": "DeepSeek R1 Distill Qwen 7B, лек дистилиран модел R1, подходящ за edge устройства и частни корпоративни среди."
|
|
1087
1093
|
},
|
|
1088
1094
|
"deepseek-r1-fast-online": {
|
|
1089
1095
|
"description": "DeepSeek R1 пълна бърза версия, поддържаща търсене в реално време, комбинираща мощността на 671B параметри с по-бърза скорост на отговор."
|
|
@@ -1112,12 +1118,24 @@
|
|
|
1112
1118
|
"deepseek-v3.1-terminus": {
|
|
1113
1119
|
"description": "DeepSeek-V3.1-Terminus е оптимизирана версия на голям езиков модел от DeepSeek, създаден специално за крайни устройства."
|
|
1114
1120
|
},
|
|
1121
|
+
"deepseek-v3.1-think-250821": {
|
|
1122
|
+
"description": "DeepSeek V3.1 Think 250821, модел за дълбоко мислене, съответстващ на версията Terminus, подходящ за високопроизводителни дедуктивни задачи."
|
|
1123
|
+
},
|
|
1115
1124
|
"deepseek-v3.1:671b": {
|
|
1116
1125
|
"description": "DeepSeek V3.1: следващо поколение модел за разсъждение, подобряващ способностите за сложни разсъждения и свързано мислене, подходящ за задачи, изискващи задълбочен анализ."
|
|
1117
1126
|
},
|
|
1118
1127
|
"deepseek-v3.2-exp": {
|
|
1119
1128
|
"description": "deepseek-v3.2-exp въвежда механизъм за разредено внимание, с цел подобряване на ефективността при обучение и извод при обработка на дълги текстове, като цената е по-ниска от тази на deepseek-v3.1."
|
|
1120
1129
|
},
|
|
1130
|
+
"deepseek-v3.2-think": {
|
|
1131
|
+
"description": "DeepSeek V3.2 Think, пълнофункционален модел за дълбоко мислене, с подсилени способности за дълговерижна дедукция."
|
|
1132
|
+
},
|
|
1133
|
+
"deepseek-vl2": {
|
|
1134
|
+
"description": "DeepSeek VL2, мултимодален модел, поддържащ разбиране на изображения и текст, както и фино визуално въпроси-отговори."
|
|
1135
|
+
},
|
|
1136
|
+
"deepseek-vl2-small": {
|
|
1137
|
+
"description": "DeepSeek VL2 Small, олекотена мултимодална версия, подходяща за среди с ограничени ресурси и висока едновременност."
|
|
1138
|
+
},
|
|
1121
1139
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1122
1140
|
"description": "DeepSeek V3 е експертен смесен модел с 685B параметри, последната итерация на флагманската серия чат модели на екипа DeepSeek.\n\nТой наследява модела [DeepSeek V3](/deepseek/deepseek-chat-v3) и показва отлични резултати в различни задачи."
|
|
1123
1141
|
},
|
|
@@ -1253,83 +1271,89 @@
|
|
|
1253
1271
|
"emohaa": {
|
|
1254
1272
|
"description": "Emohaa е психологически модел с професионални консултантски способности, помагащ на потребителите да разберат емоционалните проблеми."
|
|
1255
1273
|
},
|
|
1256
|
-
"ernie-
|
|
1257
|
-
"description": "
|
|
1258
|
-
},
|
|
1259
|
-
"ernie-3.5-8k": {
|
|
1260
|
-
"description": "Флагманският голям езиков модел, разработен от Baidu, обхваща огромно количество китайски и английски текстове, притежаващ силни общи способности, способен да отговори на повечето изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения на плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
|
|
1261
|
-
},
|
|
1262
|
-
"ernie-3.5-8k-preview": {
|
|
1263
|
-
"description": "Флагманският голям езиков модел, разработен от Baidu, обхваща огромно количество китайски и английски текстове, притежаващ силни общи способности, способен да отговори на повечето изисквания за диалогови въпроси и отговори, генериране на съдържание и приложения на плъгини; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
|
|
1264
|
-
},
|
|
1265
|
-
"ernie-4.0-8k-latest": {
|
|
1266
|
-
"description": "Флагманският голям езиков модел, разработен от Baidu, с изключителни подобрения в сравнение с ERNIE 3.5, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
|
|
1267
|
-
},
|
|
1268
|
-
"ernie-4.0-8k-preview": {
|
|
1269
|
-
"description": "Флагманският голям езиков модел, разработен от Baidu, с изключителни подобрения в сравнение с ERNIE 3.5, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията."
|
|
1270
|
-
},
|
|
1271
|
-
"ernie-4.0-turbo-128k": {
|
|
1272
|
-
"description": "Флагманският голям езиков модел, разработен от Baidu, с отлични общи резултати, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията. В сравнение с ERNIE 4.0, показва по-добри резултати."
|
|
1273
|
-
},
|
|
1274
|
-
"ernie-4.0-turbo-8k-latest": {
|
|
1275
|
-
"description": "Флагманският голям езиков модел, разработен от Baidu, с отлични общи резултати, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията. В сравнение с ERNIE 4.0, показва по-добри резултати."
|
|
1276
|
-
},
|
|
1277
|
-
"ernie-4.0-turbo-8k-preview": {
|
|
1278
|
-
"description": "Флагманският голям езиков модел, разработен от Baidu, с отлични общи резултати, широко приложим в сложни задачи в различни области; поддържа автоматично свързване с плъгина за търсене на Baidu, осигурявайки актуалност на информацията. В сравнение с ERNIE 4.0, показва по-добри резултати."
|
|
1274
|
+
"ernie-4.5-0.3b": {
|
|
1275
|
+
"description": "ERNIE 4.5 0.3B, отворен и лек модел, подходящ за локално и персонализирано внедряване."
|
|
1279
1276
|
},
|
|
1280
1277
|
"ernie-4.5-21b-a3b": {
|
|
1281
|
-
"description": "ERNIE 4.5 21B A3B
|
|
1278
|
+
"description": "ERNIE 4.5 21B A3B, отворен модел с голям брой параметри, с по-добра производителност при задачи за разбиране и генериране."
|
|
1282
1279
|
},
|
|
1283
1280
|
"ernie-4.5-300b-a47b": {
|
|
1284
1281
|
"description": "ERNIE 4.5 300B A47B е мащабен хибриден експертен модел от Baidu Wenxin, отличаващ се с изключителни способности за извеждане на заключения."
|
|
1285
1282
|
},
|
|
1286
1283
|
"ernie-4.5-8k-preview": {
|
|
1287
|
-
"description": "
|
|
1284
|
+
"description": "ERNIE 4.5 8K Preview, модел с 8K контекст за предварителен преглед, предназначен за тестване на възможностите на Wenxin 4.5."
|
|
1288
1285
|
},
|
|
1289
1286
|
"ernie-4.5-turbo-128k": {
|
|
1290
|
-
"description": "
|
|
1287
|
+
"description": "ERNIE 4.5 Turbo 128K, високопроизводителен универсален модел, поддържащ търсене с подобрение и използване на инструменти, подходящ за въпроси-отговори, код, агенти и други бизнес сценарии."
|
|
1288
|
+
},
|
|
1289
|
+
"ernie-4.5-turbo-128k-preview": {
|
|
1290
|
+
"description": "ERNIE 4.5 Turbo 128K Preview, предварителна версия с възможности, идентични на официалната, подходяща за интеграционно тестване и поетапно внедряване."
|
|
1291
1291
|
},
|
|
1292
1292
|
"ernie-4.5-turbo-32k": {
|
|
1293
|
-
"description": "
|
|
1293
|
+
"description": "ERNIE 4.5 Turbo 32K, версия с междинен контекст, подходяща за въпроси-отговори, търсене в бази знания и многократни диалози."
|
|
1294
|
+
},
|
|
1295
|
+
"ernie-4.5-turbo-latest": {
|
|
1296
|
+
"description": "ERNIE 4.5 Turbo Latest, оптимизиран за цялостна производителност, подходящ като основен универсален модел за продукционна среда."
|
|
1297
|
+
},
|
|
1298
|
+
"ernie-4.5-turbo-vl": {
|
|
1299
|
+
"description": "ERNIE 4.5 Turbo VL, зрял мултимодален модел, подходящ за задачи по разбиране и разпознаване на изображения и текст в продукционна среда."
|
|
1294
1300
|
},
|
|
1295
1301
|
"ernie-4.5-turbo-vl-32k": {
|
|
1296
|
-
"description": "
|
|
1302
|
+
"description": "ERNIE 4.5 Turbo VL 32K, мултимодална версия с междинен контекст, подходяща за съвместно разбиране на дълги документи и изображения."
|
|
1303
|
+
},
|
|
1304
|
+
"ernie-4.5-turbo-vl-32k-preview": {
|
|
1305
|
+
"description": "ERNIE 4.5 Turbo VL 32K Preview, предварителна мултимодална версия с 32K контекст, улесняваща оценката на визуалните способности при дълъг контекст."
|
|
1306
|
+
},
|
|
1307
|
+
"ernie-4.5-turbo-vl-latest": {
|
|
1308
|
+
"description": "ERNIE 4.5 Turbo VL Latest, най-новата мултимодална версия, предлагаща по-добро разбиране и дедукция на изображения и текст."
|
|
1309
|
+
},
|
|
1310
|
+
"ernie-4.5-turbo-vl-preview": {
|
|
1311
|
+
"description": "ERNIE 4.5 Turbo VL Preview, предварителен мултимодален модел, поддържащ разбиране и генериране на изображения и текст, подходящ за визуални въпроси-отговори и разбиране на съдържание."
|
|
1312
|
+
},
|
|
1313
|
+
"ernie-4.5-vl-28b-a3b": {
|
|
1314
|
+
"description": "ERNIE 4.5 VL 28B A3B, отворен мултимодален модел, поддържащ разбиране и дедукция на изображения и текст."
|
|
1315
|
+
},
|
|
1316
|
+
"ernie-5.0-thinking-preview": {
|
|
1317
|
+
"description": "Wenxin 5.0 Thinking Preview, флагмански модел с пълна мултимодалност, поддържащ унифицирано моделиране на текст, изображения, аудио и видео, с цялостно подобрени способности, подходящ за сложни въпроси, творчество и интелигентни агенти."
|
|
1297
1318
|
},
|
|
1298
1319
|
"ernie-char-8k": {
|
|
1299
|
-
"description": "
|
|
1320
|
+
"description": "ERNIE Character 8K, модел за диалог с характер и личност, подходящ за изграждане на IP персонажи и дългосрочни разговори."
|
|
1300
1321
|
},
|
|
1301
1322
|
"ernie-char-fiction-8k": {
|
|
1302
|
-
"description": "
|
|
1323
|
+
"description": "ERNIE Character Fiction 8K, персонализиран модел за създаване на романи и сюжетни линии, подходящ за генериране на дълги истории."
|
|
1324
|
+
},
|
|
1325
|
+
"ernie-char-fiction-8k-preview": {
|
|
1326
|
+
"description": "ERNIE Character Fiction 8K Preview, предварителна версия на модел за създаване на персонажи и сюжети, предназначена за тестване и демонстрация."
|
|
1303
1327
|
},
|
|
1304
1328
|
"ernie-irag-edit": {
|
|
1305
|
-
"description": "
|
|
1329
|
+
"description": "ERNIE iRAG Edit, модел за редактиране на изображения, поддържащ изтриване, прерисуване и генериране на варианти."
|
|
1306
1330
|
},
|
|
1307
1331
|
"ernie-lite-8k": {
|
|
1308
|
-
"description": "ERNIE Lite
|
|
1332
|
+
"description": "ERNIE Lite 8K, лек универсален модел, подходящ за ежедневни въпроси и генериране на съдържание с ограничен бюджет."
|
|
1309
1333
|
},
|
|
1310
1334
|
"ernie-lite-pro-128k": {
|
|
1311
|
-
"description": "
|
|
1335
|
+
"description": "ERNIE Lite Pro 128K, лек и високопроизводителен модел, подходящ за бизнес сценарии, чувствителни към закъснение и разходи."
|
|
1312
1336
|
},
|
|
1313
1337
|
"ernie-novel-8k": {
|
|
1314
|
-
"description": "
|
|
1338
|
+
"description": "ERNIE Novel 8K, модел за създаване на дълги романи и IP сюжети, с умения за многоперсонажно и многолинейно повествование."
|
|
1315
1339
|
},
|
|
1316
1340
|
"ernie-speed-128k": {
|
|
1317
|
-
"description": "
|
|
1341
|
+
"description": "ERNIE Speed 128K, голям модел без разходи за вход/изход, подходящ за разбиране на дълги текстове и мащабно тестване."
|
|
1342
|
+
},
|
|
1343
|
+
"ernie-speed-8k": {
|
|
1344
|
+
"description": "ERNIE Speed 8K, безплатен и бърз модел, подходящ за ежедневни разговори и леки текстови задачи."
|
|
1318
1345
|
},
|
|
1319
1346
|
"ernie-speed-pro-128k": {
|
|
1320
|
-
"description": "
|
|
1347
|
+
"description": "ERNIE Speed Pro 128K, модел с висока едновременност и отлична цена/производителност, подходящ за мащабни онлайн услуги и корпоративни приложения."
|
|
1321
1348
|
},
|
|
1322
1349
|
"ernie-tiny-8k": {
|
|
1323
|
-
"description": "ERNIE Tiny
|
|
1324
|
-
},
|
|
1325
|
-
"ernie-x1-32k": {
|
|
1326
|
-
"description": "Разполага с по-силни способности за разбиране, планиране, размисъл и еволюция. Като модел за дълбоко мислене с по-пълни способности, Wenxin X1 съчетава точност, креативност и изящество, и се представя особено добре в области като китайски знания, литературно творчество, писане на документи, ежедневни разговори, логическо разсъждение, сложни изчисления и извикване на инструменти."
|
|
1327
|
-
},
|
|
1328
|
-
"ernie-x1-32k-preview": {
|
|
1329
|
-
"description": "Моделът Wenxin X1 притежава по-силни способности за разбиране, планиране, размисъл и еволюция. Като модел за дълбоко мислене с по-широки възможности, Wenxin X1 съчетава точност, креативност и изящество, особено в области като китайски знания и отговори, литературно творчество, писане на документи, ежедневни разговори, логическо разсъждение, сложни изчисления и извикване на инструменти."
|
|
1350
|
+
"description": "ERNIE Tiny 8K, ултралек модел, подходящ за прости въпроси, класификация и други нискобюджетни дедуктивни задачи."
|
|
1330
1351
|
},
|
|
1331
1352
|
"ernie-x1-turbo-32k": {
|
|
1332
|
-
"description": "
|
|
1353
|
+
"description": "ERNIE X1 Turbo 32K, модел за бързо мислене с 32K дълъг контекст, подходящ за сложна дедукция и многократни диалози."
|
|
1354
|
+
},
|
|
1355
|
+
"ernie-x1.1-preview": {
|
|
1356
|
+
"description": "ERNIE X1.1 Preview, предварителна версия на модела за мислене ERNIE X1.1, подходяща за тестване и валидиране на способности."
|
|
1333
1357
|
},
|
|
1334
1358
|
"fal-ai/bytedance/seedream/v4": {
|
|
1335
1359
|
"description": "Seedream 4.0 е модел за генериране на изображения, разработен от екипа Seed на ByteDance, поддържа вход от текст и изображения, предоставя висококонтролирано и качествено генериране на изображения. Генерира изображения на базата на текстови подсказки."
|
|
@@ -1388,9 +1412,7 @@
|
|
|
1388
1412
|
"flux-schnell": {
|
|
1389
1413
|
"description": "FLUX.1 [schnell] е най-напредналият отворен модел с малък брой стъпки, който надминава конкурентите си и дори превъзхожда мощни нефино настроени модели като Midjourney v6.0 и DALL·E 3 (HD). Моделът е специално фино настроен, за да запази пълното разнообразие на изхода от предварителното обучение и значително подобрява визуалното качество, следването на инструкции, промяната на размери/пропорции, обработката на шрифтове и разнообразието на изхода в сравнение с най-съвременните модели на пазара, предоставяйки по-богато и разнообразно творческо генериране на изображения."
|
|
1390
1414
|
},
|
|
1391
|
-
"flux.1-schnell": {
|
|
1392
|
-
"description": "Коригиран потоков трансформър с 12 милиарда параметри, способен да генерира изображения въз основа на текстово описание."
|
|
1393
|
-
},
|
|
1415
|
+
"flux.1-schnell": {},
|
|
1394
1416
|
"gemini-1.0-pro-001": {
|
|
1395
1417
|
"description": "Gemini 1.0 Pro 001 (Тунинг) предлага стабилна и настройваема производителност, идеален избор за решения на сложни задачи."
|
|
1396
1418
|
},
|
|
@@ -2042,9 +2064,7 @@
|
|
|
2042
2064
|
"internvl3-latest": {
|
|
2043
2065
|
"description": "Нашият най-нов мултимодален голям модел, с по-силни способности за разбиране на текст и изображения, дългосрочно разбиране на изображения, производителност, сравнима с водещи затворени модели. По подразбиране сочи към нашата най-нова версия на серията InternVL, текущо сочи към internvl3-78b."
|
|
2044
2066
|
},
|
|
2045
|
-
"irag-1.0": {
|
|
2046
|
-
"description": "Собствената технология iRAG (image based RAG) на Baidu за генериране на изображения с подсилено търсене, комбинираща милиарди изображения от търсачката на Baidu с мощни основни модели, позволява създаването на изключително реалистични изображения, далеч надминаващи родните системи за генериране на изображения от текст, без изкуствен вид и с ниски разходи. iRAG се характеризира с липса на халюцинации, изключителна реалистичност и незабавна готовност."
|
|
2047
|
-
},
|
|
2067
|
+
"irag-1.0": {},
|
|
2048
2068
|
"jamba-large": {
|
|
2049
2069
|
"description": "Нашият най-мощен и напреднал модел, проектиран за справяне с комплексни задачи на корпоративно ниво, с изключителна производителност."
|
|
2050
2070
|
},
|
|
@@ -2063,9 +2083,7 @@
|
|
|
2063
2083
|
"kimi-k2-0905-preview": {
|
|
2064
2084
|
"description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
|
|
2065
2085
|
},
|
|
2066
|
-
"kimi-k2-instruct": {
|
|
2067
|
-
"description": "Kimi K2 Instruct е голям езиков модел, разработен от Moonshot AI, с изключителна способност за обработка на дълъг контекст."
|
|
2068
|
-
},
|
|
2086
|
+
"kimi-k2-instruct": {},
|
|
2069
2087
|
"kimi-k2-turbo-preview": {
|
|
2070
2088
|
"description": "Kimi-k2 е базов модел с MoE архитектура, който притежава изключителни възможности за работа с код и агентни функции. Общият брой параметри е 1T, а активните параметри са 32B. В бенчмарковете за основни категории като общо знание и разсъждение, програмиране, математика и агентни задачи, моделът K2 превъзхожда другите водещи отворени модели."
|
|
2071
2089
|
},
|
|
@@ -2885,9 +2903,7 @@
|
|
|
2885
2903
|
"qwen2.5-72b-instruct": {
|
|
2886
2904
|
"description": "Модел с мащаб 72B, отворен за обществеността от Qwen 2.5."
|
|
2887
2905
|
},
|
|
2888
|
-
"qwen2.5-7b-instruct": {
|
|
2889
|
-
"description": "Модел с мащаб 7B, отворен за обществеността от Qwen 2.5."
|
|
2890
|
-
},
|
|
2906
|
+
"qwen2.5-7b-instruct": {},
|
|
2891
2907
|
"qwen2.5-coder-1.5b-instruct": {
|
|
2892
2908
|
"description": "通义千问(Qwen) е отворен код модел за програмиране."
|
|
2893
2909
|
},
|
|
@@ -2918,15 +2934,11 @@
|
|
|
2918
2934
|
"qwen2.5-omni-7b": {
|
|
2919
2935
|
"description": "Моделите от серията Qwen-Omni поддържат входни данни от множество модалности, включително видео, аудио, изображения и текст, и изходят аудио и текст."
|
|
2920
2936
|
},
|
|
2921
|
-
"qwen2.5-vl-32b-instruct": {
|
|
2922
|
-
"description": "Моделите от серията Qwen2.5-VL подобряват интелигентността, практичността и приложимостта на модела, като ги правят по-ефективни в сценарии като естествени разговори, създаване на съдържание, професионални услуги и разработка на код. Версията 32B използва технологии за обучение с подсилване за оптимизиране на модела, предлагайки в сравнение с другите модели от серията Qwen2.5 VL по-съответстващ на човешките предпочитания стил на изход, способност за разсъждение върху сложни математически проблеми, както и фино разбиране и разсъждение на изображения."
|
|
2923
|
-
},
|
|
2937
|
+
"qwen2.5-vl-32b-instruct": {},
|
|
2924
2938
|
"qwen2.5-vl-72b-instruct": {
|
|
2925
2939
|
"description": "Подобрение на следването на инструкции, математика, решаване на проблеми и код, повишаване на способността за разпознаване на обекти, поддържа директно точно локализиране на визуални елементи в различни формати, поддържа разбиране на дълги видео файлове (до 10 минути) и локализиране на събития в секунда, може да разбира времеви последователности и скорости, базирано на способности за анализ и локализация, поддържа управление на OS или Mobile агенти, силна способност за извличане на ключова информация и изход в JSON формат, тази версия е 72B, най-силната версия в серията."
|
|
2926
2940
|
},
|
|
2927
|
-
"qwen2.5-vl-7b-instruct": {
|
|
2928
|
-
"description": "Подобрение на следването на инструкции, математика, решаване на проблеми и код, повишаване на способността за разпознаване на обекти, поддържа директно точно локализиране на визуални елементи в различни формати, поддържа разбиране на дълги видео файлове (до 10 минути) и локализиране на събития в секунда, може да разбира времеви последователности и скорости, базирано на способности за анализ и локализация, поддържа управление на OS или Mobile агенти, силна способност за извличане на ключова информация и изход в JSON формат, тази версия е 72B, най-силната версия в серията."
|
|
2929
|
-
},
|
|
2941
|
+
"qwen2.5-vl-7b-instruct": {},
|
|
2930
2942
|
"qwen2.5-vl-instruct": {
|
|
2931
2943
|
"description": "Qwen2.5-VL е най-новата версия на визуално-езиковия модел от семейството Qwen."
|
|
2932
2944
|
},
|
|
@@ -2951,48 +2963,22 @@
|
|
|
2951
2963
|
"qwen3": {
|
|
2952
2964
|
"description": "Qwen3 е новото поколение на Alibaba голям езиков модел, който предлага отлична производителност, за да отговори на разнообразни приложения."
|
|
2953
2965
|
},
|
|
2954
|
-
"qwen3-0.6b": {
|
|
2955
|
-
|
|
2956
|
-
},
|
|
2957
|
-
"qwen3-
|
|
2958
|
-
|
|
2959
|
-
},
|
|
2960
|
-
"qwen3-
|
|
2961
|
-
|
|
2962
|
-
},
|
|
2963
|
-
"qwen3-
|
|
2964
|
-
|
|
2965
|
-
},
|
|
2966
|
-
"qwen3-235b-a22b-instruct-2507": {
|
|
2967
|
-
"description": "Отворен модел в не-мисловен режим, базиран на Qwen3, с леки подобрения в субективните творчески способности и безопасността на модела спрямо предишната версия (Tongyi Qianwen 3-235B-A22B)."
|
|
2968
|
-
},
|
|
2969
|
-
"qwen3-235b-a22b-thinking-2507": {
|
|
2970
|
-
"description": "Отворен модел в мисловен режим, базиран на Qwen3, с големи подобрения в логическите способности, общите умения, обогатяването на знания и творческите способности спрямо предишната версия (Tongyi Qianwen 3-235B-A22B), подходящ за сложни задачи с високи изисквания за разсъждение."
|
|
2971
|
-
},
|
|
2972
|
-
"qwen3-30b-a3b": {
|
|
2973
|
-
"description": "Qwen3 е ново поколение модел с значително подобрени способности, който достига водещо ниво в индустрията в области като разсъждение, общо използване, агенти и многоезичност, и поддържа превключване на режимите на разсъждение."
|
|
2974
|
-
},
|
|
2975
|
-
"qwen3-30b-a3b-instruct-2507": {
|
|
2976
|
-
"description": "В сравнение с предишната версия (Qwen3-30B-A3B), общите способности на английски, китайски и многоезични задачи са значително подобрени. Специализирана оптимизация за субективни и отворени задачи, значително по-добре съобразена с предпочитанията на потребителите, което позволява предоставяне на по-полезни отговори."
|
|
2977
|
-
},
|
|
2978
|
-
"qwen3-30b-a3b-thinking-2507": {
|
|
2979
|
-
"description": "Базиран на отворения модел в режим мислене на Qwen3, в сравнение с предишната версия (Tongyi Qianwen 3-30B-A3B) логическите способности, общите умения, знанията и творческите способности са значително подобрени, подходящ за сложни сценарии с интензивно разсъждение."
|
|
2980
|
-
},
|
|
2981
|
-
"qwen3-32b": {
|
|
2982
|
-
"description": "Qwen3 е ново поколение модел с значително подобрени способности, който достига водещо ниво в индустрията в области като разсъждение, общо използване, агенти и многоезичност, и поддържа превключване на режимите на разсъждение."
|
|
2983
|
-
},
|
|
2984
|
-
"qwen3-4b": {
|
|
2985
|
-
"description": "Qwen3 е ново поколение модел с значително подобрени способности, който достига водещо ниво в индустрията в области като разсъждение, общо използване, агенти и многоезичност, и поддържа превключване на режимите на разсъждение."
|
|
2986
|
-
},
|
|
2987
|
-
"qwen3-8b": {
|
|
2988
|
-
"description": "Qwen3 е ново поколение модел с значително подобрени способности, който достига водещо ниво в индустрията в области като разсъждение, общо използване, агенти и многоезичност, и поддържа превключване на режимите на разсъждение."
|
|
2989
|
-
},
|
|
2966
|
+
"qwen3-0.6b": {},
|
|
2967
|
+
"qwen3-1.7b": {},
|
|
2968
|
+
"qwen3-14b": {},
|
|
2969
|
+
"qwen3-235b-a22b": {},
|
|
2970
|
+
"qwen3-235b-a22b-instruct-2507": {},
|
|
2971
|
+
"qwen3-235b-a22b-thinking-2507": {},
|
|
2972
|
+
"qwen3-30b-a3b": {},
|
|
2973
|
+
"qwen3-30b-a3b-instruct-2507": {},
|
|
2974
|
+
"qwen3-30b-a3b-thinking-2507": {},
|
|
2975
|
+
"qwen3-32b": {},
|
|
2976
|
+
"qwen3-4b": {},
|
|
2977
|
+
"qwen3-8b": {},
|
|
2990
2978
|
"qwen3-coder-30b-a3b-instruct": {
|
|
2991
2979
|
"description": "Откритият кодов модел на Tongyi Qianwen. Най-новият qwen3-coder-30b-a3b-instruct е модел за генериране на код, базиран на Qwen3, с мощни способности като Coding Agent, умело използва инструменти и взаимодейства с околната среда, способен на автономно програмиране и отлични кодови умения, съчетани с общи способности."
|
|
2992
2980
|
},
|
|
2993
|
-
"qwen3-coder-480b-a35b-instruct": {
|
|
2994
|
-
"description": "Отворена версия на кодовия модел Tongyi Qianwen. Най-новият qwen3-coder-480b-a35b-instruct е кодов модел, базиран на Qwen3, с мощни Coding Agent способности, умения за използване на инструменти и взаимодействие с околната среда, способен на автономно програмиране с отлични кодови и общи умения."
|
|
2995
|
-
},
|
|
2981
|
+
"qwen3-coder-480b-a35b-instruct": {},
|
|
2996
2982
|
"qwen3-coder-flash": {
|
|
2997
2983
|
"description": "Кодиращ модел на Tongyi Qianwen. Най-новата серия модели Qwen3-Coder е базирана на Qwen3 и е модел за генериране на код с мощни възможности на Coding Agent, умеещ да използва инструменти и да взаимодейства с околната среда, способен на автономно програмиране, с изключителни кодови умения и същевременно общи способности."
|
|
2998
2984
|
},
|
|
@@ -3008,30 +2994,16 @@
|
|
|
3008
2994
|
"qwen3-next-80b-a3b-instruct": {
|
|
3009
2995
|
"description": "Базирано на Qwen3, ново поколение отворен модел без мисловен режим, който предлага по-добро разбиране на китайски текстове, подобрени логически умения и по-добри резултати при задачи за генериране на текст в сравнение с предишната версия (Tongyi Qianwen 3-235B-A22B-Instruct-2507)."
|
|
3010
2996
|
},
|
|
3011
|
-
"qwen3-next-80b-a3b-thinking": {
|
|
3012
|
-
"description": "Базирано на Qwen3, ново поколение отворен модел с мисловен режим, който подобрява спазването на инструкции и предоставя по-кратки и точни обобщения в сравнение с предишната версия (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
3013
|
-
},
|
|
2997
|
+
"qwen3-next-80b-a3b-thinking": {},
|
|
3014
2998
|
"qwen3-omni-flash": {
|
|
3015
2999
|
"description": "Моделът Qwen-Omni приема комбинирани входове от текст, изображения, аудио и видео, и генерира отговори под формата на текст или реч. Предлага разнообразни хуманизирани гласове, поддържа много езици и диалекти, и е приложим в сценарии като текстово творчество, визуално разпознаване и гласови асистенти."
|
|
3016
3000
|
},
|
|
3017
|
-
"qwen3-vl-235b-a22b-instruct": {
|
|
3018
|
-
|
|
3019
|
-
},
|
|
3020
|
-
"qwen3-vl-
|
|
3021
|
-
|
|
3022
|
-
},
|
|
3023
|
-
"qwen3-vl-30b-a3b-instruct": {
|
|
3024
|
-
"description": "Qwen3 VL 30B в non-thinking режим (Instruct), насочен към обичайни сценарии за следване на инструкции, като същевременно поддържа високо ниво на мултимодално разбиране и генериране."
|
|
3025
|
-
},
|
|
3026
|
-
"qwen3-vl-30b-a3b-thinking": {
|
|
3027
|
-
"description": "Qwen-VL (отворен код) предлага способности за визуално разбиране и генериране на текст, поддържа взаимодействие с интелигентни агенти, визуално кодиране, пространствено възприятие, разбиране на дълги видеа и дълбоко мислене, с подобрено разпознаване на текст и многоезична поддръжка в сложни сценарии."
|
|
3028
|
-
},
|
|
3029
|
-
"qwen3-vl-8b-instruct": {
|
|
3030
|
-
"description": "Qwen3 VL 8B в non-thinking режим (Instruct), подходящ за стандартни задачи по мултимодално генериране и разпознаване."
|
|
3031
|
-
},
|
|
3032
|
-
"qwen3-vl-8b-thinking": {
|
|
3033
|
-
"description": "Qwen3 VL 8B в мисловен режим, предназначен за леки мултимодални задачи по разсъждение и взаимодействие, като същевременно запазва способността за разбиране на дълъг контекст."
|
|
3034
|
-
},
|
|
3001
|
+
"qwen3-vl-235b-a22b-instruct": {},
|
|
3002
|
+
"qwen3-vl-235b-a22b-thinking": {},
|
|
3003
|
+
"qwen3-vl-30b-a3b-instruct": {},
|
|
3004
|
+
"qwen3-vl-30b-a3b-thinking": {},
|
|
3005
|
+
"qwen3-vl-8b-instruct": {},
|
|
3006
|
+
"qwen3-vl-8b-thinking": {},
|
|
3035
3007
|
"qwen3-vl-flash": {
|
|
3036
3008
|
"description": "Qwen3 VL Flash: олекотена версия за високоскоростно разсъждение, подходяща за сценарии, чувствителни към закъснение или с голям обем заявки."
|
|
3037
3009
|
},
|
|
@@ -255,10 +255,11 @@
|
|
|
255
255
|
"moveLocalFiles": "Преместване на файлове",
|
|
256
256
|
"readLocalFile": "Четене на съдържание на файл",
|
|
257
257
|
"renameLocalFile": "Преименуване",
|
|
258
|
+
"runCommand": "Изпълни код",
|
|
258
259
|
"searchLocalFiles": "Търсене на файлове",
|
|
259
260
|
"writeLocalFile": "Запис в файл"
|
|
260
261
|
},
|
|
261
|
-
"title": "
|
|
262
|
+
"title": "Локална система"
|
|
262
263
|
},
|
|
263
264
|
"mcpInstall": {
|
|
264
265
|
"CHECKING_INSTALLATION": "Проверка на инсталационната среда...",
|
package/locales/de-DE/chat.json
CHANGED
|
@@ -369,6 +369,26 @@
|
|
|
369
369
|
"remained": "Verbleibend",
|
|
370
370
|
"used": "Verwendet"
|
|
371
371
|
},
|
|
372
|
+
"tool": {
|
|
373
|
+
"intervention": {
|
|
374
|
+
"approve": "Genehmigen",
|
|
375
|
+
"approveAndRemember": "Genehmigen und merken",
|
|
376
|
+
"approveOnce": "Nur dieses Mal genehmigen",
|
|
377
|
+
"mode": {
|
|
378
|
+
"allowList": "Positivliste",
|
|
379
|
+
"allowListDesc": "Nur automatisch genehmigte Tools ausführen",
|
|
380
|
+
"autoRun": "Automatisch genehmigen",
|
|
381
|
+
"autoRunDesc": "Alle Tool-Ausführungen automatisch genehmigen",
|
|
382
|
+
"manual": "Manuell",
|
|
383
|
+
"manualDesc": "Jede Ausführung muss manuell genehmigt werden"
|
|
384
|
+
},
|
|
385
|
+
"reject": "Ablehnen",
|
|
386
|
+
"rejectReasonPlaceholder": "Die Angabe eines Ablehnungsgrundes hilft dem Agenten, zukünftige Aktionen zu verbessern",
|
|
387
|
+
"rejectTitle": "Tool-Ausführung ablehnen",
|
|
388
|
+
"rejectedWithReason": "Die Tool-Ausführung wurde abgelehnt: {{reason}}",
|
|
389
|
+
"toolRejected": "Die Tool-Ausführung wurde abgelehnt"
|
|
390
|
+
}
|
|
391
|
+
},
|
|
372
392
|
"topic": {
|
|
373
393
|
"checkOpenNewTopic": "Soll ein neues Thema eröffnet werden?",
|
|
374
394
|
"checkSaveCurrentMessages": "Möchten Sie die aktuelle Konversation als Thema speichern?",
|
|
@@ -106,6 +106,12 @@
|
|
|
106
106
|
"keyPlaceholder": "Schlüssel",
|
|
107
107
|
"valuePlaceholder": "Wert"
|
|
108
108
|
},
|
|
109
|
+
"LocalFile": {
|
|
110
|
+
"action": {
|
|
111
|
+
"open": "Öffnen",
|
|
112
|
+
"showInFolder": "Im Ordner anzeigen"
|
|
113
|
+
}
|
|
114
|
+
},
|
|
109
115
|
"MaxTokenSlider": {
|
|
110
116
|
"unlimited": "Unbegrenzt"
|
|
111
117
|
},
|