@lobehub/lobehub 2.0.0-next.50 → 2.0.0-next.52
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
- package/apps/desktop/src/main/controllers/ShellCommandCtr.ts +242 -0
- package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
- package/apps/desktop/src/main/controllers/__tests__/ShellCommandCtr.test.ts +499 -0
- package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
- package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +20 -0
- package/locales/ar/common.json +1 -0
- package/locales/ar/components.json +6 -0
- package/locales/ar/models.json +119 -126
- package/locales/ar/plugin.json +2 -1
- package/locales/bg-BG/chat.json +20 -0
- package/locales/bg-BG/common.json +1 -0
- package/locales/bg-BG/components.json +6 -0
- package/locales/bg-BG/models.json +104 -132
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/de-DE/chat.json +20 -0
- package/locales/de-DE/common.json +1 -0
- package/locales/de-DE/components.json +6 -0
- package/locales/de-DE/models.json +119 -126
- package/locales/de-DE/plugin.json +2 -1
- package/locales/en-US/chat.json +20 -0
- package/locales/en-US/common.json +1 -0
- package/locales/en-US/components.json +6 -0
- package/locales/en-US/models.json +167 -126
- package/locales/en-US/plugin.json +2 -1
- package/locales/es-ES/chat.json +20 -0
- package/locales/es-ES/common.json +1 -0
- package/locales/es-ES/components.json +6 -0
- package/locales/es-ES/models.json +119 -126
- package/locales/es-ES/plugin.json +2 -1
- package/locales/fa-IR/chat.json +20 -0
- package/locales/fa-IR/common.json +1 -0
- package/locales/fa-IR/components.json +6 -0
- package/locales/fa-IR/models.json +119 -126
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fr-FR/chat.json +20 -0
- package/locales/fr-FR/common.json +1 -0
- package/locales/fr-FR/components.json +6 -0
- package/locales/fr-FR/models.json +119 -126
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/it-IT/chat.json +20 -0
- package/locales/it-IT/common.json +1 -0
- package/locales/it-IT/components.json +6 -0
- package/locales/it-IT/models.json +119 -126
- package/locales/it-IT/plugin.json +2 -1
- package/locales/ja-JP/chat.json +20 -0
- package/locales/ja-JP/common.json +1 -0
- package/locales/ja-JP/components.json +6 -0
- package/locales/ja-JP/models.json +119 -126
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ko-KR/chat.json +20 -0
- package/locales/ko-KR/common.json +1 -0
- package/locales/ko-KR/components.json +6 -0
- package/locales/ko-KR/models.json +119 -126
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/nl-NL/chat.json +20 -0
- package/locales/nl-NL/common.json +1 -0
- package/locales/nl-NL/components.json +6 -0
- package/locales/nl-NL/models.json +119 -126
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/pl-PL/chat.json +20 -0
- package/locales/pl-PL/common.json +1 -0
- package/locales/pl-PL/components.json +6 -0
- package/locales/pl-PL/models.json +119 -126
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pt-BR/chat.json +20 -0
- package/locales/pt-BR/common.json +1 -0
- package/locales/pt-BR/components.json +6 -0
- package/locales/pt-BR/models.json +119 -126
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/ru-RU/chat.json +20 -0
- package/locales/ru-RU/common.json +1 -0
- package/locales/ru-RU/components.json +6 -0
- package/locales/ru-RU/models.json +119 -126
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/tr-TR/chat.json +20 -0
- package/locales/tr-TR/common.json +1 -0
- package/locales/tr-TR/components.json +6 -0
- package/locales/tr-TR/models.json +119 -126
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/vi-VN/chat.json +20 -0
- package/locales/vi-VN/common.json +1 -0
- package/locales/vi-VN/components.json +6 -0
- package/locales/vi-VN/models.json +119 -126
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/zh-CN/chat.json +20 -0
- package/locales/zh-CN/common.json +1 -0
- package/locales/zh-CN/components.json +6 -0
- package/locales/zh-CN/models.json +173 -80
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-TW/chat.json +20 -0
- package/locales/zh-TW/common.json +1 -0
- package/locales/zh-TW/components.json +6 -0
- package/locales/zh-TW/models.json +119 -126
- package/locales/zh-TW/plugin.json +2 -1
- package/package.json +1 -1
- package/packages/agent-runtime/src/core/InterventionChecker.ts +1 -1
- package/packages/agent-runtime/src/core/__tests__/InterventionChecker.test.ts +23 -23
- package/packages/agent-runtime/src/types/state.ts +7 -1
- package/packages/const/src/settings/tool.ts +1 -5
- package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
- package/packages/file-loaders/src/loaders/docx/index.ts +1 -1
- package/packages/model-bank/src/aiModels/wenxin.ts +1348 -291
- package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
- package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
- package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
- package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
- package/packages/model-runtime/src/providers/wenxin/index.ts +22 -1
- package/packages/model-runtime/src/utils/modelParse.ts +6 -0
- package/packages/types/src/tool/builtin.ts +15 -4
- package/packages/types/src/tool/intervention.ts +32 -2
- package/packages/types/src/user/settings/tool.ts +3 -27
- package/src/config/modelProviders/wenxin.ts +2 -3
- package/src/features/Conversation/MarkdownElements/remarkPlugins/__snapshots__/createRemarkSelfClosingTagPlugin.test.ts.snap +133 -0
- package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.test.ts +48 -0
- package/src/features/Conversation/MarkdownElements/remarkPlugins/createRemarkSelfClosingTagPlugin.ts +2 -1
- package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/Fallback.tsx +98 -0
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/ModeSelector.tsx +5 -6
- package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +40 -36
- package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
- package/src/features/Conversation/Messages/Group/Tool/Render/index.tsx +25 -18
- package/src/features/LocalFile/LocalFile.tsx +55 -5
- package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
- package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
- package/src/locales/default/components.ts +6 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/services/chat/chat.test.ts +1 -0
- package/src/services/electron/localFileService.ts +4 -0
- package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
- package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
- package/src/store/chat/agents/GeneralChatAgent.ts +26 -1
- package/src/store/chat/agents/__tests__/GeneralChatAgent.test.ts +173 -0
- package/src/store/chat/slices/aiChat/actions/conversationControl.ts +8 -40
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +91 -34
- package/src/store/user/selectors.ts +1 -0
- package/src/store/user/slices/settings/action.ts +12 -0
- package/src/store/user/slices/settings/selectors/__snapshots__/settings.test.ts.snap +0 -7
- package/src/store/user/slices/settings/selectors/index.ts +1 -0
- package/src/store/user/slices/settings/selectors/settings.test.ts +0 -37
- package/src/store/user/slices/settings/selectors/settings.ts +0 -5
- package/src/store/user/slices/settings/selectors/toolIntervention.ts +17 -0
- package/src/tools/code-interpreter/Render/index.tsx +1 -1
- package/src/tools/interventions.ts +32 -0
- package/src/tools/local-system/Intervention/RunCommand/index.tsx +56 -0
- package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
- package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
- package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
- package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
- package/src/tools/local-system/Render/RunCommand/index.tsx +103 -27
- package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
- package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
- package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
- package/src/tools/local-system/index.ts +184 -4
- package/src/tools/local-system/systemRole.ts +62 -8
- package/src/tools/placeholders.ts +39 -8
- package/src/tools/renders.ts +56 -9
- package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
- package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
- package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
- package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
- package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
- package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
- package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
- package/src/tools/local-system/Placeholder/index.tsx +0 -25
- package/src/tools/local-system/Render/index.tsx +0 -40
- package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
- package/src/tools/web-browsing/Render/index.tsx +0 -57
|
@@ -1049,6 +1049,9 @@
|
|
|
1049
1049
|
"deepseek-r1-0528": {
|
|
1050
1050
|
"description": "Model w pełnej wersji 685B, wydany 28 maja 2025 roku. DeepSeek-R1 wykorzystuje techniki uczenia ze wzmocnieniem na dużą skalę w fazie post-treningowej, co znacznie poprawia zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Wysoka wydajność i zdolności w zadaniach matematycznych, kodowaniu oraz rozumowaniu języka naturalnego."
|
|
1051
1051
|
},
|
|
1052
|
+
"deepseek-r1-250528": {
|
|
1053
|
+
"description": "DeepSeek R1 250528, pełna wersja modelu wnioskowania DeepSeek-R1, odpowiednia do złożonych zadań matematycznych i logicznych."
|
|
1054
|
+
},
|
|
1052
1055
|
"deepseek-r1-70b-fast-online": {
|
|
1053
1056
|
"description": "DeepSeek R1 70B szybka wersja, wspierająca wyszukiwanie w czasie rzeczywistym, oferująca szybszy czas reakcji przy zachowaniu wydajności modelu."
|
|
1054
1057
|
},
|
|
@@ -1059,31 +1062,34 @@
|
|
|
1059
1062
|
"description": "deepseek-r1-distill-llama to model stworzony na podstawie Llamy, uzyskany przez destylację z DeepSeek-R1."
|
|
1060
1063
|
},
|
|
1061
1064
|
"deepseek-r1-distill-llama-70b": {
|
|
1062
|
-
"description": "DeepSeek R1
|
|
1065
|
+
"description": "DeepSeek R1 Distill Llama 70B, model destylowany łączący ogólne możliwości R1 z ekosystemem Llama."
|
|
1063
1066
|
},
|
|
1064
1067
|
"deepseek-r1-distill-llama-8b": {
|
|
1065
|
-
"description": "
|
|
1068
|
+
"description": "DeepSeek-R1-Distill-Llama-8B to duży model językowy oparty na Llama-3.1-8B, wykorzystujący wyniki DeepSeek R1."
|
|
1066
1069
|
},
|
|
1067
|
-
"deepseek-r1-distill-qianfan-
|
|
1068
|
-
"description": "
|
|
1070
|
+
"deepseek-r1-distill-qianfan-70b": {
|
|
1071
|
+
"description": "DeepSeek R1 Distill Qianfan 70B, model destylowany R1 oparty na Qianfan-70B, oferujący wysoką wydajność w korzystnej cenie."
|
|
1069
1072
|
},
|
|
1070
|
-
"deepseek-r1-distill-qianfan-
|
|
1071
|
-
"description": "
|
|
1073
|
+
"deepseek-r1-distill-qianfan-8b": {
|
|
1074
|
+
"description": "DeepSeek R1 Distill Qianfan 8B, model destylowany R1 oparty na Qianfan-8B, odpowiedni do średnich i małych zastosowań."
|
|
1075
|
+
},
|
|
1076
|
+
"deepseek-r1-distill-qianfan-llama-70b": {
|
|
1077
|
+
"description": "DeepSeek R1 Distill Qianfan Llama 70B, model destylowany R1 oparty na Llama-70B."
|
|
1072
1078
|
},
|
|
1073
1079
|
"deepseek-r1-distill-qwen": {
|
|
1074
1080
|
"description": "deepseek-r1-distill-qwen to model stworzony na podstawie Qwen poprzez destylację z DeepSeek-R1."
|
|
1075
1081
|
},
|
|
1076
1082
|
"deepseek-r1-distill-qwen-1.5b": {
|
|
1077
|
-
"description": "
|
|
1083
|
+
"description": "DeepSeek R1 Distill Qwen 1.5B, ultralekki model destylowany R1, odpowiedni do środowisk o bardzo ograniczonych zasobach."
|
|
1078
1084
|
},
|
|
1079
1085
|
"deepseek-r1-distill-qwen-14b": {
|
|
1080
|
-
"description": "
|
|
1086
|
+
"description": "DeepSeek R1 Distill Qwen 14B, średniej wielkości model destylowany R1, odpowiedni do wdrożeń w różnych scenariuszach."
|
|
1081
1087
|
},
|
|
1082
1088
|
"deepseek-r1-distill-qwen-32b": {
|
|
1083
|
-
"description": "
|
|
1089
|
+
"description": "DeepSeek R1 Distill Qwen 32B, model destylowany R1 oparty na Qwen-32B, zapewniający równowagę między wydajnością a kosztem."
|
|
1084
1090
|
},
|
|
1085
1091
|
"deepseek-r1-distill-qwen-7b": {
|
|
1086
|
-
"description": "
|
|
1092
|
+
"description": "DeepSeek R1 Distill Qwen 7B, lekki model destylowany R1, odpowiedni do środowisk brzegowych i prywatnych wdrożeń korporacyjnych."
|
|
1087
1093
|
},
|
|
1088
1094
|
"deepseek-r1-fast-online": {
|
|
1089
1095
|
"description": "DeepSeek R1 pełna szybka wersja, wspierająca wyszukiwanie w czasie rzeczywistym, łącząca potężne możliwości 671 miliardów parametrów z szybszym czasem reakcji."
|
|
@@ -1112,12 +1118,24 @@
|
|
|
1112
1118
|
"deepseek-v3.1-terminus": {
|
|
1113
1119
|
"description": "DeepSeek-V3.1-Terminus to zoptymalizowana wersja dużego modelu językowego opracowana przez DeepSeek, zaprojektowana specjalnie dla urządzeń końcowych."
|
|
1114
1120
|
},
|
|
1121
|
+
"deepseek-v3.1-think-250821": {
|
|
1122
|
+
"description": "DeepSeek V3.1 Think 250821, model głębokiego rozumowania odpowiadający wersji Terminus, przeznaczony do scenariuszy wymagających wysokiej wydajności."
|
|
1123
|
+
},
|
|
1115
1124
|
"deepseek-v3.1:671b": {
|
|
1116
1125
|
"description": "DeepSeek V3.1: kolejna generacja modelu inferencyjnego, poprawiająca zdolności do złożonego wnioskowania i łańcuchowego myślenia, odpowiednia do zadań wymagających dogłębnej analizy."
|
|
1117
1126
|
},
|
|
1118
1127
|
"deepseek-v3.2-exp": {
|
|
1119
1128
|
"description": "deepseek-v3.2-exp wprowadza mechanizm rzadkiej uwagi, mający na celu poprawę efektywności treningu i wnioskowania podczas przetwarzania długich tekstów, przy cenie niższej niż deepseek-v3.1."
|
|
1120
1129
|
},
|
|
1130
|
+
"deepseek-v3.2-think": {
|
|
1131
|
+
"description": "DeepSeek V3.2 Think, pełna wersja modelu głębokiego rozumowania, wzmocniona pod kątem długich łańcuchów wnioskowania."
|
|
1132
|
+
},
|
|
1133
|
+
"deepseek-vl2": {
|
|
1134
|
+
"description": "DeepSeek VL2, model multimodalny wspierający zrozumienie obrazu i tekstu oraz precyzyjne pytania wizualne."
|
|
1135
|
+
},
|
|
1136
|
+
"deepseek-vl2-small": {
|
|
1137
|
+
"description": "DeepSeek VL2 Small, lekka wersja multimodalna, odpowiednia do środowisk o ograniczonych zasobach i wysokiej równoczesności."
|
|
1138
|
+
},
|
|
1121
1139
|
"deepseek/deepseek-chat-v3-0324": {
|
|
1122
1140
|
"description": "DeepSeek V3 to model mieszany z 685B parametrami, będący najnowszą iteracją flagowej serii modeli czatu zespołu DeepSeek.\n\nDziedziczy po modelu [DeepSeek V3](/deepseek/deepseek-chat-v3) i wykazuje doskonałe wyniki w różnych zadaniach."
|
|
1123
1141
|
},
|
|
@@ -1253,83 +1271,89 @@
|
|
|
1253
1271
|
"emohaa": {
|
|
1254
1272
|
"description": "Emohaa to model psychologiczny, posiadający profesjonalne umiejętności doradcze, pomagający użytkownikom zrozumieć problemy emocjonalne."
|
|
1255
1273
|
},
|
|
1256
|
-
"ernie-
|
|
1257
|
-
"description": "
|
|
1258
|
-
},
|
|
1259
|
-
"ernie-3.5-8k": {
|
|
1260
|
-
"description": "Flagowy model językowy opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, spełniającym wymagania większości zastosowań w dialogach, generowaniu treści i aplikacjach wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
|
|
1261
|
-
},
|
|
1262
|
-
"ernie-3.5-8k-preview": {
|
|
1263
|
-
"description": "Flagowy model językowy opracowany przez Baidu, obejmujący ogromne zbiory danych w języku chińskim i angielskim, charakteryzujący się silnymi zdolnościami ogólnymi, spełniającym wymagania większości zastosowań w dialogach, generowaniu treści i aplikacjach wtyczek; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
|
|
1264
|
-
},
|
|
1265
|
-
"ernie-4.0-8k-latest": {
|
|
1266
|
-
"description": "Flagowy model językowy Baidu o ultra dużej skali, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację zdolności modelu, szeroko stosowany w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
|
|
1267
|
-
},
|
|
1268
|
-
"ernie-4.0-8k-preview": {
|
|
1269
|
-
"description": "Flagowy model językowy Baidu o ultra dużej skali, w porównaniu do ERNIE 3.5, oferujący kompleksową aktualizację zdolności modelu, szeroko stosowany w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji."
|
|
1270
|
-
},
|
|
1271
|
-
"ernie-4.0-turbo-128k": {
|
|
1272
|
-
"description": "Flagowy model językowy Baidu o ultra dużej skali, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
|
|
1273
|
-
},
|
|
1274
|
-
"ernie-4.0-turbo-8k-latest": {
|
|
1275
|
-
"description": "Flagowy model językowy Baidu o ultra dużej skali, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
|
|
1276
|
-
},
|
|
1277
|
-
"ernie-4.0-turbo-8k-preview": {
|
|
1278
|
-
"description": "Flagowy model językowy Baidu o ultra dużej skali, charakteryzujący się doskonałymi wynikami ogólnymi, szeroko stosowany w złożonych zadaniach w różnych dziedzinach; wspiera automatyczne połączenie z wtyczką wyszukiwania Baidu, zapewniając aktualność informacji. W porównaniu do ERNIE 4.0, oferuje lepsze wyniki wydajności."
|
|
1274
|
+
"ernie-4.5-0.3b": {
|
|
1275
|
+
"description": "ERNIE 4.5 0.3B, otwartoźródłowy lekki model, odpowiedni do lokalnych i dostosowanych wdrożeń."
|
|
1279
1276
|
},
|
|
1280
1277
|
"ernie-4.5-21b-a3b": {
|
|
1281
|
-
"description": "ERNIE 4.5 21B A3B
|
|
1278
|
+
"description": "ERNIE 4.5 21B A3B, otwartoźródłowy model o dużej liczbie parametrów, oferujący lepsze wyniki w zadaniach rozumienia i generowania."
|
|
1282
1279
|
},
|
|
1283
1280
|
"ernie-4.5-300b-a47b": {
|
|
1284
1281
|
"description": "ERNIE 4.5 300B A47B to model ekspertowy o ultradużej skali opracowany przez Baidu Wenxin, wyróżniający się wyjątkowymi zdolnościami wnioskowania."
|
|
1285
1282
|
},
|
|
1286
1283
|
"ernie-4.5-8k-preview": {
|
|
1287
|
-
"description": "
|
|
1284
|
+
"description": "ERNIE 4.5 8K Preview, model podglądowy z kontekstem 8K, przeznaczony do testowania i oceny możliwości ERNIE 4.5."
|
|
1288
1285
|
},
|
|
1289
1286
|
"ernie-4.5-turbo-128k": {
|
|
1290
|
-
"description": "
|
|
1287
|
+
"description": "ERNIE 4.5 Turbo 128K, wydajny model ogólnego przeznaczenia, wspierający wyszukiwanie i korzystanie z narzędzi, odpowiedni do pytań, kodu i agentów."
|
|
1288
|
+
},
|
|
1289
|
+
"ernie-4.5-turbo-128k-preview": {
|
|
1290
|
+
"description": "ERNIE 4.5 Turbo 128K Preview, wersja podglądowa oferująca te same możliwości co wersja produkcyjna, odpowiednia do testów i integracji."
|
|
1291
1291
|
},
|
|
1292
1292
|
"ernie-4.5-turbo-32k": {
|
|
1293
|
-
"description": "
|
|
1293
|
+
"description": "ERNIE 4.5 Turbo 32K, wersja z kontekstem średniej długości, odpowiednia do pytań, wyszukiwania w bazach wiedzy i wieloetapowych rozmów."
|
|
1294
|
+
},
|
|
1295
|
+
"ernie-4.5-turbo-latest": {
|
|
1296
|
+
"description": "ERNIE 4.5 Turbo Najnowsza wersja, zoptymalizowana pod kątem ogólnej wydajności, idealna jako główny model produkcyjny."
|
|
1297
|
+
},
|
|
1298
|
+
"ernie-4.5-turbo-vl": {
|
|
1299
|
+
"description": "ERNIE 4.5 Turbo VL, dojrzały model multimodalny, odpowiedni do zadań rozumienia i rozpoznawania obrazu i tekstu w środowisku produkcyjnym."
|
|
1294
1300
|
},
|
|
1295
1301
|
"ernie-4.5-turbo-vl-32k": {
|
|
1296
|
-
"description": "
|
|
1302
|
+
"description": "ERNIE 4.5 Turbo VL 32K, multimodalna wersja dla średnich i długich tekstów, odpowiednia do zintegrowanego rozumienia dokumentów i obrazów."
|
|
1303
|
+
},
|
|
1304
|
+
"ernie-4.5-turbo-vl-32k-preview": {
|
|
1305
|
+
"description": "ERNIE 4.5 Turbo VL 32K Preview, wersja podglądowa multimodalna 32K, ułatwiająca ocenę zdolności rozumienia długiego kontekstu wizualnego."
|
|
1306
|
+
},
|
|
1307
|
+
"ernie-4.5-turbo-vl-latest": {
|
|
1308
|
+
"description": "ERNIE 4.5 Turbo VL Najnowsza wersja, najnowszy model multimodalny, oferujący lepsze wyniki w rozumieniu i wnioskowaniu obrazów i tekstu."
|
|
1309
|
+
},
|
|
1310
|
+
"ernie-4.5-turbo-vl-preview": {
|
|
1311
|
+
"description": "ERNIE 4.5 Turbo VL Preview, podglądowy model multimodalny, wspierający rozumienie i generowanie obrazów i tekstu, odpowiedni do wizualnych pytań i analizy treści."
|
|
1312
|
+
},
|
|
1313
|
+
"ernie-4.5-vl-28b-a3b": {
|
|
1314
|
+
"description": "ERNIE 4.5 VL 28B A3B, otwartoźródłowy model multimodalny, wspierający zadania rozumienia i wnioskowania obrazów i tekstu."
|
|
1315
|
+
},
|
|
1316
|
+
"ernie-5.0-thinking-preview": {
|
|
1317
|
+
"description": "ERNIE 5.0 Thinking Preview, flagowy model natywnie multimodalny, wspierający tekst, obraz, dźwięk i wideo, kompleksowo ulepszony do złożonych pytań, twórczości i agentów."
|
|
1297
1318
|
},
|
|
1298
1319
|
"ernie-char-8k": {
|
|
1299
|
-
"description": "
|
|
1320
|
+
"description": "ERNIE Character 8K, model dialogowy z osobowością, odpowiedni do tworzenia postaci IP i długoterminowych interakcji."
|
|
1300
1321
|
},
|
|
1301
1322
|
"ernie-char-fiction-8k": {
|
|
1302
|
-
"description": "
|
|
1323
|
+
"description": "ERNIE Character Fiction 8K, model osobowościowy do tworzenia powieści i fabuły, odpowiedni do generowania długich historii."
|
|
1324
|
+
},
|
|
1325
|
+
"ernie-char-fiction-8k-preview": {
|
|
1326
|
+
"description": "ERNIE Character Fiction 8K Preview, wersja podglądowa modelu do tworzenia postaci i fabuły, przeznaczona do testów i oceny funkcji."
|
|
1303
1327
|
},
|
|
1304
1328
|
"ernie-irag-edit": {
|
|
1305
|
-
"description": "
|
|
1329
|
+
"description": "ERNIE iRAG Edit, model edycji obrazu wspierający usuwanie, rekonstrukcję i generowanie wariantów obrazów."
|
|
1306
1330
|
},
|
|
1307
1331
|
"ernie-lite-8k": {
|
|
1308
|
-
"description": "ERNIE Lite
|
|
1332
|
+
"description": "ERNIE Lite 8K, lekki model ogólnego przeznaczenia, odpowiedni do codziennych pytań i generowania treści przy niskich kosztach."
|
|
1309
1333
|
},
|
|
1310
1334
|
"ernie-lite-pro-128k": {
|
|
1311
|
-
"description": "
|
|
1335
|
+
"description": "ERNIE Lite Pro 128K, lekki i wydajny model, odpowiedni do zastosowań wrażliwych na opóźnienia i koszty."
|
|
1312
1336
|
},
|
|
1313
1337
|
"ernie-novel-8k": {
|
|
1314
|
-
"description": "
|
|
1338
|
+
"description": "ERNIE Novel 8K, model do tworzenia długich powieści i fabuły IP, specjalizujący się w narracji wielopostaciowej i wielowątkowej."
|
|
1315
1339
|
},
|
|
1316
1340
|
"ernie-speed-128k": {
|
|
1317
|
-
"description": "
|
|
1341
|
+
"description": "ERNIE Speed 128K, duży model bez kosztów wejścia/wyjścia, odpowiedni do rozumienia długich tekstów i testów na dużą skalę."
|
|
1342
|
+
},
|
|
1343
|
+
"ernie-speed-8k": {
|
|
1344
|
+
"description": "ERNIE Speed 8K, darmowy i szybki model, odpowiedni do codziennych rozmów i lekkich zadań tekstowych."
|
|
1318
1345
|
},
|
|
1319
1346
|
"ernie-speed-pro-128k": {
|
|
1320
|
-
"description": "
|
|
1347
|
+
"description": "ERNIE Speed Pro 128K, model o wysokiej równoczesności i korzystnym stosunku ceny do wydajności, odpowiedni do usług online i zastosowań korporacyjnych na dużą skalę."
|
|
1321
1348
|
},
|
|
1322
1349
|
"ernie-tiny-8k": {
|
|
1323
|
-
"description": "ERNIE Tiny
|
|
1324
|
-
},
|
|
1325
|
-
"ernie-x1-32k": {
|
|
1326
|
-
"description": "Posiada silniejsze zdolności w zakresie rozumienia, planowania, refleksji i ewolucji. Jako model głębokiego myślenia o wszechstronnych umiejętnościach, Wenxin X1 łączy w sobie dokładność, kreatywność i styl, doskonale sprawdzając się w chińskich pytaniach i odpowiedziach, twórczości literackiej, pisaniu dokumentów, codziennych rozmowach, rozumowaniu logicznym, skomplikowanych obliczeniach oraz wywoływaniu narzędzi."
|
|
1327
|
-
},
|
|
1328
|
-
"ernie-x1-32k-preview": {
|
|
1329
|
-
"description": "Model ERNIE X1 charakteryzuje się silniejszymi zdolnościami w zakresie rozumienia, planowania, refleksji i ewolucji. Jako model głębokiego myślenia o szerszych możliwościach, ERNIE X1 łączy w sobie precyzję, kreatywność i styl, osiągając szczególne wyniki w chińskich pytaniach i odpowiedziach, twórczości literackiej, pisaniu tekstów, codziennych rozmowach, wnioskowaniu logicznym, złożonych obliczeniach oraz wywoływaniu narzędzi."
|
|
1350
|
+
"description": "ERNIE Tiny 8K, ultralekki model, odpowiedni do prostych pytań, klasyfikacji i innych niskokosztowych zadań wnioskowania."
|
|
1330
1351
|
},
|
|
1331
1352
|
"ernie-x1-turbo-32k": {
|
|
1332
|
-
"description": "
|
|
1353
|
+
"description": "ERNIE X1 Turbo 32K, model szybkiego rozumowania z kontekstem 32K, odpowiedni do złożonego wnioskowania i wieloetapowych rozmów."
|
|
1354
|
+
},
|
|
1355
|
+
"ernie-x1.1-preview": {
|
|
1356
|
+
"description": "ERNIE X1.1 Preview, wersja podglądowa modelu rozumowania ERNIE X1.1, odpowiednia do testów i walidacji możliwości."
|
|
1333
1357
|
},
|
|
1334
1358
|
"fal-ai/bytedance/seedream/v4": {
|
|
1335
1359
|
"description": "Model generowania obrazów Seedream 4.0 opracowany przez zespół Seed ByteDance, obsługuje wejścia tekstowe i obrazowe, oferując wysoką kontrolę i jakość generowanych obrazów. Generuje obrazy na podstawie tekstowych wskazówek."
|
|
@@ -1389,7 +1413,7 @@
|
|
|
1389
1413
|
"description": "FLUX.1 [schnell] to obecnie najbardziej zaawansowany otwarty model o małej liczbie kroków, przewyższający konkurencję, a nawet potężne modele nie destylowane, takie jak Midjourney v6.0 i DALL·E 3 (HD). Model został specjalnie dostrojony, aby zachować pełną różnorodność wyjść z fazy wstępnego treningu. W porównaniu z najlepszymi modelami na rynku FLUX.1 [schnell] znacząco poprawia jakość wizualną, zgodność z instrukcjami, obsługę zmian rozmiaru/proporcji, przetwarzanie czcionek oraz różnorodność generowanych obrazów, oferując użytkownikom bogatsze i bardziej zróżnicowane doświadczenia twórcze."
|
|
1390
1414
|
},
|
|
1391
1415
|
"flux.1-schnell": {
|
|
1392
|
-
"description": "
|
|
1416
|
+
"description": "FLUX.1-schnell, wydajny model generowania obrazów, odpowiedni do szybkiego tworzenia obrazów w różnych stylach."
|
|
1393
1417
|
},
|
|
1394
1418
|
"gemini-1.0-pro-001": {
|
|
1395
1419
|
"description": "Gemini 1.0 Pro 001 (Tuning) oferuje stabilną i dostosowywalną wydajność, co czyni go idealnym wyborem dla rozwiązań złożonych zadań."
|
|
@@ -1538,6 +1562,9 @@
|
|
|
1538
1562
|
"glm-4-0520": {
|
|
1539
1563
|
"description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do wysoko złożonych i zróżnicowanych zadań, z doskonałymi wynikami."
|
|
1540
1564
|
},
|
|
1565
|
+
"glm-4-32b-0414": {
|
|
1566
|
+
"description": "GLM-4 32B 0414, ogólny model dużej skali z serii GLM, wspierający generowanie i rozumienie tekstu w wielu zadaniach."
|
|
1567
|
+
},
|
|
1541
1568
|
"glm-4-9b-chat": {
|
|
1542
1569
|
"description": "GLM-4-9B-Chat osiąga wysoką wydajność w zakresie semantyki, matematyki, wnioskowania, kodowania i wiedzy. Obsługuje również przeglądanie stron internetowych, wykonywanie kodu, wywoływanie niestandardowych narzędzi oraz wnioskowanie na podstawie długich tekstów. Wspiera 26 języków, w tym japoński, koreański i niemiecki."
|
|
1543
1570
|
},
|
|
@@ -2036,14 +2063,26 @@
|
|
|
2036
2063
|
"internlm3-latest": {
|
|
2037
2064
|
"description": "Nasza najnowsza seria modeli, charakteryzująca się doskonałą wydajnością wnioskowania, prowadzi wśród modeli open-source o podobnej skali. Domyślnie wskazuje na naszą najnowszą wersję modelu InternLM3."
|
|
2038
2065
|
},
|
|
2066
|
+
"internvl2.5-38b-mpo": {
|
|
2067
|
+
"description": "InternVL2.5 38B MPO, multimodalny model wstępnie wytrenowany, wspierający złożone zadania wnioskowania obraz-tekst."
|
|
2068
|
+
},
|
|
2039
2069
|
"internvl2.5-latest": {
|
|
2040
2070
|
"description": "Wersja InternVL2.5, którą nadal utrzymujemy, charakteryzuje się doskonałą i stabilną wydajnością. Domyślnie wskazuje na nasz najnowszy model z serii InternVL2.5, obecnie wskazuje na internvl2.5-78b."
|
|
2041
2071
|
},
|
|
2072
|
+
"internvl3-14b": {
|
|
2073
|
+
"description": "InternVL3 14B, średniej wielkości model multimodalny, zapewniający równowagę między wydajnością a kosztem."
|
|
2074
|
+
},
|
|
2075
|
+
"internvl3-1b": {
|
|
2076
|
+
"description": "InternVL3 1B, lekki model multimodalny, odpowiedni do wdrożeń w środowiskach o ograniczonych zasobach."
|
|
2077
|
+
},
|
|
2078
|
+
"internvl3-38b": {
|
|
2079
|
+
"description": "InternVL3 38B, duży otwartoźródłowy model multimodalny, odpowiedni do zadań wymagających wysokiej precyzji w rozumieniu obrazów i tekstu."
|
|
2080
|
+
},
|
|
2042
2081
|
"internvl3-latest": {
|
|
2043
2082
|
"description": "Nasz najnowszy model multimodalny, który ma silniejsze zdolności rozumienia tekstu i obrazów oraz długoterminowego rozumienia obrazów, osiągający wyniki porównywalne z najlepszymi modelami zamkniętymi. Domyślnie wskazuje na nasz najnowszy model z serii InternVL, obecnie wskazuje na internvl3-78b."
|
|
2044
2083
|
},
|
|
2045
2084
|
"irag-1.0": {
|
|
2046
|
-
"description": "
|
|
2085
|
+
"description": "ERNIE iRAG, model generowania wspomaganego wyszukiwaniem obrazów, wspierający wyszukiwanie obrazem, wyszukiwanie obraz-tekst i generowanie treści."
|
|
2047
2086
|
},
|
|
2048
2087
|
"jamba-large": {
|
|
2049
2088
|
"description": "Nasz najsilniejszy i najbardziej zaawansowany model, zaprojektowany do obsługi złożonych zadań na poziomie przedsiębiorstw, oferujący doskonałą wydajność."
|
|
@@ -2064,7 +2103,7 @@
|
|
|
2064
2103
|
"description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
|
|
2065
2104
|
},
|
|
2066
2105
|
"kimi-k2-instruct": {
|
|
2067
|
-
"description": "Kimi K2 Instruct
|
|
2106
|
+
"description": "Kimi K2 Instruct, oficjalny model wnioskowania Kimi, wspierający długi kontekst, kodowanie, pytania i inne scenariusze."
|
|
2068
2107
|
},
|
|
2069
2108
|
"kimi-k2-turbo-preview": {
|
|
2070
2109
|
"description": "kimi-k2 to bazowy model z architekturą MoE, dysponujący wyjątkowymi możliwościami w zakresie kodowania i agentów, z łączną liczbą parametrów 1T oraz 32B parametrów aktywacyjnych. W standardowych testach wydajności (benchmarkach) dla głównych kategorii takich jak wnioskowanie z wiedzy ogólnej, programowanie, matematyka i agenty, model K2 przewyższa inne popularne otwarte modele."
|
|
@@ -2885,9 +2924,7 @@
|
|
|
2885
2924
|
"qwen2.5-72b-instruct": {
|
|
2886
2925
|
"description": "Model Qwen 2.5 o skali 72B, udostępniony na zasadzie open source."
|
|
2887
2926
|
},
|
|
2888
|
-
"qwen2.5-7b-instruct": {
|
|
2889
|
-
"description": "Model Qwen 2.5 o skali 7B, udostępniony na zasadzie open source."
|
|
2890
|
-
},
|
|
2927
|
+
"qwen2.5-7b-instruct": {},
|
|
2891
2928
|
"qwen2.5-coder-1.5b-instruct": {
|
|
2892
2929
|
"description": "Otwarta wersja modelu kodowania Qwen."
|
|
2893
2930
|
},
|
|
@@ -2918,15 +2955,11 @@
|
|
|
2918
2955
|
"qwen2.5-omni-7b": {
|
|
2919
2956
|
"description": "Model serii Qwen-Omni obsługuje wprowadzanie danych w różnych modalnościach, w tym wideo, audio, obrazy i tekst, oraz generuje audio i tekst."
|
|
2920
2957
|
},
|
|
2921
|
-
"qwen2.5-vl-32b-instruct": {
|
|
2922
|
-
"description": "Seria modeli Qwen2.5-VL poprawia poziom inteligencji, praktyczności i zastosowania modelu, co pozwala mu lepiej radzić sobie w naturalnej konwersacji, tworzeniu treści, usługach wiedzy specjalistycznej i programowaniu. Wersja 32B została zoptymalizowana za pomocą technologii uczenia wzmacniającego, co w porównaniu z innymi modelami serii Qwen2.5 VL, zapewnia bardziej zgodny z preferencjami ludzi styl wyjściowy, zdolność wnioskowania w złożonych problemach matematycznych oraz zdolność szczegółowej interpretacji i wnioskowania na podstawie obrazów."
|
|
2923
|
-
},
|
|
2958
|
+
"qwen2.5-vl-32b-instruct": {},
|
|
2924
2959
|
"qwen2.5-vl-72b-instruct": {
|
|
2925
2960
|
"description": "Zwiększona zdolność do podążania za instrukcjami, matematyki, rozwiązywania problemów i kodowania, poprawiona zdolność do rozpoznawania obiektów, wsparcie dla różnych formatów do precyzyjnego lokalizowania elementów wizualnych, zdolność do rozumienia długich plików wideo (do 10 minut) oraz lokalizowania momentów zdarzeń w czasie rzeczywistym, zdolność do rozumienia kolejności czasowej i szybkości, wsparcie dla operacji na systemach OS lub Mobile, silna zdolność do ekstrakcji kluczowych informacji i generowania wyjścia w formacie JSON. Ta wersja to wersja 72B, najsilniejsza w tej serii."
|
|
2926
2961
|
},
|
|
2927
|
-
"qwen2.5-vl-7b-instruct": {
|
|
2928
|
-
"description": "Zwiększona zdolność do podążania za instrukcjami, matematyki, rozwiązywania problemów i kodowania, poprawiona zdolność do rozpoznawania obiektów, wsparcie dla różnych formatów do precyzyjnego lokalizowania elementów wizualnych, zdolność do rozumienia długich plików wideo (do 10 minut) oraz lokalizowania momentów zdarzeń w czasie rzeczywistym, zdolność do rozumienia kolejności czasowej i szybkości, wsparcie dla operacji na systemach OS lub Mobile, silna zdolność do ekstrakcji kluczowych informacji i generowania wyjścia w formacie JSON. Ta wersja to wersja 72B, najsilniejsza w tej serii."
|
|
2929
|
-
},
|
|
2962
|
+
"qwen2.5-vl-7b-instruct": {},
|
|
2930
2963
|
"qwen2.5-vl-instruct": {
|
|
2931
2964
|
"description": "Qwen2.5-VL to najnowsza wersja modelu wizualno-lingwistycznego rodziny Qwen."
|
|
2932
2965
|
},
|
|
@@ -2951,48 +2984,22 @@
|
|
|
2951
2984
|
"qwen3": {
|
|
2952
2985
|
"description": "Qwen3 to nowa generacja dużego modelu językowego od Alibaba, który wspiera różnorodne potrzeby aplikacyjne dzięki doskonałej wydajności."
|
|
2953
2986
|
},
|
|
2954
|
-
"qwen3-0.6b": {
|
|
2955
|
-
|
|
2956
|
-
},
|
|
2957
|
-
"qwen3-
|
|
2958
|
-
|
|
2959
|
-
},
|
|
2960
|
-
"qwen3-
|
|
2961
|
-
|
|
2962
|
-
},
|
|
2963
|
-
"qwen3-
|
|
2964
|
-
|
|
2965
|
-
},
|
|
2966
|
-
"qwen3-235b-a22b-instruct-2507": {
|
|
2967
|
-
"description": "Otwartoźródłowy model trybu nie myślącego oparty na Qwen3, z niewielką poprawą w zakresie kreatywności subiektywnej i bezpieczeństwa modelu w porównaniu do poprzedniej wersji (Tongyi Qianwen 3-235B-A22B)."
|
|
2968
|
-
},
|
|
2969
|
-
"qwen3-235b-a22b-thinking-2507": {
|
|
2970
|
-
"description": "Otwartoźródłowy model trybu myślącego oparty na Qwen3, z dużymi ulepszeniami w zakresie zdolności logicznych, ogólnych, wzbogacenia wiedzy i kreatywności w porównaniu do poprzedniej wersji (Tongyi Qianwen 3-235B-A22B), odpowiedni do zadań wymagających zaawansowanego wnioskowania."
|
|
2971
|
-
},
|
|
2972
|
-
"qwen3-30b-a3b": {
|
|
2973
|
-
"description": "Qwen3 to nowa generacja modelu Qwen, który znacznie zwiększa możliwości w zakresie wnioskowania, ogólności, agenta i wielojęzyczności, osiągając wiodące w branży wyniki w wielu kluczowych obszarach i wspierając przełączanie trybów myślenia."
|
|
2974
|
-
},
|
|
2975
|
-
"qwen3-30b-a3b-instruct-2507": {
|
|
2976
|
-
"description": "W porównaniu z poprzednią wersją (Qwen3-30B-A3B) ogólne zdolności w języku chińskim, angielskim i wielojęzyczne zostały znacznie poprawione. Specjalna optymalizacja dla zadań subiektywnych i otwartych sprawia, że model lepiej odpowiada preferencjom użytkowników i potrafi dostarczać bardziej pomocne odpowiedzi."
|
|
2977
|
-
},
|
|
2978
|
-
"qwen3-30b-a3b-thinking-2507": {
|
|
2979
|
-
"description": "Model open source w trybie myślenia oparty na Qwen3, który w porównaniu z poprzednią wersją (Tongyi Qianwen 3-30B-A3B) wykazuje znaczne ulepszenia w zakresie zdolności logicznych, ogólnych, wzbogacenia wiedzy oraz kreatywności. Nadaje się do trudnych scenariuszy wymagających zaawansowanego rozumowania."
|
|
2980
|
-
},
|
|
2981
|
-
"qwen3-32b": {
|
|
2982
|
-
"description": "Qwen3 to nowa generacja modelu Qwen, który znacznie zwiększa możliwości w zakresie wnioskowania, ogólności, agenta i wielojęzyczności, osiągając wiodące w branży wyniki w wielu kluczowych obszarach i wspierając przełączanie trybów myślenia."
|
|
2983
|
-
},
|
|
2984
|
-
"qwen3-4b": {
|
|
2985
|
-
"description": "Qwen3 to nowa generacja modelu Qwen, który znacznie zwiększa możliwości w zakresie wnioskowania, ogólności, agenta i wielojęzyczności, osiągając wiodące w branży wyniki w wielu kluczowych obszarach i wspierając przełączanie trybów myślenia."
|
|
2986
|
-
},
|
|
2987
|
-
"qwen3-8b": {
|
|
2988
|
-
"description": "Qwen3 to nowa generacja modelu Qwen, który znacznie zwiększa możliwości w zakresie wnioskowania, ogólności, agenta i wielojęzyczności, osiągając wiodące w branży wyniki w wielu kluczowych obszarach i wspierając przełączanie trybów myślenia."
|
|
2989
|
-
},
|
|
2987
|
+
"qwen3-0.6b": {},
|
|
2988
|
+
"qwen3-1.7b": {},
|
|
2989
|
+
"qwen3-14b": {},
|
|
2990
|
+
"qwen3-235b-a22b": {},
|
|
2991
|
+
"qwen3-235b-a22b-instruct-2507": {},
|
|
2992
|
+
"qwen3-235b-a22b-thinking-2507": {},
|
|
2993
|
+
"qwen3-30b-a3b": {},
|
|
2994
|
+
"qwen3-30b-a3b-instruct-2507": {},
|
|
2995
|
+
"qwen3-30b-a3b-thinking-2507": {},
|
|
2996
|
+
"qwen3-32b": {},
|
|
2997
|
+
"qwen3-4b": {},
|
|
2998
|
+
"qwen3-8b": {},
|
|
2990
2999
|
"qwen3-coder-30b-a3b-instruct": {
|
|
2991
3000
|
"description": "Otwartoźródłowa wersja modelu kodowania Tongyi Qianwen. Najnowszy qwen3-coder-30b-a3b-instruct to model generowania kodu oparty na Qwen3, wyposażony w zaawansowane możliwości agenta kodującego, doskonale radzący sobie z wywoływaniem narzędzi i interakcją ze środowiskiem, umożliwiający autonomiczne programowanie i łączący doskonałe umiejętności kodowania z ogólnymi zdolnościami."
|
|
2992
3001
|
},
|
|
2993
|
-
"qwen3-coder-480b-a35b-instruct": {
|
|
2994
|
-
"description": "Otwartoźródłowa wersja modelu kodowania Tongyi Qianwen. Najnowszy qwen3-coder-480b-a35b-instruct to model generowania kodu oparty na Qwen3, posiadający potężne zdolności agenta kodującego, specjalizujący się w wywoływaniu narzędzi i interakcji środowiskowej, umożliwiający autonomiczne programowanie z doskonałymi zdolnościami kodowania i ogólnymi."
|
|
2995
|
-
},
|
|
3002
|
+
"qwen3-coder-480b-a35b-instruct": {},
|
|
2996
3003
|
"qwen3-coder-flash": {
|
|
2997
3004
|
"description": "Model kodowania Tongyi Qianwen. Najnowsza seria modeli Qwen3-Coder oparta na Qwen3 to modele generujące kod, posiadające potężne zdolności agenta kodującego, biegłe w wywoływaniu narzędzi i interakcji ze środowiskiem, umożliwiające autonomiczne programowanie, łącząc doskonałe umiejętności kodowania z uniwersalnymi zdolnościami."
|
|
2998
3005
|
},
|
|
@@ -3008,30 +3015,16 @@
|
|
|
3008
3015
|
"qwen3-next-80b-a3b-instruct": {
|
|
3009
3016
|
"description": "Nowa generacja otwartego modelu bez trybu myślenia oparta na Qwen3, która w porównaniu z poprzednią wersją (Tongyi Qianwen 3-235B-A22B-Instruct-2507) cechuje się lepszym rozumieniem tekstu w języku chińskim, wzmocnionymi zdolnościami wnioskowania logicznego oraz lepszą wydajnością w zadaniach generowania tekstu."
|
|
3010
3017
|
},
|
|
3011
|
-
"qwen3-next-80b-a3b-thinking": {
|
|
3012
|
-
"description": "Nowa generacja otwartego modelu z trybem myślenia oparta na Qwen3, która w porównaniu z poprzednią wersją (Tongyi Qianwen 3-235B-A22B-Thinking-2507) wykazuje poprawę w przestrzeganiu instrukcji oraz bardziej zwięzłe podsumowania w odpowiedziach modelu."
|
|
3013
|
-
},
|
|
3018
|
+
"qwen3-next-80b-a3b-thinking": {},
|
|
3014
3019
|
"qwen3-omni-flash": {
|
|
3015
3020
|
"description": "Model Qwen-Omni obsługuje wejścia w różnych modalnościach, takich jak tekst, obraz, dźwięk i wideo, generując odpowiedzi w formie tekstu lub mowy. Oferuje różnorodne, naturalnie brzmiące głosy, wspiera wiele języków i dialektów, i znajduje zastosowanie w takich obszarach jak tworzenie tekstów, rozpoznawanie obrazów czy asystenci głosowi."
|
|
3016
3021
|
},
|
|
3017
|
-
"qwen3-vl-235b-a22b-instruct": {
|
|
3018
|
-
|
|
3019
|
-
},
|
|
3020
|
-
"qwen3-vl-
|
|
3021
|
-
|
|
3022
|
-
},
|
|
3023
|
-
"qwen3-vl-30b-a3b-instruct": {
|
|
3024
|
-
"description": "Qwen3 VL 30B w trybie bez rozumowania (Instruct), przeznaczony do standardowych scenariuszy podążania za instrukcjami, oferujący wysoką jakość rozumienia i generowania multimodalnego."
|
|
3025
|
-
},
|
|
3026
|
-
"qwen3-vl-30b-a3b-thinking": {
|
|
3027
|
-
"description": "Qwen-VL (wersja open source) oferuje zdolności rozumienia wizualnego i generowania tekstu, wspiera interakcję z agentami, kodowanie wizualne, percepcję przestrzenną, rozumienie długich materiałów wideo i głębokie wnioskowanie, a także zapewnia zaawansowane rozpoznawanie tekstu i obsługę wielu języków w złożonych scenariuszach."
|
|
3028
|
-
},
|
|
3029
|
-
"qwen3-vl-8b-instruct": {
|
|
3030
|
-
"description": "Qwen3 VL 8B w trybie bez rozumowania (Instruct), odpowiedni do standardowych zadań generowania i rozpoznawania multimodalnego."
|
|
3031
|
-
},
|
|
3032
|
-
"qwen3-vl-8b-thinking": {
|
|
3033
|
-
"description": "Qwen3 VL 8B w trybie rozumowania, przeznaczony do lekkich scenariuszy multimodalnego wnioskowania i interakcji, z zachowaniem zdolności rozumienia długiego kontekstu."
|
|
3034
|
-
},
|
|
3022
|
+
"qwen3-vl-235b-a22b-instruct": {},
|
|
3023
|
+
"qwen3-vl-235b-a22b-thinking": {},
|
|
3024
|
+
"qwen3-vl-30b-a3b-instruct": {},
|
|
3025
|
+
"qwen3-vl-30b-a3b-thinking": {},
|
|
3026
|
+
"qwen3-vl-8b-instruct": {},
|
|
3027
|
+
"qwen3-vl-8b-thinking": {},
|
|
3035
3028
|
"qwen3-vl-flash": {
|
|
3036
3029
|
"description": "Qwen3 VL Flash: lekka, szybka wersja do wnioskowania, idealna do zastosowań wrażliwych na opóźnienia lub wymagających obsługi dużej liczby żądań."
|
|
3037
3030
|
},
|
|
@@ -255,10 +255,11 @@
|
|
|
255
255
|
"moveLocalFiles": "Przenieś pliki",
|
|
256
256
|
"readLocalFile": "Odczytaj zawartość pliku",
|
|
257
257
|
"renameLocalFile": "Zmień nazwę",
|
|
258
|
+
"runCommand": "Wykonaj kod",
|
|
258
259
|
"searchLocalFiles": "Wyszukaj pliki",
|
|
259
260
|
"writeLocalFile": "Zapisz do pliku"
|
|
260
261
|
},
|
|
261
|
-
"title": "
|
|
262
|
+
"title": "System lokalny"
|
|
262
263
|
},
|
|
263
264
|
"mcpInstall": {
|
|
264
265
|
"CHECKING_INSTALLATION": "Sprawdzanie środowiska instalacji...",
|
package/locales/pt-BR/chat.json
CHANGED
|
@@ -369,6 +369,26 @@
|
|
|
369
369
|
"remained": "Restante",
|
|
370
370
|
"used": "Usado"
|
|
371
371
|
},
|
|
372
|
+
"tool": {
|
|
373
|
+
"intervention": {
|
|
374
|
+
"approve": "Aprovar",
|
|
375
|
+
"approveAndRemember": "Aprovar e lembrar",
|
|
376
|
+
"approveOnce": "Aprovar apenas desta vez",
|
|
377
|
+
"mode": {
|
|
378
|
+
"allowList": "Lista de permissões",
|
|
379
|
+
"allowListDesc": "Executar automaticamente apenas as ferramentas aprovadas",
|
|
380
|
+
"autoRun": "Aprovação automática",
|
|
381
|
+
"autoRunDesc": "Aprovar automaticamente a execução de todas as ferramentas",
|
|
382
|
+
"manual": "Manual",
|
|
383
|
+
"manualDesc": "Requer aprovação manual a cada chamada"
|
|
384
|
+
},
|
|
385
|
+
"reject": "Rejeitar",
|
|
386
|
+
"rejectReasonPlaceholder": "Inserir o motivo da rejeição ajudará o Agente a entender e melhorar ações futuras",
|
|
387
|
+
"rejectTitle": "Rejeitar esta chamada de ferramenta",
|
|
388
|
+
"rejectedWithReason": "Esta chamada de ferramenta foi rejeitada: {{reason}}",
|
|
389
|
+
"toolRejected": "Esta chamada de ferramenta foi rejeitada"
|
|
390
|
+
}
|
|
391
|
+
},
|
|
372
392
|
"topic": {
|
|
373
393
|
"checkOpenNewTopic": "Deseja abrir um novo tópico?",
|
|
374
394
|
"checkSaveCurrentMessages": "Salvar a conversa atual como tópico?",
|