@lobehub/lobehub 2.0.0-next.51 → 2.0.0-next.52

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (84) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/apps/desktop/src/main/controllers/LocalFileCtr.ts +25 -5
  3. package/apps/desktop/src/main/controllers/__tests__/LocalFileCtr.test.ts +4 -1
  4. package/apps/desktop/src/main/modules/fileSearch/__tests__/macOS.integration.test.ts +357 -0
  5. package/apps/desktop/src/main/modules/fileSearch/impl/macOS.ts +30 -22
  6. package/changelog/v1.json +9 -0
  7. package/locales/ar/models.json +119 -126
  8. package/locales/ar/plugin.json +1 -1
  9. package/locales/bg-BG/models.json +104 -132
  10. package/locales/bg-BG/plugin.json +1 -1
  11. package/locales/de-DE/models.json +119 -126
  12. package/locales/de-DE/plugin.json +1 -1
  13. package/locales/en-US/models.json +167 -126
  14. package/locales/en-US/plugin.json +1 -1
  15. package/locales/es-ES/models.json +119 -126
  16. package/locales/es-ES/plugin.json +1 -1
  17. package/locales/fa-IR/models.json +119 -126
  18. package/locales/fa-IR/plugin.json +1 -1
  19. package/locales/fr-FR/models.json +119 -126
  20. package/locales/fr-FR/plugin.json +1 -1
  21. package/locales/it-IT/models.json +119 -126
  22. package/locales/it-IT/plugin.json +1 -1
  23. package/locales/ja-JP/models.json +119 -126
  24. package/locales/ja-JP/plugin.json +1 -1
  25. package/locales/ko-KR/models.json +119 -126
  26. package/locales/ko-KR/plugin.json +1 -1
  27. package/locales/nl-NL/models.json +119 -126
  28. package/locales/nl-NL/plugin.json +1 -1
  29. package/locales/pl-PL/models.json +119 -126
  30. package/locales/pl-PL/plugin.json +1 -1
  31. package/locales/pt-BR/models.json +119 -126
  32. package/locales/pt-BR/plugin.json +1 -1
  33. package/locales/ru-RU/models.json +119 -126
  34. package/locales/ru-RU/plugin.json +1 -1
  35. package/locales/tr-TR/models.json +119 -126
  36. package/locales/tr-TR/plugin.json +1 -1
  37. package/locales/vi-VN/models.json +119 -126
  38. package/locales/vi-VN/plugin.json +1 -1
  39. package/locales/zh-CN/models.json +173 -80
  40. package/locales/zh-CN/plugin.json +1 -1
  41. package/locales/zh-TW/models.json +119 -126
  42. package/locales/zh-TW/plugin.json +1 -1
  43. package/package.json +1 -1
  44. package/packages/electron-client-ipc/src/types/localSystem.ts +26 -2
  45. package/packages/model-runtime/src/core/contextBuilders/openai.test.ts +58 -0
  46. package/packages/model-runtime/src/core/contextBuilders/openai.ts +24 -10
  47. package/packages/model-runtime/src/core/openaiCompatibleFactory/index.ts +3 -2
  48. package/packages/model-runtime/src/providers/openai/index.test.ts +44 -0
  49. package/packages/types/src/tool/builtin.ts +6 -4
  50. package/src/features/Conversation/Messages/Assistant/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  51. package/src/features/Conversation/Messages/Group/Tool/Render/Intervention/index.tsx +2 -2
  52. package/src/features/Conversation/Messages/Group/Tool/Render/LoadingPlaceholder/index.tsx +3 -3
  53. package/src/features/PluginsUI/Render/BuiltinType/index.test.tsx +10 -4
  54. package/src/features/PluginsUI/Render/BuiltinType/index.tsx +2 -2
  55. package/src/locales/default/plugin.ts +1 -1
  56. package/src/services/chat/chat.test.ts +1 -0
  57. package/src/store/aiInfra/slices/aiProvider/__tests__/selectors.test.ts +62 -0
  58. package/src/store/aiInfra/slices/aiProvider/selectors.ts +1 -1
  59. package/src/tools/code-interpreter/Render/index.tsx +1 -1
  60. package/src/tools/interventions.ts +28 -4
  61. package/src/tools/local-system/Placeholder/ListFiles.tsx +3 -5
  62. package/src/tools/local-system/Placeholder/SearchFiles.tsx +2 -5
  63. package/src/tools/local-system/Render/ListFiles/index.tsx +16 -21
  64. package/src/tools/local-system/Render/RenameLocalFile/index.tsx +15 -20
  65. package/src/tools/local-system/Render/RunCommand/index.tsx +67 -70
  66. package/src/tools/local-system/Render/SearchFiles/SearchQuery/index.tsx +0 -1
  67. package/src/tools/local-system/Render/SearchFiles/index.tsx +15 -20
  68. package/src/tools/local-system/Render/WriteFile/index.tsx +2 -8
  69. package/src/tools/local-system/index.ts +4 -4
  70. package/src/tools/local-system/systemRole.ts +1 -1
  71. package/src/tools/placeholders.ts +39 -8
  72. package/src/tools/renders.ts +56 -9
  73. package/src/tools/web-browsing/Placeholder/{PageContent.tsx → CrawlMultiPages.tsx} +4 -1
  74. package/src/tools/web-browsing/Placeholder/CrawlSinglePage.tsx +12 -0
  75. package/src/tools/web-browsing/Placeholder/Search.tsx +4 -4
  76. package/src/tools/web-browsing/Render/CrawlMultiPages.tsx +15 -0
  77. package/src/tools/web-browsing/Render/CrawlSinglePage.tsx +15 -0
  78. package/src/tools/web-browsing/Render/Search/index.tsx +39 -44
  79. package/packages/database/migrations/0044_add_tool_intervention.sql +0 -1
  80. package/src/tools/local-system/Intervention/index.tsx +0 -17
  81. package/src/tools/local-system/Placeholder/index.tsx +0 -25
  82. package/src/tools/local-system/Render/index.tsx +0 -42
  83. package/src/tools/web-browsing/Placeholder/index.tsx +0 -40
  84. package/src/tools/web-browsing/Render/index.tsx +0 -57
@@ -1049,6 +1049,9 @@
1049
1049
  "deepseek-r1-0528": {
1050
1050
  "description": "Модель полной мощности с 685 миллиардами параметров, выпущенная 28 мая 2025 года. DeepSeek-R1 широко использует методы обучения с подкреплением на этапе дообучения, что значительно улучшает способности модели к рассуждению при минимальном количестве размеченных данных. Высокая производительность и сильные возможности в задачах математики, программирования и естественно-языкового вывода."
1051
1051
  },
1052
+ "deepseek-r1-250528": {
1053
+ "description": "DeepSeek R1 250528 — полнофункциональная модель вывода DeepSeek-R1, подходящая для сложных математических и логических задач."
1054
+ },
1052
1055
  "deepseek-r1-70b-fast-online": {
1053
1056
  "description": "DeepSeek R1 70B быстрая версия, поддерживающая онлайн-поиск в реальном времени, обеспечивающая более быструю скорость отклика при сохранении производительности модели."
1054
1057
  },
@@ -1059,31 +1062,34 @@
1059
1062
  "description": "deepseek-r1-distill-llama — это модель, полученная путём дистилляции из DeepSeek-R1 на основе Llama."
1060
1063
  },
1061
1064
  "deepseek-r1-distill-llama-70b": {
1062
- "description": "DeepSeek R1 более крупная и умная модель в наборе DeepSeek, была дистиллирована в архитектуру Llama 70B. На основе бенчмарков и ручной оценки эта модель более умная, особенно в задачах, требующих математической и фактической точности."
1065
+ "description": "DeepSeek R1 Distill Llama 70B дистиллированная модель, сочетающая универсальные возможности вывода R1 с экосистемой Llama."
1063
1066
  },
1064
1067
  "deepseek-r1-distill-llama-8b": {
1065
- "description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
1068
+ "description": "DeepSeek-R1-Distill-Llama-8B дистиллированная крупная языковая модель на основе Llama-3.1-8B, использующая выводы DeepSeek R1."
1066
1069
  },
1067
- "deepseek-r1-distill-qianfan-llama-70b": {
1068
- "description": "Выпущена 14 февраля 2025 года, дистиллированная модель, разработанная командой Qianfan на основе Llama3_70B (создана с использованием Meta Llama), в дистиллированные данные также были добавлены материалы Qianfan."
1070
+ "deepseek-r1-distill-qianfan-70b": {
1071
+ "description": "DeepSeek R1 Distill Qianfan 70B дистиллированная модель R1 на базе Qianfan-70B, с отличным соотношением цена/качество."
1069
1072
  },
1070
- "deepseek-r1-distill-qianfan-llama-8b": {
1071
- "description": "Выпущена 14 февраля 2025 года, дистиллированная модель, разработанная командой Qianfan на основе Llama3_8B (создана с использованием Meta Llama), в дистиллированные данные также были добавлены материалы Qianfan."
1073
+ "deepseek-r1-distill-qianfan-8b": {
1074
+ "description": "DeepSeek R1 Distill Qianfan 8B дистиллированная модель R1 на базе Qianfan-8B, подходящая для средних и малых приложений."
1075
+ },
1076
+ "deepseek-r1-distill-qianfan-llama-70b": {
1077
+ "description": "DeepSeek R1 Distill Qianfan Llama 70B — дистиллированная модель R1 на основе Llama-70B."
1072
1078
  },
1073
1079
  "deepseek-r1-distill-qwen": {
1074
1080
  "description": "deepseek-r1-distill-qwen — это модель, полученная методом дистилляции из DeepSeek-R1 на основе Qwen."
1075
1081
  },
1076
1082
  "deepseek-r1-distill-qwen-1.5b": {
1077
- "description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
1083
+ "description": "DeepSeek R1 Distill Qwen 1.5B сверхлёгкая дистиллированная модель R1, подходящая для сред с крайне ограниченными ресурсами."
1078
1084
  },
1079
1085
  "deepseek-r1-distill-qwen-14b": {
1080
- "description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
1086
+ "description": "DeepSeek R1 Distill Qwen 14B дистиллированная модель R1 среднего размера, подходящая для многосценарного развертывания."
1081
1087
  },
1082
1088
  "deepseek-r1-distill-qwen-32b": {
1083
- "description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
1089
+ "description": "DeepSeek R1 Distill Qwen 32B дистиллированная модель R1 на базе Qwen-32B, сбалансированная по производительности и стоимости."
1084
1090
  },
1085
1091
  "deepseek-r1-distill-qwen-7b": {
1086
- "description": "Модели серии DeepSeek-R1-Distill были получены с помощью технологии дистилляции знаний, донастраивая образцы, сгенерированные DeepSeek-R1, на открытых моделях, таких как Qwen и Llama."
1092
+ "description": "DeepSeek R1 Distill Qwen 7B лёгкая дистиллированная модель R1, подходящая для периферийных и корпоративных приватных сред."
1087
1093
  },
1088
1094
  "deepseek-r1-fast-online": {
1089
1095
  "description": "DeepSeek R1 полная быстрая версия, поддерживающая онлайн-поиск в реальном времени, объединяющая мощные возможности 671B параметров и более быструю скорость отклика."
@@ -1112,12 +1118,24 @@
1112
1118
  "deepseek-v3.1-terminus": {
1113
1119
  "description": "DeepSeek-V3.1-Terminus — это оптимизированная версия крупной языковой модели от DeepSeek, специально адаптированная для работы на конечных устройствах."
1114
1120
  },
1121
+ "deepseek-v3.1-think-250821": {
1122
+ "description": "DeepSeek V3.1 Think 250821 — модель глубокого мышления версии Terminus, предназначенная для высокопроизводительных задач вывода."
1123
+ },
1115
1124
  "deepseek-v3.1:671b": {
1116
1125
  "description": "DeepSeek V3.1: модель следующего поколения для вывода, улучшенная для сложных рассуждений и цепочек мышления, подходит для задач, требующих глубокого анализа."
1117
1126
  },
1118
1127
  "deepseek-v3.2-exp": {
1119
1128
  "description": "deepseek-v3.2-exp внедряет механизм разреженного внимания, направленный на повышение эффективности обучения и вывода при обработке длинных текстов, при этом стоимость ниже, чем у deepseek-v3.1."
1120
1129
  },
1130
+ "deepseek-v3.2-think": {
1131
+ "description": "DeepSeek V3.2 Think — полнофункциональная модель глубокого мышления с усиленными возможностями длинноцепочечного вывода."
1132
+ },
1133
+ "deepseek-vl2": {
1134
+ "description": "DeepSeek VL2 — мультимодальная модель, поддерживающая понимание изображений и текста, а также детализированный визуальный вопрос-ответ."
1135
+ },
1136
+ "deepseek-vl2-small": {
1137
+ "description": "DeepSeek VL2 Small — облегчённая мультимодальная версия, подходящая для ограниченных по ресурсам и высоконагруженных сценариев."
1138
+ },
1121
1139
  "deepseek/deepseek-chat-v3-0324": {
1122
1140
  "description": "DeepSeek V3 — это экспертная смешанная модель с 685B параметрами, являющаяся последней итерацией флагманской серии чат-моделей команды DeepSeek.\n\nОна унаследовала модель [DeepSeek V3](/deepseek/deepseek-chat-v3) и демонстрирует отличные результаты в различных задачах."
1123
1141
  },
@@ -1253,83 +1271,89 @@
1253
1271
  "emohaa": {
1254
1272
  "description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
1255
1273
  },
1256
- "ernie-3.5-128k": {
1257
- "description": "Флагманская большая языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными способностями, способная удовлетворить требования большинства сценариев диалогов, генерации контента и применения плагинов; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
1258
- },
1259
- "ernie-3.5-8k": {
1260
- "description": "Флагманская большая языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными способностями, способная удовлетворить требования большинства сценариев диалогов, генерации контента и применения плагинов; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
1261
- },
1262
- "ernie-3.5-8k-preview": {
1263
- "description": "Флагманская большая языковая модель, разработанная Baidu, охватывающая огромные объемы китайских и английских текстов, обладающая мощными универсальными способностями, способная удовлетворить требования большинства сценариев диалогов, генерации контента и применения плагинов; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
1264
- },
1265
- "ernie-4.0-8k-latest": {
1266
- "description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, по сравнению с ERNIE 3.5 демонстрирует полное обновление возможностей модели, широко применима в сложных задачах различных областей; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
1267
- },
1268
- "ernie-4.0-8k-preview": {
1269
- "description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, по сравнению с ERNIE 3.5 демонстрирует полное обновление возможностей модели, широко применима в сложных задачах различных областей; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации."
1270
- },
1271
- "ernie-4.0-turbo-128k": {
1272
- "description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
1273
- },
1274
- "ernie-4.0-turbo-8k-latest": {
1275
- "description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
1276
- },
1277
- "ernie-4.0-turbo-8k-preview": {
1278
- "description": "Флагманская сверхбольшая языковая модель, разработанная Baidu, демонстрирует отличные результаты в комплексных задачах, широко применима в различных областях; поддерживает автоматическое подключение к плагину поиска Baidu, обеспечивая актуальность информации. По сравнению с ERNIE 4.0, она показывает лучшие результаты."
1274
+ "ernie-4.5-0.3b": {
1275
+ "description": "ERNIE 4.5 0.3B лёгкая открытая модель, подходящая для локального и кастомизированного развертывания."
1279
1276
  },
1280
1277
  "ernie-4.5-21b-a3b": {
1281
- "description": "ERNIE 4.5 21B A3B — это гибридная модель экспертов от Baidu Wenxin, обладающая мощными возможностями логического вывода и поддержки нескольких языков."
1278
+ "description": "ERNIE 4.5 21B A3B — открытая модель с большим числом параметров, демонстрирующая высокую эффективность в задачах понимания и генерации."
1282
1279
  },
1283
1280
  "ernie-4.5-300b-a47b": {
1284
1281
  "description": "ERNIE 4.5 300B A47B — это сверхмасштабная гибридная модель экспертов от Baidu Wenxin с выдающимися возможностями логического вывода."
1285
1282
  },
1286
1283
  "ernie-4.5-8k-preview": {
1287
- "description": "Модель Ernie 4.5 это новое поколение оригинальной мультимодальной базовой модели, разработанной Baidu, которая достигает совместной оптимизации через совместное моделирование нескольких модальностей, обладая отличными способностями к мультимодальному пониманию; обладает более совершенными языковыми способностями, улучшенными способностями к пониманию, генерации, логике и памяти, а также значительно улучшенными способностями к устранению галлюцинаций, логическому выводу и кодированию."
1284
+ "description": "ERNIE 4.5 8K Preview модель с контекстом 8K для предварительного ознакомления и тестирования возможностей Wenxin 4.5."
1288
1285
  },
1289
1286
  "ernie-4.5-turbo-128k": {
1290
- "description": "Модель ERNIE 4.5 Turbo значительно улучшила свои способности в области устранения галлюцинаций, логического вывода и программирования. По сравнению с ERNIE 4.5, она быстрее и дешевле. Способности модели значительно улучшены, что лучше удовлетворяет потребности в обработке многократных длинных историй диалогов и задачах понимания длинных документов."
1287
+ "description": "ERNIE 4.5 Turbo 128K высокопроизводительная универсальная модель с поддержкой поиска и вызова инструментов, подходящая для задач вопросов-ответов, программирования и интеллектуальных агентов."
1288
+ },
1289
+ "ernie-4.5-turbo-128k-preview": {
1290
+ "description": "ERNIE 4.5 Turbo 128K Preview — предварительная версия с функциональностью, аналогичной финальной, подходящая для интеграционного тестирования и A/B-тестов."
1291
1291
  },
1292
1292
  "ernie-4.5-turbo-32k": {
1293
- "description": "Модель ERNIE 4.5 Turbo также значительно улучшила свои способности в области устранения галлюцинаций, логического вывода и программирования. По сравнению с ERNIE 4.5, она быстрее и дешевле. Способности в текстовом творчестве и вопросах и ответах значительно возросли. Длина вывода и задержка целых предложений увеличились по сравнению с ERNIE 4.5."
1293
+ "description": "ERNIE 4.5 Turbo 32K версия с контекстом средней длины, подходящая для вопросов-ответов, поиска по базе знаний и многотуровых диалогов."
1294
+ },
1295
+ "ernie-4.5-turbo-latest": {
1296
+ "description": "ERNIE 4.5 Turbo Latest — последняя версия с оптимизированной производительностью, подходящая в качестве основной модели для продакшн-среды."
1297
+ },
1298
+ "ernie-4.5-turbo-vl": {
1299
+ "description": "ERNIE 4.5 Turbo VL — зрелая мультимодальная модель, подходящая для задач понимания и распознавания изображений и текста в продакшн-среде."
1294
1300
  },
1295
1301
  "ernie-4.5-turbo-vl-32k": {
1296
- "description": "Новая версия большой модели ERNIE с заметным улучшением в понимании изображений, творчестве, переводе и программировании, впервые поддерживает длину контекста 32K, задержка первого токена значительно снижена."
1302
+ "description": "ERNIE 4.5 Turbo VL 32K мультимодальная модель со средне-длинным контекстом, подходящая для совместного анализа длинных документов и изображений."
1303
+ },
1304
+ "ernie-4.5-turbo-vl-32k-preview": {
1305
+ "description": "ERNIE 4.5 Turbo VL 32K Preview — предварительная версия мультимодели с контекстом 32K, удобна для оценки визуальных возможностей в длинных контекстах."
1306
+ },
1307
+ "ernie-4.5-turbo-vl-latest": {
1308
+ "description": "ERNIE 4.5 Turbo VL Latest — последняя версия мультимодальной модели с улучшенным пониманием и выводом по изображениям и тексту."
1309
+ },
1310
+ "ernie-4.5-turbo-vl-preview": {
1311
+ "description": "ERNIE 4.5 Turbo VL Preview — предварительная мультимодальная модель, поддерживающая генерацию и понимание изображений и текста, подходящая для визуального вопрос-ответа и анализа контента."
1312
+ },
1313
+ "ernie-4.5-vl-28b-a3b": {
1314
+ "description": "ERNIE 4.5 VL 28B A3B — открытая мультимодальная модель, поддерживающая задачи понимания и вывода по изображениям и тексту."
1315
+ },
1316
+ "ernie-5.0-thinking-preview": {
1317
+ "description": "Wenxin 5.0 Thinking Preview — флагманская нативная мультимодальная модель, поддерживающая единое моделирование текста, изображений, аудио и видео. Комплексное обновление возможностей, подходящее для сложных вопросов, творчества и интеллектуальных агентов."
1297
1318
  },
1298
1319
  "ernie-char-8k": {
1299
- "description": "Специализированная большая языковая модель, разработанная Baidu, подходящая для применения в игровых NPC, диалогах службы поддержки, ролевых играх и других сценариях, с более ярким и последовательным стилем персонажей, более высокой способностью следовать инструкциям и лучшей производительностью вывода."
1320
+ "description": "ERNIE Character 8K модель диалога с персонализированными персонажами, подходящая для создания IP-персонажей и длительного общения."
1300
1321
  },
1301
1322
  "ernie-char-fiction-8k": {
1302
- "description": "Специализированная большая языковая модель, разработанная Baidu, подходящая для применения в игровых NPC, диалогах службы поддержки, ролевых играх и других сценариях, с более ярким и последовательным стилем персонажей, более высокой способностью следовать инструкциям и лучшей производительностью вывода."
1323
+ "description": "ERNIE Character Fiction 8K персонализированная модель для написания художественных текстов и сюжетов, подходящая для генерации длинных историй."
1324
+ },
1325
+ "ernie-char-fiction-8k-preview": {
1326
+ "description": "ERNIE Character Fiction 8K Preview — предварительная версия модели для создания персонажей и сюжетов, предназначенная для тестирования и ознакомления."
1303
1327
  },
1304
1328
  "ernie-irag-edit": {
1305
- "description": "Собственная модель редактирования изображений ERNIE iRAG от Baidu поддерживает операции удаления объектов (erase), перерисовки (repaint) и вариаций (variation) на основе изображений."
1329
+ "description": "ERNIE iRAG Edit модель редактирования изображений с поддержкой удаления, перерисовки и генерации вариантов."
1306
1330
  },
1307
1331
  "ernie-lite-8k": {
1308
- "description": "ERNIE Lite — это легковесная большая языковая модель, разработанная Baidu, которая сочетает в себе отличные результаты модели и производительность вывода, подходит для использования на AI-ускорителях с низкой вычислительной мощностью."
1332
+ "description": "ERNIE Lite 8K лёгкая универсальная модель, подходящая для повседневных задач вопросов-ответов и генерации контента при ограниченном бюджете."
1309
1333
  },
1310
1334
  "ernie-lite-pro-128k": {
1311
- "description": "Легковесная большая языковая модель, разработанная Baidu, которая сочетает в себе отличные результаты модели и производительность вывода, превосходя ERNIE Lite, подходит для использования на AI-ускорителях с низкой вычислительной мощностью."
1335
+ "description": "ERNIE Lite Pro 128K лёгкая высокопроизводительная модель, подходящая для задач с чувствительностью к задержке и стоимости."
1312
1336
  },
1313
1337
  "ernie-novel-8k": {
1314
- "description": "Универсальная большая языковая модель, разработанная Baidu, обладающая явными преимуществами в способности продолжать написание романов, также может использоваться в сценариях коротких пьес и фильмов."
1338
+ "description": "ERNIE Novel 8K модель для написания длинных романов и IP-сюжетов, хорошо справляется с многоперсонажными и многолинейными повествованиями."
1315
1339
  },
1316
1340
  "ernie-speed-128k": {
1317
- "description": "Новая высокопроизводительная большая языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными способностями, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с проблемами конкретных сценариев, при этом обладая отличной производительностью вывода."
1341
+ "description": "ERNIE Speed 128K крупная модель без затрат на ввод/вывод, подходящая для понимания длинных текстов и масштабного тестирования."
1342
+ },
1343
+ "ernie-speed-8k": {
1344
+ "description": "ERNIE Speed 8K — бесплатная и быстрая модель, подходящая для повседневных диалогов и лёгких текстовых задач."
1318
1345
  },
1319
1346
  "ernie-speed-pro-128k": {
1320
- "description": "Новая высокопроизводительная большая языковая модель, разработанная Baidu в 2024 году, обладающая выдающимися универсальными способностями, превосходя ERNIE Speed, подходит для использования в качестве базовой модели для тонкой настройки, лучше справляясь с проблемами конкретных сценариев, при этом обладая отличной производительностью вывода."
1347
+ "description": "ERNIE Speed Pro 128K высокопроизводительная модель с отличной масштабируемостью, подходящая для онлайн-сервисов и корпоративных приложений."
1321
1348
  },
1322
1349
  "ernie-tiny-8k": {
1323
- "description": "ERNIE Tiny — это сверхвысокопроизводительная большая языковая модель, стоимость развертывания и тонкой настройки которой является самой низкой среди моделей серии Wenxin."
1324
- },
1325
- "ernie-x1-32k": {
1326
- "description": "Обладает более сильными способностями к пониманию, планированию, рефлексии и эволюции. Как более универсальная модель глубокого мышления, ERNIE-X1 сочетает в себе точность, креативность и литературный стиль, особенно хорошо проявляя себя в китайских вопросах и ответах, литературном творчестве, написании текстов, повседневных диалогах, логическом выводе, сложных вычислениях и вызовах инструментов."
1327
- },
1328
- "ernie-x1-32k-preview": {
1329
- "description": "Модель Ernie X1 обладает более сильными способностями к пониманию, планированию, рефлексии и эволюции. Как более универсальная модель глубокого мышления, Ernie X1 сочетает в себе точность, креативность и литературный стиль, особенно выделяясь в области вопросов и ответов на китайском языке, литературного творчества, написания текстов, повседневных диалогов, логического вывода, сложных вычислений и вызова инструментов."
1350
+ "description": "ERNIE Tiny 8K сверхлёгкая модель, подходящая для простых задач вопросов-ответов, классификации и других недорогих сценариев вывода."
1330
1351
  },
1331
1352
  "ernie-x1-turbo-32k": {
1332
- "description": "Модель имеет лучшие результаты и производительность по сравнению с ERNIE-X1-32K."
1353
+ "description": "ERNIE X1 Turbo 32K модель быстрого мышления с длинным контекстом 32K, подходящая для сложного вывода и многотуровых диалогов."
1354
+ },
1355
+ "ernie-x1.1-preview": {
1356
+ "description": "ERNIE X1.1 Preview — предварительная версия модели мышления ERNIE X1.1, подходящая для тестирования и валидации возможностей."
1333
1357
  },
1334
1358
  "fal-ai/bytedance/seedream/v4": {
1335
1359
  "description": "Модель генерации изображений Seedream 4.0 разработана командой Seed компании ByteDance, поддерживает ввод текста и изображений, обеспечивая высококонтролируемый и качественный опыт генерации изображений. Генерация изображений на основе текстовых подсказок."
@@ -1389,7 +1413,7 @@
1389
1413
  "description": "FLUX.1 [schnell] — самая передовая открытая модель с малым числом шагов генерации, превосходящая конкурентов и даже такие мощные не дистиллированные модели, как Midjourney v6.0 и DALL·E 3 (HD). Модель специально донастроена для сохранения всего разнообразия выходных данных, достигнутого на этапе предобучения. По сравнению с современными топовыми моделями на рынке, FLUX.1 [schnell] значительно улучшает визуальное качество, следование инструкциям, изменение размеров и пропорций, обработку шрифтов и разнообразие выходных данных, обеспечивая пользователям более богатый и разнообразный творческий опыт генерации изображений."
1390
1414
  },
1391
1415
  "flux.1-schnell": {
1392
- "description": "Исправленный потоковый трансформер с 12 миллиардами параметров, способный генерировать изображения на основе текстовых описаний."
1416
+ "description": "FLUX.1-schnell высокопроизводительная модель генерации изображений, подходящая для быстрого создания изображений в различных стилях."
1393
1417
  },
1394
1418
  "gemini-1.0-pro-001": {
1395
1419
  "description": "Gemini 1.0 Pro 001 (Тюнинг) предлагает стабильную и настраиваемую производительность, что делает её идеальным выбором для решения сложных задач."
@@ -1538,6 +1562,9 @@
1538
1562
  "glm-4-0520": {
1539
1563
  "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты."
1540
1564
  },
1565
+ "glm-4-32b-0414": {
1566
+ "description": "GLM-4 32B 0414 — универсальная крупная модель серии GLM, поддерживающая многозадачную генерацию и понимание текста."
1567
+ },
1541
1568
  "glm-4-9b-chat": {
1542
1569
  "description": "GLM-4-9B-Chat демонстрирует высокую производительность в области семантики, математики, логики, программирования и знаний. Поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и обработку длинных текстов. Поддерживает 26 языков, включая японский, корейский и немецкий."
1543
1570
  },
@@ -2036,14 +2063,26 @@
2036
2063
  "internlm3-latest": {
2037
2064
  "description": "Наша последняя серия моделей с выдающейся производительностью вывода, лидирующая среди моделей открытого кода того же уровня. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternLM3."
2038
2065
  },
2066
+ "internvl2.5-38b-mpo": {
2067
+ "description": "InternVL2.5 38B MPO — мультимодальная предварительно обученная модель, поддерживающая сложные задачи вывода по изображениям и тексту."
2068
+ },
2039
2069
  "internvl2.5-latest": {
2040
2070
  "description": "Мы продолжаем поддерживать версию InternVL2.5, обладающую отличной и стабильной производительностью. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternVL2.5, в настоящее время указывает на internvl2.5-78b."
2041
2071
  },
2072
+ "internvl3-14b": {
2073
+ "description": "InternVL3 14B — мультимодальная модель среднего размера, обеспечивающая баланс между производительностью и стоимостью."
2074
+ },
2075
+ "internvl3-1b": {
2076
+ "description": "InternVL3 1B — лёгкая мультимодальная модель, подходящая для развертывания в условиях ограниченных ресурсов."
2077
+ },
2078
+ "internvl3-38b": {
2079
+ "description": "InternVL3 38B — крупная открытая мультимодальная модель, подходящая для высокоточного понимания изображений и текста."
2080
+ },
2042
2081
  "internvl3-latest": {
2043
2082
  "description": "Мы выпустили нашу последнюю многомодальную большую модель, обладающую более сильными способностями к пониманию текстов и изображений, а также к пониманию длинных последовательностей изображений, производительность которой сопоставима с ведущими закрытыми моделями. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternVL, в настоящее время указывает на internvl3-78b."
2044
2083
  },
2045
2084
  "irag-1.0": {
2046
- "description": "Собственная технология Baidu iRAG (image based RAG) это метод генерации изображений с усилением поиска, который объединяет миллиардные ресурсы изображений Baidu Search с мощными базовыми моделями, позволяя создавать сверхреалистичные изображения, значительно превосходящие традиционные системы генерации изображений. Модель отличается отсутствием артефактов AI, высокой реалистичностью и мгновенной доступностью при низких затратах."
2085
+ "description": "ERNIE iRAG — модель генерации с усилением через поиск изображений, поддерживает поиск по изображениям, мультимодальный поиск и генерацию контента."
2047
2086
  },
2048
2087
  "jamba-large": {
2049
2088
  "description": "Наша самая мощная и передовая модель, разработанная для решения сложных задач корпоративного уровня, обладающая выдающейся производительностью."
@@ -2064,7 +2103,7 @@
2064
2103
  "description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
2065
2104
  },
2066
2105
  "kimi-k2-instruct": {
2067
- "description": "Kimi K2 Instruct — это крупная языковая модель от Moonshot AI, обладающая способностью обрабатывать сверхдлинный контекст."
2106
+ "description": "Kimi K2 Instruct — официальная модель вывода Kimi, поддерживающая длинный контекст, программирование, вопросы-ответы и другие сценарии."
2068
2107
  },
2069
2108
  "kimi-k2-turbo-preview": {
2070
2109
  "description": "kimi-k2 — это базовая модель архитектуры MoE с выдающимися возможностями в области программирования и агентов. Общий объём параметров — 1 трлн, активируемые параметры — 32 млрд. В бенчмарках по основным категориям (общее знание и рассуждение, программирование, математика, агенты и пр.) модель K2 демонстрирует результаты выше, чем у других ведущих открытых моделей."
@@ -2885,9 +2924,7 @@
2885
2924
  "qwen2.5-72b-instruct": {
2886
2925
  "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 72B."
2887
2926
  },
2888
- "qwen2.5-7b-instruct": {
2889
- "description": "Модель Tongyi Qwen 2.5 с открытым исходным кодом объемом 7B."
2890
- },
2927
+ "qwen2.5-7b-instruct": {},
2891
2928
  "qwen2.5-coder-1.5b-instruct": {
2892
2929
  "description": "Открытая версия модели кода Qwen."
2893
2930
  },
@@ -2918,15 +2955,11 @@
2918
2955
  "qwen2.5-omni-7b": {
2919
2956
  "description": "Модели серии Qwen-Omni поддерживают ввод данных в различных модальностях, включая видео, аудио, изображения и текст, и выводят аудио и текст."
2920
2957
  },
2921
- "qwen2.5-vl-32b-instruct": {
2922
- "description": "Модели серии Qwen2.5-VL демонстрируют повышенный уровень интеллекта, практичности и адаптивности, что обеспечивает их превосходную производительность в таких сценариях, как естественные диалоги, создание контента, предоставление экспертных знаний и разработка кода. Версия 32B оптимизирована с использованием технологий обучения с подкреплением, что по сравнению с другими моделями серии Qwen2.5 VL обеспечивает более соответствующий человеческим предпочтениям стиль вывода, способность к решению сложных математических задач, а также детальное понимание и анализ изображений."
2923
- },
2958
+ "qwen2.5-vl-32b-instruct": {},
2924
2959
  "qwen2.5-vl-72b-instruct": {
2925
2960
  "description": "Улучшение следования инструкциям, математики, решения задач и кода, улучшение способности распознавания объектов, поддержка точного позиционирования визуальных элементов в различных форматах, поддержка понимания длинных видеофайлов (максимум 10 минут) и локализация событий на уровне секунд, способность понимать последовательность времени и скорость, поддержка управления агентами ОС или мобильными устройствами на основе аналитических и позиционных возможностей, высокая способность извлечения ключевой информации и вывода в формате Json. Эта версия является 72B, самой мощной в серии."
2926
2961
  },
2927
- "qwen2.5-vl-7b-instruct": {
2928
- "description": "Улучшение следования инструкциям, математики, решения задач и кода, улучшение способности распознавания объектов, поддержка точного позиционирования визуальных элементов в различных форматах, поддержка понимания длинных видеофайлов (максимум 10 минут) и локализация событий на уровне секунд, способность понимать последовательность времени и скорость, поддержка управления агентами ОС или мобильными устройствами на основе аналитических и позиционных возможностей, высокая способность извлечения ключевой информации и вывода в формате Json. Эта версия является 72B, самой мощной в серии."
2929
- },
2962
+ "qwen2.5-vl-7b-instruct": {},
2930
2963
  "qwen2.5-vl-instruct": {
2931
2964
  "description": "Qwen2.5-VL - это последняя версия визуально-языковой модели в семействе моделей Qwen."
2932
2965
  },
@@ -2951,48 +2984,22 @@
2951
2984
  "qwen3": {
2952
2985
  "description": "Qwen3 — это новое поколение масштабной языковой модели от Alibaba, которая поддерживает разнообразные потребности приложений с выдающимися показателями."
2953
2986
  },
2954
- "qwen3-0.6b": {
2955
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2956
- },
2957
- "qwen3-1.7b": {
2958
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2959
- },
2960
- "qwen3-14b": {
2961
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2962
- },
2963
- "qwen3-235b-a22b": {
2964
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2965
- },
2966
- "qwen3-235b-a22b-instruct-2507": {
2967
- "description": "Открытая модель на базе Qwen3 в неразмышляющем режиме, с небольшими улучшениями в творческих способностях и безопасности по сравнению с предыдущей версией (Tongyi Qianwen 3-235B-A22B)."
2968
- },
2969
- "qwen3-235b-a22b-thinking-2507": {
2970
- "description": "Открытая модель на базе Qwen3 в режиме размышления, с существенными улучшениями в логических способностях, универсальности, расширении знаний и творчестве по сравнению с предыдущей версией (Tongyi Qianwen 3-235B-A22B), предназначенная для сложных задач с интенсивным рассуждением."
2971
- },
2972
- "qwen3-30b-a3b": {
2973
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2974
- },
2975
- "qwen3-30b-a3b-instruct-2507": {
2976
- "description": "По сравнению с предыдущей версией (Qwen3-30B-A3B) значительно улучшены общие способности на английском, китайском и других языках. Специальная оптимизация для субъективных и открытых задач, что заметно лучше соответствует предпочтениям пользователей и позволяет предоставлять более полезные ответы."
2977
- },
2978
- "qwen3-30b-a3b-thinking-2507": {
2979
- "description": "Открытая модель в режиме размышлений на базе Qwen3, которая по сравнению с предыдущей версией (Tongyi Qianwen 3-30B-A3B) значительно улучшила логические способности, общие навыки, знания и творческие возможности. Подходит для сложных задач с интенсивным рассуждением."
2980
- },
2981
- "qwen3-32b": {
2982
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2983
- },
2984
- "qwen3-4b": {
2985
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2986
- },
2987
- "qwen3-8b": {
2988
- "description": "Qwen3 — это новое поколение модели Qwen с значительно улучшенными возможностями, достигнувшими ведущих позиций в отрасли в области вывода, универсальности, агентов и многоязычности, а также поддерживающей переключение режимов размышления."
2989
- },
2987
+ "qwen3-0.6b": {},
2988
+ "qwen3-1.7b": {},
2989
+ "qwen3-14b": {},
2990
+ "qwen3-235b-a22b": {},
2991
+ "qwen3-235b-a22b-instruct-2507": {},
2992
+ "qwen3-235b-a22b-thinking-2507": {},
2993
+ "qwen3-30b-a3b": {},
2994
+ "qwen3-30b-a3b-instruct-2507": {},
2995
+ "qwen3-30b-a3b-thinking-2507": {},
2996
+ "qwen3-32b": {},
2997
+ "qwen3-4b": {},
2998
+ "qwen3-8b": {},
2990
2999
  "qwen3-coder-30b-a3b-instruct": {
2991
3000
  "description": "Открытая версия модели программирования Tongyi Qianwen. Новейшая qwen3-coder-30b-a3b-instruct — это модель генерации кода на базе Qwen3, обладающая мощными возможностями Coding Agent, хорошо справляется с вызовом инструментов и взаимодействием с окружением, способна к автономному программированию и демонстрирует выдающиеся способности в кодировании при сохранении универсальности."
2992
3001
  },
2993
- "qwen3-coder-480b-a35b-instruct": {
2994
- "description": "Открытая версия модели кода Tongyi Qianwen. Последняя модель qwen3-coder-480b-a35b-instruct основана на Qwen3 и обладает мощными возможностями Coding Agent, хорошо справляется с вызовом инструментов и взаимодействием с окружением, обеспечивая автономное программирование с выдающимися кодовыми и универсальными способностями."
2995
- },
3002
+ "qwen3-coder-480b-a35b-instruct": {},
2996
3003
  "qwen3-coder-flash": {
2997
3004
  "description": "Модель кода Tongyi Qianwen. Последняя серия моделей Qwen3-Coder основана на Qwen3 и представляет собой модель генерации кода с мощными возможностями Coding Agent, отлично справляющуюся с вызовом инструментов и взаимодействием с окружением, способную к автономному программированию, обладающую выдающимися кодировочными и универсальными способностями."
2998
3005
  },
@@ -3008,30 +3015,16 @@
3008
3015
  "qwen3-next-80b-a3b-instruct": {
3009
3016
  "description": "Новая генерация открытой модели без режима мышления на базе Qwen3, которая по сравнению с предыдущей версией (通义千问3-235B-A22B-Instruct-2507) обладает улучшенными способностями понимания китайского текста, усиленными логическими рассуждениями и лучшими результатами в задачах генерации текста."
3010
3017
  },
3011
- "qwen3-next-80b-a3b-thinking": {
3012
- "description": "Новая генерация открытой модели с режимом мышления на базе Qwen3, которая по сравнению с предыдущей версией (通义千问3-235B-A22B-Thinking-2507) демонстрирует улучшенное следование инструкциям и более лаконичные ответы модели."
3013
- },
3018
+ "qwen3-next-80b-a3b-thinking": {},
3014
3019
  "qwen3-omni-flash": {
3015
3020
  "description": "Модель Qwen-Omni принимает комбинированный ввод в виде текста, изображений, аудио и видео, и генерирует ответы в текстовой или голосовой форме. Поддерживает различные реалистичные голосовые тембры, многоязычный и диалектный вывод, подходит для задач текстового творчества, визуального распознавания, голосовых помощников и других сценариев."
3016
3021
  },
3017
- "qwen3-vl-235b-a22b-instruct": {
3018
- "description": "Qwen3 VL 235B A22B в режиме без рассуждения (Instruct), предназначен для сценариев с простыми инструкциями, сохраняя при этом мощные способности визуального понимания."
3019
- },
3020
- "qwen3-vl-235b-a22b-thinking": {
3021
- "description": "Qwen3 VL 235B A22B в режиме рассуждения (открытая версия), предназначен для сложных задач с интенсивным выводом и пониманием длинных видео, обеспечивая передовые возможности визуального и текстового рассуждения."
3022
- },
3023
- "qwen3-vl-30b-a3b-instruct": {
3024
- "description": "Qwen3 VL 30B в режиме без рассуждения (Instruct), ориентирован на стандартные сценарии следования инструкциям, обеспечивая высокие мультимодальные способности понимания и генерации."
3025
- },
3026
- "qwen3-vl-30b-a3b-thinking": {
3027
- "description": "Открытая версия Qwen-VL предоставляет возможности визуального понимания и генерации текста, поддерживает взаимодействие с агентами, визуальное кодирование, пространственное восприятие, понимание длинных видео и глубокое мышление, а также обладает улучшенными возможностями распознавания текста и многоязычной поддержки в сложных сценариях."
3028
- },
3029
- "qwen3-vl-8b-instruct": {
3030
- "description": "Qwen3 VL 8B в режиме без рассуждения (Instruct), подходит для стандартных задач мультимодальной генерации и распознавания."
3031
- },
3032
- "qwen3-vl-8b-thinking": {
3033
- "description": "Qwen3 VL 8B в режиме рассуждения, предназначен для легковесных мультимодальных задач вывода и взаимодействия, сохраняя способность к пониманию длинного контекста."
3034
- },
3022
+ "qwen3-vl-235b-a22b-instruct": {},
3023
+ "qwen3-vl-235b-a22b-thinking": {},
3024
+ "qwen3-vl-30b-a3b-instruct": {},
3025
+ "qwen3-vl-30b-a3b-thinking": {},
3026
+ "qwen3-vl-8b-instruct": {},
3027
+ "qwen3-vl-8b-thinking": {},
3035
3028
  "qwen3-vl-flash": {
3036
3029
  "description": "Qwen3 VL Flash — легковесная версия с высокой скоростью вывода, подходит для сценариев с чувствительностью к задержке или массовыми запросами."
3037
3030
  },
@@ -259,7 +259,7 @@
259
259
  "searchLocalFiles": "Поиск файлов",
260
260
  "writeLocalFile": "Запись в файл"
261
261
  },
262
- "title": "Локальные файлы"
262
+ "title": "Локальная система"
263
263
  },
264
264
  "mcpInstall": {
265
265
  "CHECKING_INSTALLATION": "Проверка среды установки...",