@lobehub/chat 1.81.3 → 1.81.4
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +33 -0
- package/changelog/v1.json +12 -0
- package/locales/ar/common.json +2 -0
- package/locales/ar/electron.json +32 -0
- package/locales/ar/models.json +126 -3
- package/locales/ar/plugin.json +1 -0
- package/locales/ar/tool.json +25 -0
- package/locales/bg-BG/common.json +2 -0
- package/locales/bg-BG/electron.json +32 -0
- package/locales/bg-BG/models.json +126 -3
- package/locales/bg-BG/plugin.json +1 -0
- package/locales/bg-BG/tool.json +25 -0
- package/locales/de-DE/common.json +2 -0
- package/locales/de-DE/electron.json +32 -0
- package/locales/de-DE/models.json +126 -3
- package/locales/de-DE/plugin.json +1 -0
- package/locales/de-DE/tool.json +25 -0
- package/locales/en-US/common.json +2 -0
- package/locales/en-US/electron.json +32 -0
- package/locales/en-US/models.json +126 -3
- package/locales/en-US/plugin.json +1 -0
- package/locales/en-US/tool.json +25 -0
- package/locales/es-ES/common.json +2 -0
- package/locales/es-ES/electron.json +32 -0
- package/locales/es-ES/models.json +126 -3
- package/locales/es-ES/plugin.json +1 -0
- package/locales/es-ES/tool.json +25 -0
- package/locales/fa-IR/common.json +2 -0
- package/locales/fa-IR/electron.json +32 -0
- package/locales/fa-IR/models.json +126 -3
- package/locales/fa-IR/plugin.json +1 -0
- package/locales/fa-IR/tool.json +25 -0
- package/locales/fr-FR/common.json +2 -0
- package/locales/fr-FR/electron.json +32 -0
- package/locales/fr-FR/models.json +126 -3
- package/locales/fr-FR/plugin.json +1 -0
- package/locales/fr-FR/tool.json +25 -0
- package/locales/it-IT/common.json +2 -0
- package/locales/it-IT/electron.json +32 -0
- package/locales/it-IT/models.json +126 -3
- package/locales/it-IT/plugin.json +1 -0
- package/locales/it-IT/tool.json +25 -0
- package/locales/ja-JP/common.json +2 -0
- package/locales/ja-JP/electron.json +32 -0
- package/locales/ja-JP/models.json +126 -3
- package/locales/ja-JP/plugin.json +1 -0
- package/locales/ja-JP/tool.json +25 -0
- package/locales/ko-KR/common.json +2 -0
- package/locales/ko-KR/electron.json +32 -0
- package/locales/ko-KR/models.json +126 -3
- package/locales/ko-KR/plugin.json +1 -0
- package/locales/ko-KR/tool.json +25 -0
- package/locales/nl-NL/common.json +2 -0
- package/locales/nl-NL/electron.json +32 -0
- package/locales/nl-NL/models.json +126 -3
- package/locales/nl-NL/plugin.json +1 -0
- package/locales/nl-NL/tool.json +25 -0
- package/locales/pl-PL/common.json +2 -0
- package/locales/pl-PL/electron.json +32 -0
- package/locales/pl-PL/models.json +126 -3
- package/locales/pl-PL/plugin.json +1 -0
- package/locales/pl-PL/tool.json +25 -0
- package/locales/pt-BR/common.json +2 -0
- package/locales/pt-BR/electron.json +32 -0
- package/locales/pt-BR/models.json +126 -3
- package/locales/pt-BR/plugin.json +1 -0
- package/locales/pt-BR/tool.json +25 -0
- package/locales/ru-RU/common.json +2 -0
- package/locales/ru-RU/electron.json +32 -0
- package/locales/ru-RU/models.json +126 -3
- package/locales/ru-RU/plugin.json +1 -0
- package/locales/ru-RU/tool.json +25 -0
- package/locales/tr-TR/common.json +2 -0
- package/locales/tr-TR/electron.json +32 -0
- package/locales/tr-TR/models.json +126 -3
- package/locales/tr-TR/plugin.json +1 -0
- package/locales/tr-TR/tool.json +25 -0
- package/locales/vi-VN/common.json +2 -0
- package/locales/vi-VN/electron.json +32 -0
- package/locales/vi-VN/models.json +126 -3
- package/locales/vi-VN/plugin.json +1 -0
- package/locales/vi-VN/tool.json +25 -0
- package/locales/zh-CN/common.json +2 -0
- package/locales/zh-CN/electron.json +32 -0
- package/locales/zh-CN/models.json +131 -8
- package/locales/zh-CN/plugin.json +1 -0
- package/locales/zh-CN/tool.json +25 -0
- package/locales/zh-TW/common.json +2 -0
- package/locales/zh-TW/electron.json +32 -0
- package/locales/zh-TW/models.json +126 -3
- package/locales/zh-TW/plugin.json +1 -0
- package/locales/zh-TW/tool.json +25 -0
- package/package.json +3 -2
- package/packages/electron-client-ipc/src/events/index.ts +5 -5
- package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
- package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
- package/packages/electron-client-ipc/src/types/index.ts +2 -1
- package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
- package/scripts/prebuild.mts +5 -1
- package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
- package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
- package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
- package/src/features/User/UserPanel/useMenu.tsx +8 -1
- package/src/libs/agent-runtime/google/index.ts +3 -0
- package/src/libs/trpc/client/desktop.ts +14 -0
- package/src/locales/default/common.ts +2 -0
- package/src/locales/default/electron.ts +34 -0
- package/src/locales/default/index.ts +2 -0
- package/src/locales/default/tool.ts +25 -0
- package/src/server/routers/desktop/index.ts +9 -0
- package/src/server/routers/desktop/pgTable.ts +43 -0
- package/src/services/electron/autoUpdate.ts +17 -0
- package/src/services/electron/file.ts +31 -0
- package/src/services/electron/localFileService.ts +39 -0
- package/src/services/electron/remoteServer.ts +40 -0
- package/src/store/chat/index.ts +1 -1
- package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
- package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
- package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
- package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
- package/src/store/chat/slices/plugin/action.ts +3 -3
- package/src/store/chat/store.ts +2 -0
- package/src/store/electron/actions/sync.ts +117 -0
- package/src/store/electron/index.ts +1 -0
- package/src/store/electron/initialState.ts +18 -0
- package/src/store/electron/selectors/index.ts +1 -0
- package/src/store/electron/selectors/sync.ts +9 -0
- package/src/store/electron/store.ts +29 -0
- package/src/tools/index.ts +8 -0
- package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
- package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
- package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
- package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
- package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
- package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
- package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
- package/src/tools/local-files/Render/index.tsx +36 -0
- package/src/tools/local-files/components/FileItem.tsx +117 -0
- package/src/tools/local-files/index.ts +149 -0
- package/src/tools/local-files/systemRole.ts +46 -0
- package/src/tools/local-files/type.ts +33 -0
- package/src/tools/renders.ts +3 -0
- package/packages/electron-client-ipc/src/events/search.ts +0 -4
- package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
- /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
@@ -5,9 +5,15 @@
|
|
5
5
|
"01-ai/yi-1.5-9b-chat": {
|
6
6
|
"description": "零一万物 — это последняя версия открытой доработанной модели с 9 миллиардами параметров, которая поддерживает различные сценарии диалога, используя высококачественные обучающие данные, соответствующие человеческим предпочтениям."
|
7
7
|
},
|
8
|
+
"360/deepseek-r1": {
|
9
|
+
"description": "【360 версия】DeepSeek-R1 использует технологии усиленного обучения на этапе постобучения в больших масштабах, значительно улучшая способности модели к выводу при наличии лишь небольшого количества размеченных данных. В задачах математики, кода и естественного языка его производительность сопоставима с официальной версией OpenAI o1."
|
10
|
+
},
|
8
11
|
"360gpt-pro": {
|
9
12
|
"description": "360GPT Pro, как важный член серии моделей AI от 360, удовлетворяет разнообразные приложения обработки текста с высокой эффективностью, поддерживает понимание длинных текстов и многораундные диалоги."
|
10
13
|
},
|
14
|
+
"360gpt-pro-trans": {
|
15
|
+
"description": "Модель, предназначенная для перевода, глубоко настроенная и оптимизированная, с выдающимися результатами перевода."
|
16
|
+
},
|
11
17
|
"360gpt-turbo": {
|
12
18
|
"description": "360GPT Turbo предлагает мощные вычислительные и диалоговые возможности, обладает выдающимся пониманием семантики и эффективностью генерации, что делает его идеальным решением для интеллектуальных помощников для предприятий и разработчиков."
|
13
19
|
},
|
@@ -62,6 +68,18 @@
|
|
62
68
|
"DeepSeek-R1-Distill-Qwen-7B": {
|
63
69
|
"description": "Модель DeepSeek-R1, основанная на Qwen2.5-Math-7B, оптимизирует производительность вывода с помощью усиленного обучения и данных холодного старта, обновляя стандарт многозадачности в открытых моделях."
|
64
70
|
},
|
71
|
+
"DeepSeek-V3": {
|
72
|
+
"description": "DeepSeek-V3 — это модель MoE, разработанная компанией DeepSeek. Результаты DeepSeek-V3 в нескольких оценках превосходят другие открытые модели, такие как Qwen2.5-72B и Llama-3.1-405B, и по производительности не уступают мировым ведущим закрытым моделям GPT-4o и Claude-3.5-Sonnet."
|
73
|
+
},
|
74
|
+
"Doubao-1.5-thinking-pro": {
|
75
|
+
"description": "Doubao-1.5 — новая модель глубокого мышления, демонстрирующая выдающиеся результаты в профессиональных областях, таких как математика, программирование и научные размышления, а также в общих задачах креативного письма, достигая или приближаясь к уровню первой группы в нескольких авторитетных бенчмарках, таких как AIME 2024, Codeforces, GPQA. Поддерживает контекстное окно 128k и вывод 16k."
|
76
|
+
},
|
77
|
+
"Doubao-1.5-thinking-pro-vision": {
|
78
|
+
"description": "Doubao-1.5 — новая модель глубокого мышления, демонстрирующая выдающиеся результаты в профессиональных областях, таких как математика, программирование и научные размышления, а также в общих задачах креативного письма, достигая или приближаясь к уровню первой группы в нескольких авторитетных бенчмарках, таких как AIME 2024, Codeforces, GPQA. Поддерживает контекстное окно 128k и вывод 16k."
|
79
|
+
},
|
80
|
+
"Doubao-1.5-vision-pro": {
|
81
|
+
"description": "Doubao-1.5-vision-pro — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций."
|
82
|
+
},
|
65
83
|
"Doubao-1.5-vision-pro-32k": {
|
66
84
|
"description": "Doubao-1.5-vision-pro - совершенно обновленная многомодальная большая модель, поддерживающая распознавание изображений с любым разрешением и экстремальными соотношениями сторон, улучшенная способность визуального вывода, распознавания документов, понимания деталей и соблюдения инструкций."
|
67
85
|
},
|
@@ -341,6 +359,15 @@
|
|
341
359
|
"SenseChat-Vision": {
|
342
360
|
"description": "Последняя версия модели (V5.5) поддерживает ввод нескольких изображений, полностью реализует оптимизацию базовых возможностей модели и значительно улучшила распознавание свойств объектов, пространственные отношения, распознавание событий, понимание сцен, распознавание эмоций, логическое рассуждение и понимание текста."
|
343
361
|
},
|
362
|
+
"SenseNova-V6-Pro": {
|
363
|
+
"description": "Реализует родное единство возможностей изображений, текста и видео, преодолевая традиционные ограничения раздельных мультимодальных систем, завоевав двойное чемпионство в оценках OpenCompass и SuperCLUE."
|
364
|
+
},
|
365
|
+
"SenseNova-V6-Reasoner": {
|
366
|
+
"description": "Учитывает визуальное и языковое глубокое рассуждение, реализует медленное мышление и глубокое рассуждение, демонстрируя полный процесс мыслительной цепочки."
|
367
|
+
},
|
368
|
+
"SenseNova-V6-Turbo": {
|
369
|
+
"description": "Реализует родное единство возможностей изображений, текста и видео, преодолевая традиционные ограничения раздельных мультимодальных систем, значительно опережая в ключевых аспектах, таких как базовые мультимодальные и языковые способности, сочетая литературное и научное образование, многократно занимая позиции первой группы в различных оценках как в стране, так и за рубежом."
|
370
|
+
},
|
344
371
|
"Skylark2-lite-8k": {
|
345
372
|
"description": "Модель второго поколения Skylark (云雀), модель Skylark2-lite имеет высокую скорость отклика, подходит для сценариев с высокими требованиями к оперативности, чувствительных к стоимости и с не такими высокими требованиями к точности модели. Длина контекстного окна составляет 8k."
|
346
373
|
},
|
@@ -356,6 +383,21 @@
|
|
356
383
|
"Skylark2-pro-turbo-8k": {
|
357
384
|
"description": "Модель второго поколения Skylark (云雀), модель Skylark2-pro-turbo-8k обеспечивает более быструю обработку и сниженные затраты, длина контекстного окна составляет 8k."
|
358
385
|
},
|
386
|
+
"THUDM/GLM-4-32B-0414": {
|
387
|
+
"description": "GLM-4-32B-0414 — это новое поколение открытой модели серии GLM с 32 миллиардами параметров. Эта модель может соперничать с серией GPT от OpenAI и серией V3/R1 от DeepSeek."
|
388
|
+
},
|
389
|
+
"THUDM/GLM-4-9B-0414": {
|
390
|
+
"description": "GLM-4-9B-0414 — это компактная модель серии GLM с 9 миллиардами параметров. Эта модель унаследовала технические характеристики серии GLM-4-32B, но предлагает более легкие варианты развертывания. Несмотря на меньший размер, GLM-4-9B-0414 все еще демонстрирует отличные способности в задачах генерации кода, веб-дизайна, генерации графики SVG и написания на основе поиска."
|
391
|
+
},
|
392
|
+
"THUDM/GLM-Z1-32B-0414": {
|
393
|
+
"description": "GLM-Z1-32B-0414 — это модель вывода с глубокими размышлениями. Эта модель основана на GLM-4-32B-0414 и была разработана с помощью холодного старта и расширенного усиленного обучения, а также была дополнительно обучена в задачах математики, кода и логики. По сравнению с базовой моделью, GLM-Z1-32B-0414 значительно улучшила математические способности и способности к решению сложных задач."
|
394
|
+
},
|
395
|
+
"THUDM/GLM-Z1-9B-0414": {
|
396
|
+
"description": "GLM-Z1-9B-0414 — это компактная модель серии GLM с 9 миллиардами параметров, но при этом демонстрирует удивительные способности, сохраняя традиции открытого исходного кода. Несмотря на меньший размер, эта модель все еще показывает отличные результаты в математическом выводе и общих задачах, ее общая производительность находится на ведущем уровне среди моделей открытого исходного кода аналогичного размера."
|
397
|
+
},
|
398
|
+
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
399
|
+
"description": "GLM-Z1-Rumination-32B-0414 — это модель глубокого вывода с размышлениями (сравнимая с Deep Research от OpenAI). В отличие от типичных моделей глубокого мышления, модель размышлений использует более длительное время глубокого мышления для решения более открытых и сложных задач."
|
400
|
+
},
|
359
401
|
"THUDM/chatglm3-6b": {
|
360
402
|
"description": "ChatGLM3-6B — это открытая модель из серии ChatGLM, разработанная Zhizhu AI. Эта модель сохраняет отличные характеристики предыдущих моделей, такие как плавность диалога и низкий порог развертывания, одновременно вводя новые функции. Она использует более разнообразные обучающие данные, большее количество шагов обучения и более разумную стратегию обучения, показывая отличные результаты среди предобученных моделей объемом менее 10B. ChatGLM3-6B поддерживает многократные диалоги, вызовы инструментов, выполнение кода и задачи агента в сложных сценариях. Кроме диалоговой модели, также открыты базовая модель ChatGLM-6B-Base и модель для длинных текстовых диалогов ChatGLM3-6B-32K. Эта модель полностью открыта для академических исследований и также допускает бесплатное коммерческое использование после регистрации."
|
361
403
|
},
|
@@ -521,6 +563,9 @@
|
|
521
563
|
"charglm-3": {
|
522
564
|
"description": "CharGLM-3 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдлинную многократную память и персонализированные диалоги, имеет широкое применение."
|
523
565
|
},
|
566
|
+
"charglm-4": {
|
567
|
+
"description": "CharGLM-4 разработан для ролевых игр и эмоционального сопровождения, поддерживает сверхдолгую многократную память и персонализированные диалоги, имеет широкое применение."
|
568
|
+
},
|
524
569
|
"chatglm3": {
|
525
570
|
"description": "ChatGLM3 — это закрытая модель, разработанная AI-лабораторией Tsinghua KEG и Zhipu AI. Она прошла предварительное обучение на огромном количестве китайских и английских данных и обучение на основе предпочтений человека. По сравнению с первой версией модели, она показала улучшение на 16%, 36% и 280% в тестах MMLU, C-Eval и GSM8K соответственно, и заняла первое место в китайском рейтинге задач C-Eval. Эта модель подходит для сценариев, требующих высокого уровня знаний, способности к рассуждению и креативности, таких как создание рекламных текстов, написание романов, научной письменности и генерации кода."
|
526
571
|
},
|
@@ -632,9 +677,18 @@
|
|
632
677
|
"command-r-plus-04-2024": {
|
633
678
|
"description": "Команда R+ — это диалоговая модель, следуя инструкциям, которая демонстрирует более высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с предыдущими моделями. Она лучше всего подходит для сложных рабочих процессов RAG и многократного использования инструментов."
|
634
679
|
},
|
680
|
+
"command-r-plus-08-2024": {
|
681
|
+
"description": "Command R+ — это диалоговая модель, следящая за инструкциями, которая демонстрирует более высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с предыдущими моделями. Она наиболее подходит для сложных рабочих процессов RAG и многошагового использования инструментов."
|
682
|
+
},
|
635
683
|
"command-r7b-12-2024": {
|
636
684
|
"description": "command-r7b-12-2024 — это компактная и эффективная обновленная версия, выпущенная в декабре 2024 года. Она демонстрирует отличные результаты в задачах, требующих сложного рассуждения и многократной обработки, таких как RAG, использование инструментов и агентирование."
|
637
685
|
},
|
686
|
+
"compound-beta": {
|
687
|
+
"description": "Compound-beta — это комплексная AI-система, поддерживаемая несколькими открытыми доступными моделями в GroqCloud, которая может интеллектуально и выборочно использовать инструменты для ответа на запросы пользователей."
|
688
|
+
},
|
689
|
+
"compound-beta-mini": {
|
690
|
+
"description": "Compound-beta-mini — это комплексная AI-система, поддерживаемая открытыми доступными моделями в GroqCloud, которая может интеллектуально и выборочно использовать инструменты для ответа на запросы пользователей."
|
691
|
+
},
|
638
692
|
"dall-e-2": {
|
639
693
|
"description": "Вторая генерация модели DALL·E, поддерживающая более реалистичную и точную генерацию изображений с разрешением в 4 раза выше, чем у первой генерации."
|
640
694
|
},
|
@@ -779,6 +833,18 @@
|
|
779
833
|
"deepseek/deepseek-v3/community": {
|
780
834
|
"description": "DeepSeek-V3 достиг значительного прорыва в скорости вывода по сравнению с предыдущими моделями. Она занимает первое место среди открытых моделей и может соперничать с самыми современными закрытыми моделями в мире. DeepSeek-V3 использует архитектуры многоголового потенциального внимания (MLA) и DeepSeekMoE, которые были полностью проверены в DeepSeek-V2. Кроме того, DeepSeek-V3 внедрила вспомогательную безубыточную стратегию для балансировки нагрузки и установила цели обучения для многомаркерного прогнозирования для достижения более высокой производительности."
|
781
835
|
},
|
836
|
+
"deepseek_r1": {
|
837
|
+
"description": "DeepSeek-R1 — это модель вывода, управляемая усиленным обучением (RL), которая решает проблемы повторяемости и читаемости в модели. Перед RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она демонстрирует сопоставимые результаты с OpenAI-o1 в задачах математики, кода и вывода, и благодаря тщательно разработанным методам обучения улучшает общие результаты."
|
838
|
+
},
|
839
|
+
"deepseek_r1_distill_llama_70b": {
|
840
|
+
"description": "DeepSeek-R1-Distill-Llama-70B — это модель, полученная на основе Llama-3.3-70B-Instruct через дистилляцию обучения. Эта модель является частью серии DeepSeek-R1 и демонстрирует отличные результаты в математике, программировании и выводе, используя образцы, сгенерированные DeepSeek-R1, для дообучения."
|
841
|
+
},
|
842
|
+
"deepseek_r1_distill_qwen_14b": {
|
843
|
+
"description": "DeepSeek-R1-Distill-Qwen-14B — это модель, полученная на основе Qwen2.5-14B через дистилляцию знаний. Эта модель была дообучена на 800000 отобранных образцах, сгенерированных DeepSeek-R1, демонстрируя отличные способности к выводу."
|
844
|
+
},
|
845
|
+
"deepseek_r1_distill_qwen_32b": {
|
846
|
+
"description": "DeepSeek-R1-Distill-Qwen-32B — это модель, полученная на основе Qwen2.5-32B через дистилляцию знаний. Эта модель была дообучена на 800000 отобранных образцах, сгенерированных DeepSeek-R1, демонстрируя выдающиеся результаты в различных областях, включая математику, программирование и вывод."
|
847
|
+
},
|
782
848
|
"doubao-1.5-lite-32k": {
|
783
849
|
"description": "Doubao-1.5-lite - совершенно новое поколение легкой модели, с максимальной скоростью отклика, результаты и задержка достигают мирового уровня."
|
784
850
|
},
|
@@ -788,6 +854,9 @@
|
|
788
854
|
"doubao-1.5-pro-32k": {
|
789
855
|
"description": "Doubao-1.5-pro - совершенно новое поколение основного модели, с полностью обновленной производительностью, выдающимися результатами в области знаний, кода, логики и других аспектов."
|
790
856
|
},
|
857
|
+
"doubao-1.5-vision-lite": {
|
858
|
+
"description": "Doubao-1.5-vision-lite — это новая усовершенствованная мультимодальная модель, поддерживающая распознавание изображений с любым разрешением и экстремальным соотношением сторон, улучшая способности к визуальному выводу, распознаванию документов, пониманию детальной информации и соблюдению инструкций. Поддерживает контекстное окно 128k, максимальная длина вывода составляет 16k токенов."
|
859
|
+
},
|
791
860
|
"emohaa": {
|
792
861
|
"description": "Emohaa — это психологическая модель, обладающая профессиональными консультационными способностями, помогающая пользователям понимать эмоциональные проблемы."
|
793
862
|
},
|
@@ -953,6 +1022,9 @@
|
|
953
1022
|
"glm-4-air": {
|
954
1023
|
"description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену."
|
955
1024
|
},
|
1025
|
+
"glm-4-air-250414": {
|
1026
|
+
"description": "GLM-4-Air — это версия с хорошим соотношением цены и качества, производительность близка к GLM-4, обеспечивая быструю скорость и доступную цену."
|
1027
|
+
},
|
956
1028
|
"glm-4-airx": {
|
957
1029
|
"description": "GLM-4-AirX предлагает эффективную версию GLM-4-Air, скорость вывода может достигать 2.6 раз быстрее."
|
958
1030
|
},
|
@@ -962,6 +1034,9 @@
|
|
962
1034
|
"glm-4-flash": {
|
963
1035
|
"description": "GLM-4-Flash — это идеальный выбор для обработки простых задач, с самой высокой скоростью и самой низкой ценой."
|
964
1036
|
},
|
1037
|
+
"glm-4-flash-250414": {
|
1038
|
+
"description": "GLM-4-Flash — идеальный выбор для обработки простых задач, обладает самой высокой скоростью и бесплатен."
|
1039
|
+
},
|
965
1040
|
"glm-4-flashx": {
|
966
1041
|
"description": "GLM-4-FlashX — это улучшенная версия Flash с ультрабыстрой скоростью вывода."
|
967
1042
|
},
|
@@ -980,6 +1055,18 @@
|
|
980
1055
|
"glm-4v-plus": {
|
981
1056
|
"description": "GLM-4V-Plus обладает способностью понимать видео-контент и множество изображений, подходит для мультимодальных задач."
|
982
1057
|
},
|
1058
|
+
"glm-4v-plus-0111": {
|
1059
|
+
"description": "GLM-4V-Plus обладает способностями к пониманию видео и множества изображений, подходит для мультимодальных задач."
|
1060
|
+
},
|
1061
|
+
"glm-z1-air": {
|
1062
|
+
"description": "Модель вывода: обладает мощными способностями вывода, подходит для задач, требующих глубокого вывода."
|
1063
|
+
},
|
1064
|
+
"glm-z1-airx": {
|
1065
|
+
"description": "Супербыстрый вывод: обладает сверхбыстрой скоростью вывода и мощными результатами вывода."
|
1066
|
+
},
|
1067
|
+
"glm-z1-flash": {
|
1068
|
+
"description": "Серия GLM-Z1 обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в логическом выводе, математике и программировании. Максимальная длина контекста составляет 32K."
|
1069
|
+
},
|
983
1070
|
"glm-zero-preview": {
|
984
1071
|
"description": "GLM-Zero-Preview обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в области логического вывода, математики и программирования."
|
985
1072
|
},
|
@@ -1199,12 +1286,15 @@
|
|
1199
1286
|
"hunyuan-turbos-20250226": {
|
1200
1287
|
"description": "hunyuan-TurboS pv2.1.2 — фиксированная версия, в которой обновлены токены предобученной базы; улучшены аналитические способности в математике/логике/кодировании; улучшен общий опыт на китайском и английском языках, включая текстовое творчество, понимание текста, вопросы и ответы, беседы и т.д."
|
1201
1288
|
},
|
1202
|
-
"hunyuan-turbos-20250313": {
|
1203
|
-
"description": "Унификация стиля решения математических задач, улучшение многократных вопросов и ответов по математике. Оптимизация стиля ответов в текстовом творчестве, устранение «вкуса ИИ», добавление литературности."
|
1204
|
-
},
|
1205
1289
|
"hunyuan-turbos-latest": {
|
1206
1290
|
"description": "hunyuan-TurboS — это последняя версия флагманской модели Hunyuan, обладающая более сильными аналитическими способностями и улучшенным качеством работы."
|
1207
1291
|
},
|
1292
|
+
"hunyuan-turbos-longtext-128k-20250325": {
|
1293
|
+
"description": "Специализируется на обработке длинных текстов, таких как резюме документов и вопросы по документам, а также обладает способностью обрабатывать общие задачи генерации текста. Она демонстрирует выдающиеся результаты в анализе и генерации длинных текстов, эффективно справляясь с требованиями к сложной и детализированной обработке длинных текстов."
|
1294
|
+
},
|
1295
|
+
"hunyuan-turbos-vision": {
|
1296
|
+
"description": "Эта модель подходит для сцен понимания изображений и текста, является новым поколением флагманской модели визуального языка на основе последних turbos Hunyuan, сосредоточена на задачах понимания изображений и текста, включая распознавание объектов на изображениях, вопросы и ответы на основе знаний, создание текстов и решение задач по фотографиям, с полным улучшением по сравнению с предыдущим поколением моделей."
|
1297
|
+
},
|
1208
1298
|
"hunyuan-vision": {
|
1209
1299
|
"description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента."
|
1210
1300
|
},
|
@@ -1223,6 +1313,12 @@
|
|
1223
1313
|
"internlm3-latest": {
|
1224
1314
|
"description": "Наша последняя серия моделей с выдающейся производительностью вывода, лидирующая среди моделей открытого кода того же уровня. По умолчанию указывает на нашу последнюю выпущенную серию моделей InternLM3."
|
1225
1315
|
},
|
1316
|
+
"jamba-large": {
|
1317
|
+
"description": "Наша самая мощная и передовая модель, разработанная для решения сложных задач корпоративного уровня, обладающая выдающейся производительностью."
|
1318
|
+
},
|
1319
|
+
"jamba-mini": {
|
1320
|
+
"description": "Самая эффективная модель в своем классе, сочетающая скорость и качество, с меньшими размерами."
|
1321
|
+
},
|
1226
1322
|
"jina-deepsearch-v1": {
|
1227
1323
|
"description": "Глубокий поиск сочетает в себе сетевой поиск, чтение и рассуждение, позволяя проводить всесторонние исследования. Вы можете рассматривать его как агента, который принимает ваши исследовательские задачи — он проводит обширный поиск и проходит через множество итераций, прежде чем предоставить ответ. Этот процесс включает в себя постоянные исследования, рассуждения и решение проблем с разных точек зрения. Это принципиально отличается от стандартных больших моделей, которые генерируют ответы непосредственно из предобученных данных, и от традиционных систем RAG, полагающихся на одноразовый поверхностный поиск."
|
1228
1324
|
},
|
@@ -1568,9 +1664,18 @@
|
|
1568
1664
|
"o1-preview": {
|
1569
1665
|
"description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
1570
1666
|
},
|
1667
|
+
"o3": {
|
1668
|
+
"description": "o3 — это универсальная мощная модель, которая демонстрирует отличные результаты в различных областях. Она устанавливает новые стандарты для задач математики, науки, программирования и визуального вывода. Она также хорошо справляется с техническим письмом и соблюдением инструкций. Пользователи могут использовать ее для анализа текста, кода и изображений, решая сложные многошаговые задачи."
|
1669
|
+
},
|
1571
1670
|
"o3-mini": {
|
1572
1671
|
"description": "o3-mini — это наша последняя компактная модель вывода, обеспечивающая высокий уровень интеллекта при тех же затратах и задержках, что и o1-mini."
|
1573
1672
|
},
|
1673
|
+
"o3-mini-high": {
|
1674
|
+
"description": "o3-mini версия с высоким уровнем вывода, обеспечивающая высокий интеллект при тех же затратах и задержках, что и o1-mini."
|
1675
|
+
},
|
1676
|
+
"o4-mini": {
|
1677
|
+
"description": "o4-mini — это наша новейшая компактная модель серии o. Она оптимизирована для быстрого и эффективного вывода, демонстрируя высокую эффективность и производительность в задачах кодирования и визуализации."
|
1678
|
+
},
|
1574
1679
|
"open-codestral-mamba": {
|
1575
1680
|
"description": "Codestral Mamba — это языковая модель Mamba 2, сосредоточенная на генерации кода, обеспечивающая мощную поддержку для сложных задач по коду и выводу."
|
1576
1681
|
},
|
@@ -1598,6 +1703,12 @@
|
|
1598
1703
|
"openai/o1-preview": {
|
1599
1704
|
"description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
|
1600
1705
|
},
|
1706
|
+
"openai/o4-mini": {
|
1707
|
+
"description": "o4-mini оптимизирована для быстрого и эффективного вывода, демонстрируя высокую эффективность и производительность в задачах кодирования и визуализации."
|
1708
|
+
},
|
1709
|
+
"openai/o4-mini-high": {
|
1710
|
+
"description": "o4-mini версия с высоким уровнем вывода, оптимизированная для быстрого и эффективного вывода, демонстрирующая высокую эффективность и производительность в задачах кодирования и визуализации."
|
1711
|
+
},
|
1601
1712
|
"openrouter/auto": {
|
1602
1713
|
"description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o."
|
1603
1714
|
},
|
@@ -1793,6 +1904,9 @@
|
|
1793
1904
|
"qwq-plus-latest": {
|
1794
1905
|
"description": "Модель вывода QwQ, обученная на модели Qwen2.5, значительно улучшила свои способности вывода благодаря обучению с подкреплением. Основные показатели модели, такие как математический код и другие ключевые метрики (AIME 24/25, LiveCodeBench), а также некоторые общие показатели (IFEval, LiveBench и др.) достигли уровня DeepSeek-R1 в полной мере."
|
1795
1906
|
},
|
1907
|
+
"qwq_32b": {
|
1908
|
+
"description": "Модель вывода среднего размера из серии Qwen. В отличие от традиционных моделей, оптимизированных для инструкций, QwQ, обладая способностями к размышлению и выводу, может значительно повысить производительность в задачах, особенно при решении сложных задач."
|
1909
|
+
},
|
1796
1910
|
"r1-1776": {
|
1797
1911
|
"description": "R1-1776 — это версия модели DeepSeek R1, прошедшая дообучение, которая предоставляет непроверенную, беспристрастную фактическую информацию."
|
1798
1912
|
},
|
@@ -1853,12 +1967,21 @@
|
|
1853
1967
|
"step-2-16k": {
|
1854
1968
|
"description": "Поддерживает масштабные взаимодействия контекста, подходит для сложных диалоговых сценариев."
|
1855
1969
|
},
|
1970
|
+
"step-2-16k-exp": {
|
1971
|
+
"description": "Экспериментальная версия модели step-2, содержащая последние функции, находящаяся в процессе обновления. Не рекомендуется для использования в производственной среде."
|
1972
|
+
},
|
1856
1973
|
"step-2-mini": {
|
1857
1974
|
"description": "Супербыстрая большая модель на основе новой самодельной архитектуры внимания MFA, достигающая аналогичных результатов, как step1, при очень низких затратах, одновременно обеспечивая более высокую пропускную способность и более быстрое время отклика. Способна обрабатывать общие задачи и обладает особыми навыками в кодировании."
|
1858
1975
|
},
|
1976
|
+
"step-r1-v-mini": {
|
1977
|
+
"description": "Эта модель является мощной моделью вывода с сильными способностями к пониманию изображений, способной обрабатывать информацию из изображений и текста, выводя текст после глубокого размышления. Эта модель демонстрирует выдающиеся результаты в области визуального вывода, а также обладает первоклассными способностями в математике, коде и текстовом выводе. Длина контекста составляет 100k."
|
1978
|
+
},
|
1859
1979
|
"taichu_llm": {
|
1860
1980
|
"description": "Модель языка TaiChu обладает выдающимися способностями к пониманию языка, а также к созданию текстов, ответам на вопросы, программированию, математическим вычислениям, логическому выводу, анализу эмоций и резюмированию текстов. Инновационно сочетает предобучение на больших данных с богатством многопоточных знаний, постоянно совершенствуя алгоритмические технологии и поглощая новые знания о словах, структуре, грамматике и семантике из огромных объемов текстовых данных, обеспечивая пользователям более удобную информацию и услуги, а также более интеллектуальный опыт."
|
1861
1981
|
},
|
1982
|
+
"taichu_o1": {
|
1983
|
+
"description": "taichu_o1 — это новая генерация модели вывода, реализующая цепочку мышления, подобную человеческой, через мультимодальное взаимодействие и усиленное обучение, поддерживающая сложные решения и демонстрирующая путь мышления, который можно моделировать, при этом обеспечивая высокую точность вывода, подходит для анализа стратегий и глубоких размышлений."
|
1984
|
+
},
|
1862
1985
|
"taichu_vl": {
|
1863
1986
|
"description": "Объединяет способности к пониманию изображений, переносу знаний и логическому выводу, демонстрируя выдающиеся результаты в области вопросов и ответов на основе текста и изображений."
|
1864
1987
|
},
|
package/locales/ru-RU/tool.json
CHANGED
@@ -7,6 +7,20 @@
|
|
7
7
|
"images": "Изображения:",
|
8
8
|
"prompt": "подсказка"
|
9
9
|
},
|
10
|
+
"localFiles": {
|
11
|
+
"file": "Файл",
|
12
|
+
"folder": "Папка",
|
13
|
+
"open": "Открыть",
|
14
|
+
"openFile": "Открыть файл",
|
15
|
+
"openFolder": "Открыть папку",
|
16
|
+
"read": {
|
17
|
+
"more": "Смотреть далее"
|
18
|
+
},
|
19
|
+
"readFile": "Читать файл",
|
20
|
+
"readFileError": "Ошибка чтения файла, проверьте правильность пути к файлу",
|
21
|
+
"readFiles": "Читать файлы",
|
22
|
+
"readFilesError": "Ошибка чтения файлов, проверьте правильность пути к файлам"
|
23
|
+
},
|
10
24
|
"search": {
|
11
25
|
"createNewSearch": "Создать новую запись поиска",
|
12
26
|
"emptyResult": "Результатов не найдено, пожалуйста, измените ключевые слова и попробуйте снова",
|
@@ -44,5 +58,16 @@
|
|
44
58
|
"summary": "Резюме",
|
45
59
|
"summaryTooltip": "Суммировать текущее содержимое",
|
46
60
|
"viewMoreResults": "Посмотреть еще {{results}} результатов"
|
61
|
+
},
|
62
|
+
"updateArgs": {
|
63
|
+
"duplicateKeyError": "Ключ поля должен быть уникальным",
|
64
|
+
"form": {
|
65
|
+
"add": "Добавить элемент",
|
66
|
+
"key": "Ключ поля",
|
67
|
+
"value": "Значение поля"
|
68
|
+
},
|
69
|
+
"formValidationFailed": "Ошибка проверки формы, проверьте формат параметров",
|
70
|
+
"keyRequired": "Ключ поля не может быть пустым",
|
71
|
+
"stringifyError": "Не удалось сериализовать параметры, проверьте формат параметров"
|
47
72
|
}
|
48
73
|
}
|
@@ -0,0 +1,32 @@
|
|
1
|
+
{
|
2
|
+
"remoteServer": {
|
3
|
+
"authError": "Yetkilendirme hatası: {{error}}",
|
4
|
+
"authPending": "Yetkilendirmeyi tarayıcıda tamamlayın",
|
5
|
+
"configDesc": "Uzak LobeChat sunucusuna bağlanın, veri senkronizasyonunu etkinleştirin",
|
6
|
+
"configError": "Yapılandırma hatası",
|
7
|
+
"configTitle": "Bulut Senkronizasyonunu Yapılandır",
|
8
|
+
"connect": "Bağlan ve yetkilendir",
|
9
|
+
"connected": "Bağlandı",
|
10
|
+
"disconnect": "Bağlantıyı kes",
|
11
|
+
"disconnectError": "Bağlantıyı kesme hatası",
|
12
|
+
"disconnected": "Bağlı değil",
|
13
|
+
"fetchError": "Yapılandırma alınamadı",
|
14
|
+
"invalidUrl": "Geçerli bir URL girin",
|
15
|
+
"serverUrl": "Sunucu adresi",
|
16
|
+
"statusConnected": "Bağlı",
|
17
|
+
"statusDisconnected": "Bağlı değil",
|
18
|
+
"urlRequired": "Lütfen sunucu adresini girin"
|
19
|
+
},
|
20
|
+
"updater": {
|
21
|
+
"downloadingUpdate": "Güncelleme indiriliyor",
|
22
|
+
"downloadingUpdateDesc": "Güncelleme indiriliyor, lütfen bekleyin...",
|
23
|
+
"later": "Güncellemeyi daha sonra yap",
|
24
|
+
"newVersionAvailable": "Yeni sürüm mevcut",
|
25
|
+
"newVersionAvailableDesc": "Yeni sürüm {{version}} bulundu, hemen indirmek ister misiniz?",
|
26
|
+
"restartAndInstall": "Yeniden başlat ve yükle",
|
27
|
+
"updateError": "Güncelleme hatası",
|
28
|
+
"updateReady": "Güncelleme hazır",
|
29
|
+
"updateReadyDesc": "Lobe Chat {{version}} indirildi, yüklemeyi tamamlamak için uygulamayı yeniden başlatın.",
|
30
|
+
"upgradeNow": "Şimdi güncelle"
|
31
|
+
}
|
32
|
+
}
|