@lobehub/chat 1.81.2 → 1.81.4

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (154) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/common.json +2 -0
  4. package/locales/ar/electron.json +32 -0
  5. package/locales/ar/models.json +126 -3
  6. package/locales/ar/plugin.json +1 -0
  7. package/locales/ar/tool.json +25 -0
  8. package/locales/bg-BG/common.json +2 -0
  9. package/locales/bg-BG/electron.json +32 -0
  10. package/locales/bg-BG/models.json +126 -3
  11. package/locales/bg-BG/plugin.json +1 -0
  12. package/locales/bg-BG/tool.json +25 -0
  13. package/locales/de-DE/common.json +2 -0
  14. package/locales/de-DE/electron.json +32 -0
  15. package/locales/de-DE/models.json +126 -3
  16. package/locales/de-DE/plugin.json +1 -0
  17. package/locales/de-DE/tool.json +25 -0
  18. package/locales/en-US/common.json +2 -0
  19. package/locales/en-US/electron.json +32 -0
  20. package/locales/en-US/models.json +126 -3
  21. package/locales/en-US/plugin.json +1 -0
  22. package/locales/en-US/tool.json +25 -0
  23. package/locales/es-ES/common.json +2 -0
  24. package/locales/es-ES/electron.json +32 -0
  25. package/locales/es-ES/models.json +126 -3
  26. package/locales/es-ES/plugin.json +1 -0
  27. package/locales/es-ES/tool.json +25 -0
  28. package/locales/fa-IR/common.json +2 -0
  29. package/locales/fa-IR/electron.json +32 -0
  30. package/locales/fa-IR/models.json +126 -3
  31. package/locales/fa-IR/plugin.json +1 -0
  32. package/locales/fa-IR/tool.json +25 -0
  33. package/locales/fr-FR/common.json +2 -0
  34. package/locales/fr-FR/electron.json +32 -0
  35. package/locales/fr-FR/models.json +126 -3
  36. package/locales/fr-FR/plugin.json +1 -0
  37. package/locales/fr-FR/tool.json +25 -0
  38. package/locales/it-IT/common.json +2 -0
  39. package/locales/it-IT/electron.json +32 -0
  40. package/locales/it-IT/models.json +126 -3
  41. package/locales/it-IT/plugin.json +1 -0
  42. package/locales/it-IT/tool.json +25 -0
  43. package/locales/ja-JP/common.json +2 -0
  44. package/locales/ja-JP/electron.json +32 -0
  45. package/locales/ja-JP/models.json +126 -3
  46. package/locales/ja-JP/plugin.json +1 -0
  47. package/locales/ja-JP/tool.json +25 -0
  48. package/locales/ko-KR/common.json +2 -0
  49. package/locales/ko-KR/electron.json +32 -0
  50. package/locales/ko-KR/models.json +126 -3
  51. package/locales/ko-KR/plugin.json +1 -0
  52. package/locales/ko-KR/tool.json +25 -0
  53. package/locales/nl-NL/common.json +2 -0
  54. package/locales/nl-NL/electron.json +32 -0
  55. package/locales/nl-NL/models.json +126 -3
  56. package/locales/nl-NL/plugin.json +1 -0
  57. package/locales/nl-NL/tool.json +25 -0
  58. package/locales/pl-PL/common.json +2 -0
  59. package/locales/pl-PL/electron.json +32 -0
  60. package/locales/pl-PL/models.json +126 -3
  61. package/locales/pl-PL/plugin.json +1 -0
  62. package/locales/pl-PL/tool.json +25 -0
  63. package/locales/pt-BR/common.json +2 -0
  64. package/locales/pt-BR/electron.json +32 -0
  65. package/locales/pt-BR/models.json +126 -3
  66. package/locales/pt-BR/plugin.json +1 -0
  67. package/locales/pt-BR/tool.json +25 -0
  68. package/locales/ru-RU/common.json +2 -0
  69. package/locales/ru-RU/electron.json +32 -0
  70. package/locales/ru-RU/models.json +126 -3
  71. package/locales/ru-RU/plugin.json +1 -0
  72. package/locales/ru-RU/tool.json +25 -0
  73. package/locales/tr-TR/common.json +2 -0
  74. package/locales/tr-TR/electron.json +32 -0
  75. package/locales/tr-TR/models.json +126 -3
  76. package/locales/tr-TR/plugin.json +1 -0
  77. package/locales/tr-TR/tool.json +25 -0
  78. package/locales/vi-VN/common.json +2 -0
  79. package/locales/vi-VN/electron.json +32 -0
  80. package/locales/vi-VN/models.json +126 -3
  81. package/locales/vi-VN/plugin.json +1 -0
  82. package/locales/vi-VN/tool.json +25 -0
  83. package/locales/zh-CN/common.json +2 -0
  84. package/locales/zh-CN/electron.json +32 -0
  85. package/locales/zh-CN/models.json +131 -8
  86. package/locales/zh-CN/plugin.json +1 -0
  87. package/locales/zh-CN/tool.json +25 -0
  88. package/locales/zh-TW/common.json +2 -0
  89. package/locales/zh-TW/electron.json +32 -0
  90. package/locales/zh-TW/models.json +126 -3
  91. package/locales/zh-TW/plugin.json +1 -0
  92. package/locales/zh-TW/tool.json +25 -0
  93. package/package.json +3 -2
  94. package/packages/electron-client-ipc/src/events/index.ts +5 -5
  95. package/packages/electron-client-ipc/src/events/localFile.ts +22 -0
  96. package/packages/electron-client-ipc/src/events/{file.ts → upload.ts} +1 -1
  97. package/packages/electron-client-ipc/src/types/index.ts +2 -1
  98. package/packages/electron-client-ipc/src/types/localFile.ts +52 -0
  99. package/scripts/prebuild.mts +5 -1
  100. package/src/app/(backend)/trpc/desktop/[trpc]/route.ts +26 -0
  101. package/src/config/aiModels/cloudflare.ts +41 -37
  102. package/src/config/aiModels/github.ts +90 -0
  103. package/src/config/aiModels/google.ts +25 -0
  104. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ObjectEntity.tsx +81 -0
  105. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/ValueCell.tsx +43 -0
  106. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments/index.tsx +120 -0
  107. package/src/features/Conversation/Messages/Assistant/Tool/Render/CustomRender.tsx +75 -2
  108. package/src/features/Conversation/Messages/Assistant/Tool/Render/KeyValueEditor.tsx +214 -0
  109. package/src/features/User/UserPanel/useMenu.tsx +8 -1
  110. package/src/libs/agent-runtime/google/index.ts +3 -0
  111. package/src/libs/trpc/client/desktop.ts +14 -0
  112. package/src/locales/default/common.ts +2 -0
  113. package/src/locales/default/electron.ts +34 -0
  114. package/src/locales/default/index.ts +2 -0
  115. package/src/locales/default/tool.ts +25 -0
  116. package/src/server/routers/desktop/index.ts +9 -0
  117. package/src/server/routers/desktop/pgTable.ts +43 -0
  118. package/src/services/electron/autoUpdate.ts +17 -0
  119. package/src/services/electron/file.ts +31 -0
  120. package/src/services/electron/localFileService.ts +39 -0
  121. package/src/services/electron/remoteServer.ts +40 -0
  122. package/src/store/chat/index.ts +1 -1
  123. package/src/store/chat/slices/builtinTool/actions/index.ts +3 -1
  124. package/src/store/chat/slices/builtinTool/actions/localFile.ts +129 -0
  125. package/src/store/chat/slices/builtinTool/initialState.ts +2 -0
  126. package/src/store/chat/slices/builtinTool/selectors.ts +2 -0
  127. package/src/store/chat/slices/plugin/action.ts +3 -3
  128. package/src/store/chat/store.ts +2 -0
  129. package/src/store/electron/actions/sync.ts +117 -0
  130. package/src/store/electron/index.ts +1 -0
  131. package/src/store/electron/initialState.ts +18 -0
  132. package/src/store/electron/selectors/index.ts +1 -0
  133. package/src/store/electron/selectors/sync.ts +9 -0
  134. package/src/store/electron/store.ts +29 -0
  135. package/src/tools/index.ts +8 -0
  136. package/src/tools/local-files/Render/ListFiles/Result.tsx +42 -0
  137. package/src/tools/local-files/Render/ListFiles/index.tsx +68 -0
  138. package/src/tools/local-files/Render/ReadLocalFile/ReadFileSkeleton.tsx +50 -0
  139. package/src/tools/local-files/Render/ReadLocalFile/ReadFileView.tsx +197 -0
  140. package/src/tools/local-files/Render/ReadLocalFile/index.tsx +31 -0
  141. package/src/tools/local-files/Render/ReadLocalFile/style.ts +37 -0
  142. package/src/tools/local-files/Render/SearchFiles/Result.tsx +42 -0
  143. package/src/tools/local-files/Render/SearchFiles/SearchQuery/SearchView.tsx +77 -0
  144. package/src/tools/local-files/Render/SearchFiles/SearchQuery/index.tsx +72 -0
  145. package/src/tools/local-files/Render/SearchFiles/index.tsx +32 -0
  146. package/src/tools/local-files/Render/index.tsx +36 -0
  147. package/src/tools/local-files/components/FileItem.tsx +117 -0
  148. package/src/tools/local-files/index.ts +149 -0
  149. package/src/tools/local-files/systemRole.ts +46 -0
  150. package/src/tools/local-files/type.ts +33 -0
  151. package/src/tools/renders.ts +3 -0
  152. package/packages/electron-client-ipc/src/events/search.ts +0 -4
  153. package/src/features/Conversation/Messages/Assistant/Tool/Render/Arguments.tsx +0 -165
  154. /package/packages/electron-client-ipc/src/types/{file.ts → upload.ts} +0 -0
@@ -5,9 +5,15 @@
5
5
  "01-ai/yi-1.5-9b-chat": {
6
6
  "description": "零一万物, най-новият отворен модел с фина настройка, с 9 милиарда параметри, който поддържа множество диалогови сценарии, с висококачествени обучителни данни, съобразени с човешките предпочитания."
7
7
  },
8
+ "360/deepseek-r1": {
9
+ "description": "【360 версия】DeepSeek-R1 използва мащабно обучение с подсилване в етапа на следобучение, значително подобрявайки способността на модела за извеждане при наличието на много малко етикетирани данни. В задачите по математика, код и разсъждения на естествен език, производителността му е наравно с официалната версия на OpenAI o1."
10
+ },
8
11
  "360gpt-pro": {
9
12
  "description": "360GPT Pro, като важен член на серията AI модели на 360, отговаря на разнообразни приложения на естествения език с ефективни способности за обработка на текст, поддържайки разбиране на дълги текстове и многостепенни диалози."
10
13
  },
14
+ "360gpt-pro-trans": {
15
+ "description": "Модел, специално проектиран за превод, дълбоко оптимизиран за постигане на водещи резултати."
16
+ },
11
17
  "360gpt-turbo": {
12
18
  "description": "360GPT Turbo предлага мощни изчислителни и диалогови способности, с отлична семантична разбираемост и ефективност на генериране, идеално решение за интелигентни асистенти за предприятия и разработчици."
13
19
  },
@@ -62,6 +68,18 @@
62
68
  "DeepSeek-R1-Distill-Qwen-7B": {
63
69
  "description": "DeepSeek-R1 дестилиран модел, базиран на Qwen2.5-Math-7B, оптимизира производителността на разсъжденията чрез подсилено учене и данни за студен старт, отворен модел, който обновява многозадачния стандарт."
64
70
  },
71
+ "DeepSeek-V3": {
72
+ "description": "DeepSeek-V3 е MoE модел, разработен от компанията DeepSeek. DeepSeek-V3 постига резултати в множество оценки, които надминават други отворени модели като Qwen2.5-72B и Llama-3.1-405B, като по отношение на производителност е наравно с водещите затворени модели в света като GPT-4o и Claude-3.5-Sonnet."
73
+ },
74
+ "Doubao-1.5-thinking-pro": {
75
+ "description": "Doubao-1.5 е нов модел за дълбочинно разсъждение, който показва отлични резултати в професионални области като математика, програмиране и научни разсъждения, както и в общи задачи като креативно писане, достигащи или приближаващи до водещите нива в AIME 2024, Codeforces, GPQA и други авторитетни бенчмаркове. Поддържа контекстуален прозорец от 128k и изход от 16k."
76
+ },
77
+ "Doubao-1.5-thinking-pro-vision": {
78
+ "description": "Doubao-1.5 е нов модел за дълбочинно разсъждение, който показва отлични резултати в професионални области като математика, програмиране и научни разсъждения, както и в общи задачи като креативно писане, достигащи или приближаващи до водещите нива в AIME 2024, Codeforces, GPQA и други авторитетни бенчмаркове. Поддържа контекстуален прозорец от 128k и изход от 16k."
79
+ },
80
+ "Doubao-1.5-vision-pro": {
81
+ "description": "Doubao-1.5-vision-pro е ново обновление на мултимодалния модел, поддържащ разпознаване на изображения с произволна резолюция и екстремни съотношения на дължина и ширина, подобряващ способностите за визуални разсъждения, разпознаване на документи, разбиране на детайлна информация и следване на инструкции."
82
+ },
65
83
  "Doubao-1.5-vision-pro-32k": {
66
84
  "description": "Doubao-1.5-vision-pro е ново обновен мултимодален голям модел, който поддържа разпознаване на изображения с произволна резолюция и екстремни съотношения на страните, подобрявайки способностите за визуално разсъждение, разпознаване на документи, разбиране на детайлна информация и следване на инструкции."
67
85
  },
@@ -341,6 +359,15 @@
341
359
  "SenseChat-Vision": {
342
360
  "description": "Най-новата версия на модела (V5.5) поддържа вход с множество изображения и напълно реализира оптимизация на основните способности на модела, с голямо подобрение в разпознаването на свойства на обекти, пространствени отношения, разпознаване на действия и събития, разбиране на сцени, разпознаване на емоции, логическо разсъждение и генериране на текст."
343
361
  },
362
+ "SenseNova-V6-Pro": {
363
+ "description": "Постигане на родно обединение на възможностите за изображения, текст и видео, преодолявайки ограниченията на традиционните мултимодални разделения, спечелвайки двойна титла в оценките OpenCompass и SuperCLUE."
364
+ },
365
+ "SenseNova-V6-Reasoner": {
366
+ "description": "Комбинира визуално и езиково дълбоко разсъждение, осъществявайки бавно мислене и задълбочен анализ, представяйки пълния процес на мисловната верига."
367
+ },
368
+ "SenseNova-V6-Turbo": {
369
+ "description": "Постигане на родно обединение на възможностите за изображения, текст и видео, преодолявайки ограниченията на традиционните мултимодални разделения, с водещи постижения в основни измерения като мултимодални базови способности и езикови базови способности, съчетавайки хуманитарни и технически умения, многократно класиран на първото ниво както в национални, така и в международни оценки."
370
+ },
344
371
  "Skylark2-lite-8k": {
345
372
  "description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-lite предлага висока скорост на отговор, подходяща за сценарии с високи изисквания за реално време, чувствителни към разходите и с по-ниски изисквания за прецизност, с дължина на контекстовия прозорец 8k."
346
373
  },
@@ -356,6 +383,21 @@
356
383
  "Skylark2-pro-turbo-8k": {
357
384
  "description": "Cloud Lark (Skylark) второ поколение модел, Skylark2-pro-turbo-8k предлага по-бърза обработка и по-ниски разходи, с дължина на контекстовия прозорец 8k."
358
385
  },
386
+ "THUDM/GLM-4-32B-0414": {
387
+ "description": "GLM-4-32B-0414 е новото поколение отворен модел от серията GLM, с 32 милиарда параметри. Производителността на този модел е сравнима с GPT серията на OpenAI и V3/R1 серията на DeepSeek."
388
+ },
389
+ "THUDM/GLM-4-9B-0414": {
390
+ "description": "GLM-4-9B-0414 е малкият модел от серията GLM, с 9 милиарда параметри. Този модел наследява техническите характеристики на GLM-4-32B серията, но предлага по-леко решение за внедряване. Въпреки по-малкия си размер, GLM-4-9B-0414 все още показва отлични способности в генерирането на код, уеб дизайн, генериране на SVG графики и писане на базата на търсене."
391
+ },
392
+ "THUDM/GLM-Z1-32B-0414": {
393
+ "description": "GLM-Z1-32B-0414 е модел за разсъждение с дълбоки способности за разсъждение. Този модел е разработен на базата на GLM-4-32B-0414 чрез студен старт и разширено обучение с подсилване и е допълнително обучен в задачи по математика, код и логика. В сравнение с основния модел, GLM-Z1-32B-0414 значително подобрява математическите способности и способността за решаване на сложни задачи."
394
+ },
395
+ "THUDM/GLM-Z1-9B-0414": {
396
+ "description": "GLM-Z1-9B-0414 е малкият модел от серията GLM, с 9 милиарда параметри, но запазва удивителни способности, докато следва традицията на отворен код. Въпреки по-малкия си размер, моделът все още показва отлични резултати в математическите разсъждения и общите задачи, като общата му производителност е на водещо ниво сред модели с подобен размер."
397
+ },
398
+ "THUDM/GLM-Z1-Rumination-32B-0414": {
399
+ "description": "GLM-Z1-Rumination-32B-0414 е модел за дълбочинно разсъждение с дълбоки способности за разсъждение (сравним с Deep Research на OpenAI). За разлика от типичните модели за дълбочинно разсъждение, моделът за разсъждение използва по-дълго време за дълбочинно разсъждение, за да решава по-отворени и сложни проблеми."
400
+ },
359
401
  "THUDM/chatglm3-6b": {
360
402
  "description": "ChatGLM3-6B е отворен модел от серията ChatGLM, разработен от Zhizhu AI. Моделът запазва отличителните характеристики на предшествениците си, като плавност на разговора и ниски изисквания за внедряване, докато въвежда нови функции. Той използва по-разнообразни тренировъчни данни, по-пълноценни тренировъчни стъпки и по-разумни тренировъчни стратегии, показвайки отлични резултати сред предварително обучените модели под 10B. ChatGLM3-6B поддържа многократни разговори, извикване на инструменти, изпълнение на код и сложни сценарии на задачи на агенти. Освен модела за разговори, са отворени и основният модел ChatGLM-6B-Base и моделът за дълги текстови разговори ChatGLM3-6B-32K. Моделът е напълно отворен за академични изследвания и позволява безплатна търговска употреба след регистрация."
361
403
  },
@@ -521,6 +563,9 @@
521
563
  "charglm-3": {
522
564
  "description": "CharGLM-3 е проектиран за ролеви игри и емоционално придружаване, поддържаща дълга многократна памет и персонализиран диалог, с широко приложение."
523
565
  },
566
+ "charglm-4": {
567
+ "description": "CharGLM-4 е проектиран за ролеви игри и емоционално придружаване, поддържащ дългосрочна памет и персонализирани диалози, с широко приложение."
568
+ },
524
569
  "chatglm3": {
525
570
  "description": "ChatGLM3 е закритоизточен модел, обявен от интелигентната платформа AI и лабораторията KEG на Университета в Тайхуа. Той е претрениран с голям обем на китайски и английски идентификатори и е подложен на тренировка за съответствие с хуманите предпочитания. Сравнено с първата версия на модела, ChatGLM3 постига подобрения от 16%, 36% и 280% в MMLU, C-Eval и GSM8K съответно, и е класифициран на първо място в китайския рейтинг C-Eval. Този модел е подходящ за сценарии, които изискват високи стандарти за знания, умения за разсъждаване и креативност, като например създаване на рекламни текстове, писане на романи, научно-популярно писане и генериране на код."
526
571
  },
@@ -632,9 +677,18 @@
632
677
  "command-r-plus-04-2024": {
633
678
  "description": "Команда R+ е диалогов модел, следващ инструкции, който показва по-високо качество и надеждност в езиковите задачи, с по-дълга контекстна дължина в сравнение с предишните модели. Той е най-подходящ за сложни RAG работни потоци и многократна употреба на инструменти."
634
679
  },
680
+ "command-r-plus-08-2024": {
681
+ "description": "Command R+ е диалогов модел, който следва инструкции, показващ по-високо качество и надеждност в езиковите задачи, с по-дълга контекстуална дължина в сравнение с предишните модели. Най-подходящ е за сложни RAG работни потоци и многостепенна употреба на инструменти."
682
+ },
635
683
  "command-r7b-12-2024": {
636
684
  "description": "command-r7b-12-2024 е малка и ефективна актуализирана версия, пусната през декември 2024 г. Тя показва отлични резултати в задачи, изискващи сложни разсъждения и многократна обработка, като RAG, използване на инструменти и агенти."
637
685
  },
686
+ "compound-beta": {
687
+ "description": "Compound-beta е композитна AI система, подкрепена от множество отворени модели, налични в GroqCloud, която интелигентно и селективно използва инструменти за отговор на запитвания на потребителите."
688
+ },
689
+ "compound-beta-mini": {
690
+ "description": "Compound-beta-mini е композитна AI система, подкрепена от публично достъпни модели в GroqCloud, която интелигентно и селективно използва инструменти за отговор на запитвания на потребителите."
691
+ },
638
692
  "dall-e-2": {
639
693
  "description": "Второ поколение модел DALL·E, поддържащ по-реалистично и точно генериране на изображения, с резолюция 4 пъти по-висока от първото поколение."
640
694
  },
@@ -779,6 +833,18 @@
779
833
  "deepseek/deepseek-v3/community": {
780
834
  "description": "DeepSeek-V3 постига значителен напредък в скоростта на извеждане в сравнение с предишните модели. Той е на първо място сред отворените модели и може да се сравнява с най-съвременните затворени модели в света. DeepSeek-V3 използва архитектури с многоглаво внимание (MLA) и DeepSeekMoE, които бяха напълно валидирани в DeepSeek-V2. Освен това, DeepSeek-V3 въвежда помощна беззагубна стратегия за баланс на натоварването и задава цели за обучение с множество етикети, за да постигне по-силна производителност."
781
835
  },
836
+ "deepseek_r1": {
837
+ "description": "DeepSeek-R1 е модел за разсъждение, управляван от обучение с подсилване (RL), който решава проблемите с повторяемостта и четимостта в модела. Преди RL, DeepSeek-R1 въвежда студени данни, за да оптимизира допълнително производителността на разсъжденията. Той показва производителност, сравнима с OpenAI-o1 в задачи по математика, код и разсъждения, и чрез внимателно проектирани методи на обучение, подобрява общите резултати."
838
+ },
839
+ "deepseek_r1_distill_llama_70b": {
840
+ "description": "DeepSeek-R1-Distill-Llama-70B е модел, получен чрез дестилация на Llama-3.3-70B-Instruct. Този модел е част от серията DeepSeek-R1 и е финализиран с примери, генерирани от DeepSeek-R1, показвайки отлична производителност в области като математика, програмиране и разсъждения."
841
+ },
842
+ "deepseek_r1_distill_qwen_14b": {
843
+ "description": "DeepSeek-R1-Distill-Qwen-14B е модел, получен чрез знание на дестилация на Qwen2.5-14B. Този модел е финализиран с 800 000 избрани примера, генерирани от DeepSeek-R1, показвайки отлични способности за разсъждение."
844
+ },
845
+ "deepseek_r1_distill_qwen_32b": {
846
+ "description": "DeepSeek-R1-Distill-Qwen-32B е модел, получен чрез знание на дестилация на Qwen2.5-32B. Този модел е финализиран с 800 000 избрани примера, генерирани от DeepSeek-R1, показвайки изключителна производителност в множество области, включително математика, програмиране и разсъждения."
847
+ },
782
848
  "doubao-1.5-lite-32k": {
783
849
  "description": "Doubao-1.5-lite е ново поколение лек модел, с изключителна скорост на отговор, който постига световно ниво както по отношение на ефективността, така и на времето за реакция."
784
850
  },
@@ -788,6 +854,9 @@
788
854
  "doubao-1.5-pro-32k": {
789
855
  "description": "Doubao-1.5-pro е ново поколение основен модел, с напълно обновени характеристики, който показва отлични резултати в области като знания, код, разсъждения и др."
790
856
  },
857
+ "doubao-1.5-vision-lite": {
858
+ "description": "Doubao-1.5-vision-lite е ново обновление на мултимодалния модел, поддържащ разпознаване на изображения с произволна резолюция и екстремни съотношения на дължина и ширина, подобряващ способностите за визуални разсъждения, разпознаване на документи, разбиране на детайлна информация и следване на инструкции. Поддържа контекстуален прозорец от 128k, с максимална дължина на изхода от 16k токена."
859
+ },
791
860
  "emohaa": {
792
861
  "description": "Emohaa е психологически модел с професионални консултантски способности, помагащ на потребителите да разберат емоционалните проблеми."
793
862
  },
@@ -953,6 +1022,9 @@
953
1022
  "glm-4-air": {
954
1023
  "description": "GLM-4-Air е икономичен вариант, с производителност близка до GLM-4, предлагаща бързина и достъпна цена."
955
1024
  },
1025
+ "glm-4-air-250414": {
1026
+ "description": "GLM-4-Air е версия с висока стойност, с производителност, близка до GLM-4, предлагаща бързина и достъпна цена."
1027
+ },
956
1028
  "glm-4-airx": {
957
1029
  "description": "GLM-4-AirX предлага ефективна версия на GLM-4-Air, с скорост на извеждане до 2.6 пъти."
958
1030
  },
@@ -962,6 +1034,9 @@
962
1034
  "glm-4-flash": {
963
1035
  "description": "GLM-4-Flash е идеалният избор за обработка на прости задачи, с най-бърза скорост и най-добра цена."
964
1036
  },
1037
+ "glm-4-flash-250414": {
1038
+ "description": "GLM-4-Flash е идеалният избор за обработка на прости задачи, с най-бърза скорост и безплатен."
1039
+ },
965
1040
  "glm-4-flashx": {
966
1041
  "description": "GLM-4-FlashX е подобрена версия на Flash с изключително бърза скорост на извеждане."
967
1042
  },
@@ -980,6 +1055,18 @@
980
1055
  "glm-4v-plus": {
981
1056
  "description": "GLM-4V-Plus разполага с разбиране на видео съдържание и множество изображения, подходящ за мултимодални задачи."
982
1057
  },
1058
+ "glm-4v-plus-0111": {
1059
+ "description": "GLM-4V-Plus притежава способността да разбира видео съдържание и множество изображения, подходящ за мултимодални задачи."
1060
+ },
1061
+ "glm-z1-air": {
1062
+ "description": "Модел за разсъждение: притежава силни способности за разсъждение, подходящ за задачи, изискващи дълбочинно разсъждение."
1063
+ },
1064
+ "glm-z1-airx": {
1065
+ "description": "Супер бързо разсъждение: с изключително бърза скорост на разсъждение и силни резултати."
1066
+ },
1067
+ "glm-z1-flash": {
1068
+ "description": "GLM-Z1 серията притежава силни способности за сложни разсъждения, показвайки отлични резултати в логическите разсъждения, математиката и програмирането. Максималната дължина на контекста е 32K."
1069
+ },
983
1070
  "glm-zero-preview": {
984
1071
  "description": "GLM-Zero-Preview притежава мощни способности за сложни разсъждения, показвайки отлични резултати в логическото разсъждение, математиката и програмирането."
985
1072
  },
@@ -1199,12 +1286,15 @@
1199
1286
  "hunyuan-turbos-20250226": {
1200
1287
  "description": "hunyuan-TurboS pv2.1.2 фиксирана версия, предтренировъчна база с увеличен брой токени; подобрени способности за разсъждение в математика/логика/код и др.; подобрено изживяване на китайски и английски, включително текстово творчество, разбиране на текст, въпроси и отговори, разговори и др."
1201
1288
  },
1202
- "hunyuan-turbos-20250313": {
1203
- "description": "Уеднаквяване на стила на математическите решения, засилване на многократните въпроси и отговори по математика. Оптимизация на стила на отговорите в текстовото творчество, премахване на AI привкус и добавяне на литературност."
1204
- },
1205
1289
  "hunyuan-turbos-latest": {
1206
1290
  "description": "hunyuan-TurboS е последната версия на флагманския модел Hunyuan, с по-силни способности за разсъждение и по-добро потребителско изживяване."
1207
1291
  },
1292
+ "hunyuan-turbos-longtext-128k-20250325": {
1293
+ "description": "Специализирана в обработката на дълги текстови задачи като резюмета на документи и въпроси и отговори, също така притежава способността да се справя с общи задачи по генериране на текст. Показва отлични резултати в анализа и генерирането на дълги текстове, ефективно справяйки се с комплексни и детайлни изисквания за обработка на дълги текстове."
1294
+ },
1295
+ "hunyuan-turbos-vision": {
1296
+ "description": "Този модел е подходящ за сцени на разбиране на текст и изображения, базиран на новото поколение визуален езиков модел Turbos, фокусирайки се върху задачи, свързани с разбиране на текст и изображения, включително разпознаване на обекти на базата на изображения, въпроси и отговори, създаване на текст и решаване на проблеми чрез снимки, с цялостно подобрение в сравнение с предишното поколение."
1297
+ },
1208
1298
  "hunyuan-vision": {
1209
1299
  "description": "Най-новият мултимодален модел на HunYuan, поддържащ генериране на текстово съдържание от изображения и текстови входове."
1210
1300
  },
@@ -1223,6 +1313,12 @@
1223
1313
  "internlm3-latest": {
1224
1314
  "description": "Нашата най-нова серия модели с изключителна производителност на разсъжденията, водеща в категорията на отворените модели. По подразбиране сочи към най-ново публикуваната серия модели InternLM3."
1225
1315
  },
1316
+ "jamba-large": {
1317
+ "description": "Нашият най-мощен и напреднал модел, проектиран за справяне с комплексни задачи на корпоративно ниво, с изключителна производителност."
1318
+ },
1319
+ "jamba-mini": {
1320
+ "description": "Най-ефективният модел в своя клас, съчетаващ скорост и качество, с по-малък обем."
1321
+ },
1226
1322
  "jina-deepsearch-v1": {
1227
1323
  "description": "Дълбокото търсене комбинира интернет търсене, четене и разсъждение, за да извърши обширно разследване. Можете да го разглеждате като агент, който приема вашата изследователска задача - той ще извърши широко търсене и ще премине през множество итерации, преди да предостави отговор. Този процес включва непрекъснато изследване, разсъждение и решаване на проблеми от различни ъгли. Това е коренно различно от стандартните големи модели, които генерират отговори директно от предварително обучени данни, и от традиционните RAG системи, които разчитат на еднократни повърхностни търсения."
1228
1324
  },
@@ -1568,9 +1664,18 @@
1568
1664
  "o1-preview": {
1569
1665
  "description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
1570
1666
  },
1667
+ "o3": {
1668
+ "description": "o3 е универсален и мощен модел, който показва отлични резултати в множество области. Той задава нови стандарти за задачи по математика, наука, програмиране и визуални разсъждения. Също така е добър в техническото писане и следването на инструкции. Потребителите могат да го използват за анализ на текст, код и изображения, за решаване на сложни проблеми с множество стъпки."
1669
+ },
1571
1670
  "o3-mini": {
1572
1671
  "description": "o3-mini е нашият най-нов малък модел за инференция, който предлага висока интелигентност при същите разходи и цели за закъснение като o1-mini."
1573
1672
  },
1673
+ "o3-mini-high": {
1674
+ "description": "o3-mini версия с високо ниво на извеждане, предлагаща висока интелигентност при същите разходи и цели за забавяне като o1-mini."
1675
+ },
1676
+ "o4-mini": {
1677
+ "description": "o4-mini е нашият най-нов малък модел от серията o. Той е оптимизиран за бързо и ефективно извеждане, показвайки изключителна ефективност и производителност в задачи по кодиране и визуализация."
1678
+ },
1574
1679
  "open-codestral-mamba": {
1575
1680
  "description": "Codestral Mamba е модел на езика Mamba 2, специализиран в генерирането на код, предоставящ мощна поддръжка за напреднали кодови и разсъждателни задачи."
1576
1681
  },
@@ -1598,6 +1703,12 @@
1598
1703
  "openai/o1-preview": {
1599
1704
  "description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
1600
1705
  },
1706
+ "openai/o4-mini": {
1707
+ "description": "o4-mini е оптимизиран за бързо и ефективно извеждане, показвайки изключителна ефективност и производителност в задачи по кодиране и визуализация."
1708
+ },
1709
+ "openai/o4-mini-high": {
1710
+ "description": "o4-mini версия с високо ниво на извеждане, оптимизирана за бързо и ефективно извеждане, показваща изключителна ефективност и производителност в задачи по кодиране и визуализация."
1711
+ },
1601
1712
  "openrouter/auto": {
1602
1713
  "description": "В зависимост от дължината на контекста, темата и сложността, вашето запитване ще бъде изпратено до Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулиращ) или GPT-4o."
1603
1714
  },
@@ -1793,6 +1904,9 @@
1793
1904
  "qwq-plus-latest": {
1794
1905
  "description": "QwQ моделът за изводи, обучен на базата на модела Qwen2.5, значително подобрява способностите си за изводи чрез усилено обучение. Основните показатели на модела, като математически код и други ключови индикатори (AIME 24/25, LiveCodeBench), както и някои общи индикатори (IFEval, LiveBench и др.), достигат нивото на DeepSeek-R1 в пълна версия."
1795
1906
  },
1907
+ "qwq_32b": {
1908
+ "description": "Модел за разсъждение със среден размер от серията Qwen. В сравнение с традиционните модели за настройка на инструкции, QwQ, който притежава способности за разсъждение и разсъждение, може значително да подобри производителността в задачи с по-висока сложност."
1909
+ },
1796
1910
  "r1-1776": {
1797
1911
  "description": "R1-1776 е версия на модела DeepSeek R1, след обучението, която предоставя непроверена и безпристрастна фактическа информация."
1798
1912
  },
@@ -1853,12 +1967,21 @@
1853
1967
  "step-2-16k": {
1854
1968
  "description": "Поддържа взаимодействия с голям мащаб на контекста, подходящи за сложни диалогови сценарии."
1855
1969
  },
1970
+ "step-2-16k-exp": {
1971
+ "description": "Експерименталната версия на модела step-2, съдържаща най-новите функции, в процес на актуализация. Не се препоръчва за използване в официална производствена среда."
1972
+ },
1856
1973
  "step-2-mini": {
1857
1974
  "description": "Модел с бърза производителност, базиран на новото поколение собствена архитектура Attention MFA, който постига резултати, подобни на step1 с много ниски разходи, като същевременно поддържа по-висока производителност и по-бързо време за отговор. Може да обработва общи задачи и притежава специализирани умения в кодирането."
1858
1975
  },
1976
+ "step-r1-v-mini": {
1977
+ "description": "Този модел е мощен модел за разсъждение с отлични способности за разбиране на изображения, способен да обработва информация от изображения и текст, и след дълбочинно разсъждение да генерира текстово съдържание. Моделът показва изключителни резултати в областта на визуалните разсъждения, като същевременно притежава първокласни способности в математиката, кода и текстовите разсъждения. Дължината на контекста е 100k."
1978
+ },
1859
1979
  "taichu_llm": {
1860
1980
  "description": "Моделът на езика TaiChu е с изключителни способности за разбиране на езика, текстово генериране, отговори на знания, програмиране, математически изчисления, логическо разсъждение, анализ на емоции, резюмиране на текст и др. Иновативно комбинира предварително обучение с големи данни и разнообразни източници на знания, чрез непрекъснато усъвършенстване на алгоритмичните технологии и усвояване на нови знания от масивни текстови данни, за да осигури на потребителите по-удобна информация и услуги, както и по-интелигентно изживяване."
1861
1981
  },
1982
+ "taichu_o1": {
1983
+ "description": "taichu_o1 е новото поколение модел за разсъждение, реализиращ човешки мисловни вериги чрез мултимодално взаимодействие и обучение с подсилване, поддържащ сложни решения и демонстриращ мисловни пътища, които могат да бъдат моделирани, с висока точност на изхода, подходящ за анализ на стратегии и дълбочинни разсъждения."
1984
+ },
1862
1985
  "taichu_vl": {
1863
1986
  "description": "Съчетава способности за разбиране на изображения, прехвърляне на знания и логическо обяснение, като показва отлични резултати в областта на въпросите и отговорите с текст и изображения."
1864
1987
  },
@@ -5,6 +5,7 @@
5
5
  "off": "Изключи отстраняване на грешки",
6
6
  "on": "Преглед на информацията за извикване на плъгина",
7
7
  "payload": "полезна натоварване",
8
+ "pluginState": "Състояние на плъгина",
8
9
  "response": "Отговор",
9
10
  "tool_call": "заявка за инструмент"
10
11
  },
@@ -7,6 +7,20 @@
7
7
  "images": "Изображения:",
8
8
  "prompt": "подсказка"
9
9
  },
10
+ "localFiles": {
11
+ "file": "Файл",
12
+ "folder": "Папка",
13
+ "open": "Отвори",
14
+ "openFile": "Отвори файл",
15
+ "openFolder": "Отвори папка",
16
+ "read": {
17
+ "more": "Виж повече"
18
+ },
19
+ "readFile": "Прочети файл",
20
+ "readFileError": "Неуспешно четене на файла, моля, проверете дали пътят към файла е правилен",
21
+ "readFiles": "Прочети файлове",
22
+ "readFilesError": "Неуспешно четене на файловете, моля, проверете дали пътят към файловете е правилен"
23
+ },
10
24
  "search": {
11
25
  "createNewSearch": "Създаване на нова търсене",
12
26
  "emptyResult": "Не са намерени резултати, моля, променете ключовите думи и опитайте отново",
@@ -44,5 +58,16 @@
44
58
  "summary": "Резюме",
45
59
  "summaryTooltip": "Резюме на текущото съдържание",
46
60
  "viewMoreResults": "Вижте още {{results}} резултата"
61
+ },
62
+ "updateArgs": {
63
+ "duplicateKeyError": "Ключът на полето трябва да е уникален",
64
+ "form": {
65
+ "add": "Добави елемент",
66
+ "key": "Ключ на полето",
67
+ "value": "Стойност на полето"
68
+ },
69
+ "formValidationFailed": "Проверката на формуляра не бе успешна, моля проверете формата на параметрите",
70
+ "keyRequired": "Ключът на полето не може да бъде празен",
71
+ "stringifyError": "Не може да се сериализират параметрите, моля проверете формата на параметрите"
47
72
  }
48
73
  }
@@ -284,6 +284,8 @@
284
284
  "rename": "Umbenennen",
285
285
  "reset": "Zurücksetzen",
286
286
  "retry": "Erneut versuchen",
287
+ "run": "Ausführen",
288
+ "save": "Speichern",
287
289
  "send": "Senden",
288
290
  "setting": "Einstellung",
289
291
  "share": "Teilen",
@@ -0,0 +1,32 @@
1
+ {
2
+ "remoteServer": {
3
+ "authError": "Autorisierung fehlgeschlagen: {{error}}",
4
+ "authPending": "Bitte schließen Sie die Autorisierung im Browser ab",
5
+ "configDesc": "Verbinden Sie sich mit dem Remote LobeChat-Server, um die Datensynchronisierung zu aktivieren",
6
+ "configError": "Konfigurationsfehler",
7
+ "configTitle": "Cloud-Synchronisierung konfigurieren",
8
+ "connect": "Verbinden und autorisieren",
9
+ "connected": "Verbunden",
10
+ "disconnect": "Trennen",
11
+ "disconnectError": "Trennen fehlgeschlagen",
12
+ "disconnected": "Nicht verbunden",
13
+ "fetchError": "Fehler beim Abrufen der Konfiguration",
14
+ "invalidUrl": "Bitte geben Sie eine gültige URL ein",
15
+ "serverUrl": "Serveradresse",
16
+ "statusConnected": "Verbunden",
17
+ "statusDisconnected": "Nicht verbunden",
18
+ "urlRequired": "Bitte geben Sie die Serveradresse ein"
19
+ },
20
+ "updater": {
21
+ "downloadingUpdate": "Update wird heruntergeladen",
22
+ "downloadingUpdateDesc": "Das Update wird heruntergeladen, bitte warten...",
23
+ "later": "Später aktualisieren",
24
+ "newVersionAvailable": "Neue Version verfügbar",
25
+ "newVersionAvailableDesc": "Eine neue Version {{version}} wurde gefunden, möchten Sie jetzt herunterladen?",
26
+ "restartAndInstall": "Neustarten und installieren",
27
+ "updateError": "Update-Fehler",
28
+ "updateReady": "Update ist bereit",
29
+ "updateReadyDesc": "Lobe Chat {{version}} wurde heruntergeladen, starten Sie die Anwendung neu, um die Installation abzuschließen.",
30
+ "upgradeNow": "Jetzt aktualisieren"
31
+ }
32
+ }