@lobehub/lobehub 2.0.0-next.306 → 2.0.0-next.308

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (254) hide show
  1. package/.vscode/settings.json +18 -3
  2. package/CHANGELOG.md +61 -0
  3. package/changelog/v1.json +21 -0
  4. package/locales/ar/agentGroup.json +5 -0
  5. package/locales/ar/chat.json +26 -0
  6. package/locales/ar/models.json +43 -5
  7. package/locales/ar/plugin.json +4 -5
  8. package/locales/ar/setting.json +11 -0
  9. package/locales/ar/subscription.json +2 -0
  10. package/locales/ar/tool.json +2 -0
  11. package/locales/bg-BG/agentGroup.json +5 -0
  12. package/locales/bg-BG/chat.json +26 -0
  13. package/locales/bg-BG/models.json +49 -3
  14. package/locales/bg-BG/plugin.json +4 -5
  15. package/locales/bg-BG/setting.json +11 -0
  16. package/locales/bg-BG/subscription.json +2 -0
  17. package/locales/bg-BG/tool.json +2 -0
  18. package/locales/de-DE/agentGroup.json +5 -0
  19. package/locales/de-DE/chat.json +26 -0
  20. package/locales/de-DE/models.json +48 -5
  21. package/locales/de-DE/plugin.json +4 -5
  22. package/locales/de-DE/setting.json +11 -0
  23. package/locales/de-DE/subscription.json +2 -0
  24. package/locales/de-DE/tool.json +2 -0
  25. package/locales/en-US/models.json +8 -6
  26. package/locales/en-US/plugin.json +2 -4
  27. package/locales/en-US/setting.json +10 -11
  28. package/locales/en-US/tool.json +2 -0
  29. package/locales/es-ES/agentGroup.json +5 -0
  30. package/locales/es-ES/chat.json +26 -0
  31. package/locales/es-ES/models.json +43 -5
  32. package/locales/es-ES/plugin.json +4 -5
  33. package/locales/es-ES/setting.json +11 -0
  34. package/locales/es-ES/subscription.json +2 -0
  35. package/locales/es-ES/tool.json +2 -0
  36. package/locales/fa-IR/agentGroup.json +5 -0
  37. package/locales/fa-IR/chat.json +26 -0
  38. package/locales/fa-IR/models.json +42 -5
  39. package/locales/fa-IR/plugin.json +4 -5
  40. package/locales/fa-IR/setting.json +11 -0
  41. package/locales/fa-IR/subscription.json +2 -0
  42. package/locales/fa-IR/tool.json +2 -0
  43. package/locales/fr-FR/agentGroup.json +5 -0
  44. package/locales/fr-FR/chat.json +26 -0
  45. package/locales/fr-FR/models.json +5 -5
  46. package/locales/fr-FR/plugin.json +4 -5
  47. package/locales/fr-FR/setting.json +11 -0
  48. package/locales/fr-FR/subscription.json +2 -0
  49. package/locales/fr-FR/tool.json +2 -0
  50. package/locales/it-IT/agentGroup.json +5 -0
  51. package/locales/it-IT/chat.json +26 -0
  52. package/locales/it-IT/models.json +1 -3
  53. package/locales/it-IT/plugin.json +4 -5
  54. package/locales/it-IT/setting.json +11 -0
  55. package/locales/it-IT/subscription.json +2 -0
  56. package/locales/it-IT/tool.json +2 -0
  57. package/locales/ja-JP/agentGroup.json +5 -0
  58. package/locales/ja-JP/chat.json +26 -0
  59. package/locales/ja-JP/models.json +1 -5
  60. package/locales/ja-JP/plugin.json +4 -5
  61. package/locales/ja-JP/setting.json +11 -0
  62. package/locales/ja-JP/subscription.json +2 -0
  63. package/locales/ja-JP/tool.json +2 -0
  64. package/locales/ko-KR/agentGroup.json +5 -0
  65. package/locales/ko-KR/chat.json +26 -0
  66. package/locales/ko-KR/models.json +1 -3
  67. package/locales/ko-KR/plugin.json +4 -5
  68. package/locales/ko-KR/setting.json +11 -0
  69. package/locales/ko-KR/subscription.json +2 -0
  70. package/locales/ko-KR/tool.json +2 -0
  71. package/locales/nl-NL/agentGroup.json +5 -0
  72. package/locales/nl-NL/chat.json +26 -0
  73. package/locales/nl-NL/models.json +35 -3
  74. package/locales/nl-NL/plugin.json +4 -5
  75. package/locales/nl-NL/setting.json +11 -0
  76. package/locales/nl-NL/subscription.json +2 -0
  77. package/locales/nl-NL/tool.json +2 -0
  78. package/locales/pl-PL/agentGroup.json +5 -0
  79. package/locales/pl-PL/chat.json +26 -0
  80. package/locales/pl-PL/models.json +1 -3
  81. package/locales/pl-PL/plugin.json +4 -5
  82. package/locales/pl-PL/setting.json +11 -0
  83. package/locales/pl-PL/subscription.json +2 -0
  84. package/locales/pl-PL/tool.json +2 -0
  85. package/locales/pt-BR/agentGroup.json +5 -0
  86. package/locales/pt-BR/chat.json +26 -0
  87. package/locales/pt-BR/models.json +50 -5
  88. package/locales/pt-BR/plugin.json +4 -5
  89. package/locales/pt-BR/setting.json +11 -0
  90. package/locales/pt-BR/subscription.json +2 -0
  91. package/locales/pt-BR/tool.json +2 -0
  92. package/locales/ru-RU/agentGroup.json +5 -0
  93. package/locales/ru-RU/chat.json +26 -0
  94. package/locales/ru-RU/models.json +22 -3
  95. package/locales/ru-RU/plugin.json +4 -5
  96. package/locales/ru-RU/setting.json +11 -0
  97. package/locales/ru-RU/subscription.json +2 -0
  98. package/locales/ru-RU/tool.json +2 -0
  99. package/locales/tr-TR/agentGroup.json +5 -0
  100. package/locales/tr-TR/chat.json +26 -0
  101. package/locales/tr-TR/models.json +36 -3
  102. package/locales/tr-TR/plugin.json +4 -5
  103. package/locales/tr-TR/setting.json +11 -0
  104. package/locales/tr-TR/subscription.json +2 -0
  105. package/locales/tr-TR/tool.json +2 -0
  106. package/locales/vi-VN/agentGroup.json +5 -0
  107. package/locales/vi-VN/chat.json +26 -0
  108. package/locales/vi-VN/models.json +1 -1
  109. package/locales/vi-VN/plugin.json +4 -5
  110. package/locales/vi-VN/setting.json +11 -0
  111. package/locales/vi-VN/subscription.json +2 -0
  112. package/locales/vi-VN/tool.json +2 -0
  113. package/locales/zh-CN/models.json +52 -5
  114. package/locales/zh-CN/plugin.json +5 -7
  115. package/locales/zh-CN/setting.json +10 -11
  116. package/locales/zh-CN/tool.json +2 -2
  117. package/locales/zh-TW/agentGroup.json +5 -0
  118. package/locales/zh-TW/chat.json +26 -0
  119. package/locales/zh-TW/models.json +54 -5
  120. package/locales/zh-TW/plugin.json +4 -5
  121. package/locales/zh-TW/setting.json +11 -0
  122. package/locales/zh-TW/subscription.json +2 -0
  123. package/locales/zh-TW/tool.json +2 -0
  124. package/package.json +2 -2
  125. package/packages/builtin-agents/src/agents/group-supervisor/index.ts +1 -7
  126. package/packages/builtin-tool-group-agent-builder/src/ExecutionRuntime/index.ts +29 -0
  127. package/packages/builtin-tool-group-agent-builder/src/executor.ts +18 -0
  128. package/packages/builtin-tool-group-agent-builder/src/manifest.ts +17 -0
  129. package/packages/builtin-tool-group-agent-builder/src/types.ts +10 -0
  130. package/packages/builtin-tool-group-management/src/client/Inspector/ExecuteAgentTask/index.tsx +52 -8
  131. package/packages/builtin-tool-group-management/src/client/Render/ExecuteTask/index.tsx +2 -21
  132. package/packages/builtin-tool-group-management/src/executor.test.ts +6 -16
  133. package/packages/builtin-tool-group-management/src/executor.ts +8 -47
  134. package/packages/builtin-tool-group-management/src/manifest.ts +5 -18
  135. package/packages/builtin-tool-group-management/src/systemRole.ts +1 -8
  136. package/packages/builtin-tool-group-management/src/types.ts +2 -10
  137. package/packages/builtin-tool-local-system/src/ExecutionRuntime/index.ts +70 -31
  138. package/packages/builtin-tool-local-system/src/client/Render/WriteFile/index.tsx +48 -5
  139. package/packages/builtin-tool-local-system/src/client/Streaming/WriteFile/index.tsx +39 -0
  140. package/packages/builtin-tool-local-system/src/client/Streaming/index.ts +2 -0
  141. package/packages/builtin-tool-local-system/src/executor/index.ts +94 -60
  142. package/packages/database/src/repositories/agentGroup/index.ts +23 -0
  143. package/packages/model-bank/src/aiModels/qiniu.ts +24 -0
  144. package/packages/prompts/src/prompts/fileSystem/formatCommandOutput.test.ts +61 -0
  145. package/packages/prompts/src/prompts/fileSystem/formatCommandOutput.ts +21 -0
  146. package/packages/prompts/src/prompts/fileSystem/formatCommandResult.test.ts +87 -0
  147. package/packages/prompts/src/prompts/fileSystem/formatCommandResult.ts +35 -0
  148. package/packages/prompts/src/prompts/fileSystem/formatEditResult.test.ts +57 -0
  149. package/packages/prompts/src/prompts/fileSystem/formatEditResult.ts +17 -0
  150. package/packages/prompts/src/prompts/fileSystem/formatFileContent.test.ts +59 -0
  151. package/packages/prompts/src/prompts/fileSystem/formatFileContent.ts +14 -0
  152. package/packages/prompts/src/prompts/fileSystem/formatFileList.test.ts +62 -0
  153. package/packages/prompts/src/prompts/fileSystem/formatFileList.ts +13 -0
  154. package/packages/prompts/src/prompts/fileSystem/formatFileSearchResults.test.ts +34 -0
  155. package/packages/prompts/src/prompts/fileSystem/formatFileSearchResults.ts +12 -0
  156. package/packages/prompts/src/prompts/fileSystem/formatGlobResults.test.ts +64 -0
  157. package/packages/prompts/src/prompts/fileSystem/formatGlobResults.ts +23 -0
  158. package/packages/prompts/src/prompts/fileSystem/formatGrepResults.test.ts +85 -0
  159. package/packages/prompts/src/prompts/fileSystem/formatGrepResults.ts +24 -0
  160. package/packages/prompts/src/prompts/fileSystem/formatKillResult.test.ts +30 -0
  161. package/packages/prompts/src/prompts/fileSystem/formatKillResult.ts +9 -0
  162. package/packages/prompts/src/prompts/fileSystem/formatMoveResults.test.ts +37 -0
  163. package/packages/prompts/src/prompts/fileSystem/formatMoveResults.ts +20 -0
  164. package/packages/prompts/src/prompts/fileSystem/formatMultipleFiles.test.ts +54 -0
  165. package/packages/prompts/src/prompts/fileSystem/formatMultipleFiles.ts +9 -0
  166. package/packages/prompts/src/prompts/fileSystem/formatRenameResult.test.ts +35 -0
  167. package/packages/prompts/src/prompts/fileSystem/formatRenameResult.ts +17 -0
  168. package/packages/prompts/src/prompts/fileSystem/formatWriteResult.test.ts +30 -0
  169. package/packages/prompts/src/prompts/fileSystem/formatWriteResult.ts +11 -0
  170. package/packages/prompts/src/prompts/fileSystem/index.ts +13 -0
  171. package/packages/prompts/src/prompts/index.ts +1 -0
  172. package/src/app/[variants]/(auth)/_layout/index.tsx +0 -2
  173. package/src/app/[variants]/(auth)/layout.tsx +0 -2
  174. package/src/app/[variants]/(auth)/login/[[...login]]/page.tsx +1 -3
  175. package/src/app/[variants]/(auth)/signup/[[...signup]]/page.tsx +1 -3
  176. package/src/app/[variants]/(desktop)/desktop-onboarding/_layout/index.tsx +0 -2
  177. package/src/app/[variants]/(main)/_layout/index.tsx +0 -2
  178. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/Actions.tsx +4 -3
  179. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Topic/useDropdownMenu.tsx +12 -2
  180. package/src/app/[variants]/(main)/agent/_layout/index.tsx +0 -2
  181. package/src/app/[variants]/(main)/agent/features/Portal/index.tsx +0 -2
  182. package/src/app/[variants]/(main)/community/(detail)/group_agent/features/Sidebar/ActionButton/AddGroupAgent.tsx +69 -17
  183. package/src/app/[variants]/(main)/community/(list)/_layout/index.tsx +0 -2
  184. package/src/app/[variants]/(main)/community/(list)/assistant/_layout/index.tsx +0 -2
  185. package/src/app/[variants]/(main)/community/(list)/mcp/_layout/index.tsx +0 -2
  186. package/src/app/[variants]/(main)/community/(list)/model/_layout/index.tsx +0 -2
  187. package/src/app/[variants]/(main)/community/_layout/index.tsx +0 -2
  188. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/Actions.tsx +4 -3
  189. package/src/app/[variants]/(main)/group/_layout/Sidebar/Topic/useDropdownMenu.tsx +12 -2
  190. package/src/app/[variants]/(main)/group/_layout/index.tsx +0 -2
  191. package/src/app/[variants]/(main)/group/features/Conversation/Header/index.tsx +4 -2
  192. package/src/app/[variants]/(main)/group/features/Portal/index.tsx +0 -2
  193. package/src/app/[variants]/(main)/home/_layout/index.tsx +0 -2
  194. package/src/app/[variants]/(main)/home/index.tsx +0 -2
  195. package/src/app/[variants]/(main)/image/_layout/Topics/TopicUrlSync.tsx +0 -2
  196. package/src/app/[variants]/(main)/image/_layout/index.tsx +0 -2
  197. package/src/app/[variants]/(main)/memory/_layout/index.tsx +0 -2
  198. package/src/app/[variants]/(main)/page/_layout/index.tsx +0 -2
  199. package/src/app/[variants]/(main)/resource/(home)/_layout/index.tsx +0 -2
  200. package/src/app/[variants]/(main)/resource/_layout/index.tsx +0 -2
  201. package/src/app/[variants]/(main)/resource/library/_layout/index.tsx +0 -2
  202. package/src/app/[variants]/(main)/resource/library/features/Container.tsx +0 -2
  203. package/src/app/[variants]/(main)/settings/_layout/index.tsx +0 -2
  204. package/src/app/[variants]/(main)/settings/about/index.tsx +0 -2
  205. package/src/app/[variants]/(main)/settings/agent/index.tsx +0 -2
  206. package/src/app/[variants]/(main)/settings/apikey/index.tsx +0 -2
  207. package/src/app/[variants]/(main)/settings/chat-appearance/index.tsx +0 -2
  208. package/src/app/[variants]/(main)/settings/common/index.tsx +0 -2
  209. package/src/app/[variants]/(main)/settings/hotkey/index.tsx +0 -2
  210. package/src/app/[variants]/(main)/settings/image/index.tsx +0 -2
  211. package/src/app/[variants]/(main)/settings/memory/index.tsx +0 -2
  212. package/src/app/[variants]/(main)/settings/provider/(list)/index.tsx +0 -2
  213. package/src/app/[variants]/(main)/settings/proxy/index.tsx +0 -2
  214. package/src/app/[variants]/(main)/settings/security/index.tsx +1 -3
  215. package/src/app/[variants]/(main)/settings/storage/index.tsx +0 -2
  216. package/src/app/[variants]/(main)/settings/tts/index.tsx +0 -2
  217. package/src/app/[variants]/(mobile)/(home)/_layout/index.tsx +0 -2
  218. package/src/app/[variants]/(mobile)/_layout/index.tsx +1 -3
  219. package/src/app/[variants]/(mobile)/chat/_layout/index.tsx +0 -2
  220. package/src/app/[variants]/(mobile)/chat/settings/_layout/index.tsx +0 -2
  221. package/src/app/[variants]/(mobile)/community/(detail)/_layout/index.tsx +0 -2
  222. package/src/app/[variants]/(mobile)/community/(list)/_layout/index.tsx +0 -2
  223. package/src/app/[variants]/(mobile)/community/_layout/index.tsx +0 -2
  224. package/src/app/[variants]/(mobile)/router/MobileClientRouter.tsx +0 -2
  225. package/src/app/[variants]/(mobile)/settings/index.tsx +0 -2
  226. package/src/app/[variants]/onboarding/_layout/index.tsx +0 -2
  227. package/src/app/[variants]/router/DesktopClientRouter.tsx +0 -2
  228. package/src/components/ModelSelect/index.tsx +6 -56
  229. package/src/components/server/MobileNavLayout.tsx +0 -2
  230. package/src/components/server/ServerLayout.tsx +0 -2
  231. package/src/features/ChatInput/ActionBar/Upload/ServerMode.tsx +13 -3
  232. package/src/features/ChatInput/ActionBar/components/ActionDropdown.tsx +26 -3
  233. package/src/features/ModelSwitchPanel/components/Footer.tsx +0 -2
  234. package/src/features/ModelSwitchPanel/components/List/MultipleProvidersModelItem.tsx +0 -1
  235. package/src/features/ModelSwitchPanel/components/List/SingleProviderModelItem.tsx +0 -1
  236. package/src/features/ModelSwitchPanel/components/List/VirtualItemRenderer.tsx +0 -1
  237. package/src/features/ModelSwitchPanel/components/List/index.tsx +15 -13
  238. package/src/features/ModelSwitchPanel/components/PanelContent.tsx +0 -2
  239. package/src/features/ModelSwitchPanel/index.tsx +21 -23
  240. package/src/features/ResourceManager/components/Explorer/MasonryView/index.tsx +0 -2
  241. package/src/features/ResourceManager/components/Header/AddButton.tsx +20 -3
  242. package/src/features/User/UserAvatar.tsx +0 -2
  243. package/src/locales/default/plugin.ts +2 -1
  244. package/src/server/routers/lambda/__tests__/agentGroup.test.ts +1 -0
  245. package/src/server/routers/lambda/agentGroup.ts +22 -0
  246. package/src/services/chat/index.ts +1 -0
  247. package/src/services/chat/mecha/agentConfigResolver.test.ts +62 -45
  248. package/src/services/chat/mecha/agentConfigResolver.ts +29 -27
  249. package/src/services/chatGroup/index.ts +14 -0
  250. package/src/store/chat/agents/GroupOrchestration/__tests__/call-supervisor.test.ts +305 -0
  251. package/src/store/chat/agents/GroupOrchestration/createGroupOrchestrationExecutors.ts +2 -1
  252. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +6 -2
  253. package/src/store/chat/slices/plugin/actions/exector.ts +92 -0
  254. package/src/store/chat/slices/plugin/actions/pluginTypes.ts +82 -177
@@ -103,7 +103,7 @@
103
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и инференция. Предварително обучен върху 14.8T висококачествени токени и допълнително настроен с SFT и RL, той надминава други отворени модели и се доближава до водещите затворени решения.",
104
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 е най-новият и най-мощен модел от серията Kimi K2. Това е MoE модел от най-висок клас с 1T общо и 32B активни параметъра. Основните му предимства включват по-силна агентна интелигентност при програмиране с значителни подобрения в бенчмаркове и реални задачи, както и подобрена естетика и използваемост на фронтенд кода.",
105
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo е ускорен вариант, оптимизиран за скорост на разсъждение и пропускателна способност, като запазва многoетапното разсъждение и използване на инструменти от K2 Thinking. Това е MoE модел с ~1T общи параметри, роден 256K контекст и стабилно мащабируемо извикване на инструменти за производствени сценарии с по-строги изисквания за латентност и едновременност.",
106
- "Pro/zai-org/glm-4.7.description": "GLM-4.7 е новото флагманско поколение модел на Zhipu с общ брой параметри 355 милиарда и 32 милиарда активни параметри. Той предлага цялостен ъпгрейд в области като обща диалогова комуникация, логическо разсъждение и способности на интелигентни агенти. GLM-4.7 подобрява Interleaved Thinking (преплетено мислене) и въвежда Preserved Thinking (запазено мислене) и Turn-level Thinking (мислене на ниво ход), осигурявайки по-дълбоко и последователно разсъждение.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu с общо 355 милиарда параметъра и 32 милиарда активни параметъра. Той е напълно обновен в областите на общ диалог, логическо мислене и агентни способности. GLM-4.7 подобрява Междинното мислене и въвежда Запазено мислене и Мислене на ниво обръщение.",
107
107
  "QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобряване на разсъждението.",
108
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview е изследователски модел от Qwen, насочен към визуално разсъждение, със силни страни в разбирането на сложни сцени и визуални математически задачи.",
109
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобрено AI разсъждение.",
@@ -388,7 +388,7 @@
388
388
  "deepseek-v3.1:671b.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с подобрени способности за сложни разсъждения и верига от мисли, подходящ за задачи, изискващи задълбочен анализ.",
389
389
  "deepseek-v3.2-exp.description": "deepseek-v3.2-exp въвежда разредено внимание за подобряване на ефективността при обучение и извеждане върху дълги текстове, на по-ниска цена от deepseek-v3.1.",
390
390
  "deepseek-v3.2-think.description": "DeepSeek V3.2 Think е пълен модел за дълбоко мислене с по-силно дълговерижно разсъждение.",
391
- "deepseek-v3.2.description": "DeepSeek-V3.2 е първият хибриден модел за разсъждение от DeepSeek, който интегрира мислене в използването на инструменти. С ефективна архитектура за пестене на изчислителни ресурси, мащабно подсилено обучение за повишаване на способностите и мащабни синтетични задачи за силна обобщаемост, той постига производителност, сравнима с GPT-5-High. Дължината на изхода е значително намалена, което води до по-ниски изчислителни разходи и по-кратко време за изчакване от страна на потребителя.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 е първият хибриден модел за логическо мислене от DeepSeek, който интегрира мисленето в използването на инструменти. Използва ефективна архитектура за намаляване на изчислителните ресурси, мащабно обучение с подсилване за повишаване на способностите и синтетични задачи в голям мащаб за по-добра обобщаемост. Комбинацията от тези три елемента постига производителност, сравнима с GPT-5-High, със значително по-кратки изходни текстове, което намалява изчислителното натоварване и времето за изчакване на потребителя.",
392
392
  "deepseek-v3.description": "DeepSeek-V3 е мощен MoE модел с общо 671 милиарда параметъра и 37 милиарда активни на токен.",
393
393
  "deepseek-vl2-small.description": "DeepSeek VL2 Small е лек мултимодален вариант за среди с ограничени ресурси и висока едновременност.",
394
394
  "deepseek-vl2.description": "DeepSeek VL2 е мултимодален модел за разбиране на изображения и текст и прецизни визуални въпроси и отговори.",
@@ -434,7 +434,7 @@
434
434
  "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 значително засилва разсъждението, допълнително подобрявайки основните способности в програмиране, математика и логическо мислене спрямо Doubao-1.5-thinking-pro, като добавя и разбиране на визия. Поддържа контекстен прозорец от 256k и до 16k изходни токена.",
435
435
  "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision е визуален дълбок разсъждаващ модел, който осигурява по-силно мултимодално разбиране и разсъждение за образование, преглед на изображения, инспекция/сигурност и AI търсене с въпроси и отговори. Поддържа контекстен прозорец от 256k и до 64k изходни токена.",
436
436
  "doubao-seed-1.6.description": "Doubao-Seed-1.6 е нов мултимодален дълбок разсъждаващ модел с режими auto, thinking и non-thinking. В non-thinking режим значително превъзхожда Doubao-1.5-pro/250115. Поддържа контекстен прозорец от 256k и до 16k изходни токена.",
437
- "doubao-seed-1.8.description": "Doubao-Seed-1.8 притежава по-силни мултимодални способности и способности на агент, поддържа вход от текст/изображения/видео и контекстно кеширане, осигурявайки по-добра производителност при сложни задачи.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 притежава по-силно мултимодално разбиране и агентни способности, поддържа вход от текст/изображение/видео и кеширане на контекст, като осигурява отлична производителност при сложни задачи.",
438
438
  "doubao-seed-code.description": "Doubao-Seed-Code е дълбоко оптимизиран за агентно програмиране, поддържа мултимодални входове (текст/изображение/видео) и контекстен прозорец от 256k, съвместим е с Anthropic API и е подходящ за програмиране, разбиране на визия и работни потоци с агенти.",
439
439
  "doubao-seededit-3-0-i2i-250628.description": "Моделът за изображения на Doubao от ByteDance Seed поддържа вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Поддържа редактиране на изображения, водено от текст, с размери на изхода между 512 и 1536 по дългата страна.",
440
440
  "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Генерира изображения от текстови подсказки.",
@@ -526,6 +526,52 @@
526
526
  "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
527
527
  "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
528
528
  "gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)е модел на Google за генериране на изображения, който също така поддържа мултимодален диалог.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения, който също така поддържа мултимодален чат.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
533
+ "gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "Най-новата версия на Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B е икономически ефективен за малки до средни задачи.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B е оптимизиран за специфични задачи и интеграция с инструменти.",
538
+ "gemma2.description": "Gemma 2 е ефективният модел на Google, обхващащ приложения от малки приложения до сложна обработка на данни.",
539
+ "gemma2:27b.description": "Gemma 2 е ефективният модел на Google, обхващащ приложения от малки приложения до сложна обработка на данни.",
540
+ "gemma2:2b.description": "Gemma 2 е ефективният модел на Google, обхващащ приложения от малки приложения до сложна обработка на данни.",
541
+ "generalv3.5.description": "Spark Max е най-пълнофункционалната версия, поддържаща уеб търсене и множество вградени плъгини. Напълно оптимизираните основни възможности, системни роли и извикване на функции осигуряват отлична производителност в сложни приложения.",
542
+ "generalv3.description": "Spark Pro е високопроизводителен LLM, оптимизиран за професионални области като математика, програмиране, здравеопазване и образование. Поддържа уеб търсене и вградени плъгини като прогноза за времето и дата. Осигурява силна производителност и ефективност при сложни въпроси, езиково разбиране и напреднало текстово създаване, което го прави идеален за професионални приложения.",
543
+ "glm-4-0520.description": "GLM-4-0520 е най-новата версия на модела, проектирана за изключително сложни и разнообразни задачи с отлична производителност.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 е универсален GLM модел, поддържащ многозадачно генериране и разбиране на текст.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat се представя силно в семантика, математика, логика, програмиране и знания. Поддържа също така уеб браузване, изпълнение на код, извикване на персонализирани инструменти и логическо мислене върху дълги текстове, с поддръжка на 26 езика, включително японски, корейски и немски.",
546
+ "glm-4-air-250414.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
547
+ "glm-4-air.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
548
+ "glm-4-airx.description": "GLM-4-AirX е по-ефективен вариант на GLM-4-Air с до 2.6 пъти по-бързо логическо мислене.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools е универсален агентен модел, оптимизиран за сложно планиране на инструкции и използване на инструменти като уеб браузване, обяснение на код и генериране на текст, подходящ за многозадачно изпълнение.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash е идеален за прости задачи: най-бърз и безплатен.",
551
+ "glm-4-flash.description": "GLM-4-Flash е идеален за прости задачи: най-бърз и безплатен.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX е подобрена версия на Flash с ултра-бързо логическо мислене.",
553
+ "glm-4-long.description": "GLM-4-Long поддържа ултра-дълги входове за задачи, изискващи памет и обработка на мащабни документи.",
554
+ "glm-4-plus.description": "GLM-4-Plus е флагман с висока интелигентност, силен при работа с дълги текстове и сложни задачи, с подобрена цялостна производителност.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking е най-силният известен ~10B VLM, покриващ SOTA задачи като разбиране на видео, QA по изображения, решаване на задачи, OCR, четене на документи и графики, GUI агенти, фронтенд програмиране и обоснованост. Надминава дори 8 пъти по-големия Qwen2.5-VL-72B в много задачи. С усъвършенствано RL, използва верижно мислене за подобрена точност и богатство, превъзхождайки традиционните модели без мислене както по резултати, така и по обяснимост.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking е най-силният известен ~10B VLM, покриващ SOTA задачи като разбиране на видео, QA по изображения, решаване на задачи, OCR, четене на документи и графики, GUI агенти, фронтенд програмиране и обоснованост. Надминава дори 8 пъти по-големия Qwen2.5-VL-72B в много задачи. С усъвършенствано RL, използва верижно мислене за подобрена точност и богатство, превъзхождайки традиционните модели без мислене както по резултати, така и по обяснимост.",
557
+ "glm-4.5-air.description": "GLM-4.5 лек вариант, който балансира производителност и цена, с гъвкави хибридни режими на мислене.",
558
+ "glm-4.5-airx.description": "GLM-4.5-Air бърз вариант с по-бързи отговори за мащабни и високоскоростни приложения.",
559
+ "glm-4.5-flash.description": "Безплатен GLM-4.5 слой с висока производителност при логическо мислене, програмиране и агентни задачи.",
560
+ "glm-4.5-x.description": "GLM-4.5 бърз вариант, осигуряващ силна производителност със скорост на генериране до 100 токена/секунда.",
561
+ "glm-4.5.description": "Флагманският модел на Zhipu с превключваем режим на мислене, осигуряващ SOTA производителност с отворен код и до 128K контекст.",
562
+ "glm-4.5v.description": "Следващото поколение MoE визуален логически модел на Zhipu с 106 милиарда общи параметъра и 12 милиарда активни, постигащ SOTA сред отворените мултимодални модели със сходен размер в задачи с изображения, видео, документи и GUI.",
563
+ "glm-4.6.description": "Най-новият флагмански модел на Zhipu GLM-4.6 (355B) напълно надминава предшествениците си в напреднало програмиране, обработка на дълги текстове, логическо мислене и агентни способности. Особено се доближава до Claude Sonnet 4 по програмиране, превръщайки се в най-добрия кодиращ модел в Китай.",
564
+ "glm-4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu, подобрен за сценарии с агентно програмиране с по-добри способности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти. Постига водеща производителност сред отворените модели в множество публични бенчмаркове. Общите способности са подобрени с по-кратки и естествени отговори и по-завладяващо писане. При сложни агентни задачи следването на инструкции при извикване на инструменти е по-силно, а естетиката на интерфейса и ефективността при изпълнение на дългосрочни задачи в Artifacts и Agentic Coding са допълнително подобрени.",
565
+ "glm-4.description": "GLM-4 е по-старият флагман, пуснат през януари 2024 г., сега заменен от по-силния GLM-4-0520.",
566
+ "glm-4v-flash.description": "GLM-4V-Flash се фокусира върху ефективно разбиране на единични изображения за бързи анализи като обработка в реално време или на партиди.",
567
+ "glm-4v-plus-0111.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.",
568
+ "glm-4v-plus.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.",
569
+ "glm-4v.description": "GLM-4V осигурява силно разбиране на изображения и логическо мислене в различни визуални задачи.",
570
+ "glm-z1-air.description": "Модел за логическо мислене със силни способности за дълбоко разсъждение при сложни задачи.",
571
+ "glm-z1-airx.description": "Ултра-бързо логическо мислене с високо качество на разсъжденията.",
572
+ "glm-z1-flash.description": "Серията GLM-Z1 осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
573
+ "glm-z1-flashx.description": "Бърз и икономичен: Flash-усилен с ултра-бързо логическо мислене и по-висока едновременност.",
574
+ "glm-zero-preview.description": "GLM-Zero-Preview осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
529
575
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
530
576
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
531
577
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -61,18 +61,16 @@
61
61
  "builtins.lobe-group-agent-builder.inspector.title": "Заглавие",
62
62
  "builtins.lobe-group-agent-builder.title": "Експерт по изграждане на групи",
63
63
  "builtins.lobe-group-management.apiName.broadcast": "Всички говорят",
64
- "builtins.lobe-group-management.apiName.createAgent": "Добавяне на член в групата",
65
64
  "builtins.lobe-group-management.apiName.createWorkflow": "Планиране на работен процес",
66
- "builtins.lobe-group-management.apiName.executeTask": "Изпълнение на задача",
65
+ "builtins.lobe-group-management.apiName.executeAgentTask": "Изпълни задача на агент",
66
+ "builtins.lobe-group-management.apiName.executeAgentTasks": "Изпълни паралелни задачи на агенти",
67
67
  "builtins.lobe-group-management.apiName.getAgentInfo": "Извличане на информация за член",
68
68
  "builtins.lobe-group-management.apiName.interrupt": "Прекъсване на задача",
69
- "builtins.lobe-group-management.apiName.inviteAgent": "Покана на член",
70
- "builtins.lobe-group-management.apiName.removeAgent": "Премахване на член",
71
- "builtins.lobe-group-management.apiName.searchAgent": "Намиране на подходящи експерти",
72
69
  "builtins.lobe-group-management.apiName.speak": "Назначен член говори",
73
70
  "builtins.lobe-group-management.apiName.summarize": "Обобщаване на разговора",
74
71
  "builtins.lobe-group-management.apiName.vote": "Започване на гласуване",
75
72
  "builtins.lobe-group-management.inspector.broadcast.title": "Следните агенти говорят:",
73
+ "builtins.lobe-group-management.inspector.executeAgentTasks.title": "Възлагане на задачи на:",
76
74
  "builtins.lobe-group-management.inspector.speak.title": "Назначен агент говори:",
77
75
  "builtins.lobe-group-management.title": "Координатор на група",
78
76
  "builtins.lobe-gtd.apiName.clearTodos": "Изчистване на задачи",
@@ -175,6 +173,7 @@
175
173
  "builtins.lobe-user-memory.apiName.removeIdentityMemory": "Изтриване на памет за идентичност",
176
174
  "builtins.lobe-user-memory.apiName.searchUserMemory": "Търсене в паметта",
177
175
  "builtins.lobe-user-memory.apiName.updateIdentityMemory": "Актуализиране на памет за идентичност",
176
+ "builtins.lobe-user-memory.inspector.noResults": "Няма резултати",
178
177
  "builtins.lobe-user-memory.title": "Памет",
179
178
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Прочитане на множество страници",
180
179
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Прочитане на съдържание на страница",
@@ -173,8 +173,11 @@
173
173
  "llm.waitingForMoreLinkAriaLabel": "Отвори формуляр за заявка към доставчик",
174
174
  "marketPublish.forkConfirm.by": "от {{author}}",
175
175
  "marketPublish.forkConfirm.confirm": "Потвърди публикуване",
176
+ "marketPublish.forkConfirm.confirmGroup": "Потвърди публикуване",
176
177
  "marketPublish.forkConfirm.description": "Вие сте на път да публикувате производна версия, базирана на съществуващ агент от общността. Вашият нов агент ще бъде създаден като отделен запис в пазара.",
178
+ "marketPublish.forkConfirm.descriptionGroup": "Вие сте на път да публикувате производна версия, базирана на съществуваща група от общността. Вашата нова група ще бъде създадена като отделен запис в пазара.",
177
179
  "marketPublish.forkConfirm.title": "Публикуване на производен агент",
180
+ "marketPublish.forkConfirm.titleGroup": "Публикуване на производна група",
178
181
  "marketPublish.modal.changelog.extra": "Опишете основните промени и подобрения в тази версия",
179
182
  "marketPublish.modal.changelog.label": "Дневник на промените",
180
183
  "marketPublish.modal.changelog.maxLengthError": "Дневникът на промените не трябва да надвишава 500 знака",
@@ -190,22 +193,28 @@
190
193
  "marketPublish.modal.identifier.required": "Моля, въведете идентификатор на агента",
191
194
  "marketPublish.modal.loading.fetchingRemote": "Зареждане на отдалечени данни...",
192
195
  "marketPublish.modal.loading.submit": "Изпращане на агента...",
196
+ "marketPublish.modal.loading.submitGroup": "Изпращане на групата...",
193
197
  "marketPublish.modal.loading.upload": "Публикуване на нова версия...",
198
+ "marketPublish.modal.loading.uploadGroup": "Публикуване на нова версия на групата...",
194
199
  "marketPublish.modal.messages.createVersionFailed": "Неуспешно създаване на версия: {{message}}",
195
200
  "marketPublish.modal.messages.fetchRemoteFailed": "Неуспешно извличане на данни за отдалечения агент",
196
201
  "marketPublish.modal.messages.missingIdentifier": "Този агент все още няма идентификатор в Общността.",
202
+ "marketPublish.modal.messages.noGroup": "Няма избрана група",
197
203
  "marketPublish.modal.messages.notAuthenticated": "Първо влезте в профила си в Общността.",
198
204
  "marketPublish.modal.messages.publishFailed": "Публикуването не бе успешно: {{message}}",
199
205
  "marketPublish.modal.submitButton": "Публикувай",
200
206
  "marketPublish.modal.title.submit": "Сподели в Общността на агентите",
201
207
  "marketPublish.modal.title.upload": "Публикувай нова версия",
202
208
  "marketPublish.resultModal.message": "Вашият агент е изпратен за преглед. След одобрение ще бъде автоматично публикуван.",
209
+ "marketPublish.resultModal.messageGroup": "Вашата група е изпратена за преглед. След одобрение ще бъде автоматично публикувана.",
203
210
  "marketPublish.resultModal.title": "Успешно изпращане",
204
211
  "marketPublish.resultModal.view": "Виж в Общността",
205
212
  "marketPublish.submit.button": "Сподели в Общността",
206
213
  "marketPublish.submit.tooltip": "Споделете този агент в Общността",
214
+ "marketPublish.submitGroup.tooltip": "Споделете тази група с общността",
207
215
  "marketPublish.upload.button": "Публикувай нова версия",
208
216
  "marketPublish.upload.tooltip": "Публикувайте нова версия в Общността на агентите",
217
+ "marketPublish.uploadGroup.tooltip": "Публикувайте нова версия в общността на групите",
209
218
  "memory.enabled.desc": "Позволете на LobeHub да извлича предпочитания и информация от разговорите и да ги използва по-късно. Можете да преглеждате, редактирате или изчиствате паметта по всяко време.",
210
219
  "memory.enabled.title": "Разреши памет",
211
220
  "memory.title": "Настройки на паметта",
@@ -254,6 +263,7 @@
254
263
  "plugin.settings.title": "Конфигурация на умение {{id}}",
255
264
  "plugin.settings.tooltip": "Конфигурация на умение",
256
265
  "plugin.store": "Магазин за умения",
266
+ "publishToCommunity": "Публикувай в общността",
257
267
  "settingAgent.avatar.sizeExceeded": "Размерът на изображението надвишава лимита от 1MB, моля изберете по-малко изображение",
258
268
  "settingAgent.avatar.title": "Аватар",
259
269
  "settingAgent.backgroundColor.title": "Цвят на фона",
@@ -483,6 +493,7 @@
483
493
  "submitAgentModal.placeholder": "Въведете уникален идентификатор за агента, напр. web-development",
484
494
  "submitAgentModal.success": "Агентът е изпратен успешно",
485
495
  "submitAgentModal.tooltips": "Сподели в общността на агентите",
496
+ "submitGroupModal.tooltips": "Сподели в общността на групите",
486
497
  "sync.device.deviceName.hint": "Добавете име за по-лесно разпознаване",
487
498
  "sync.device.deviceName.placeholder": "Въведете име на устройство",
488
499
  "sync.device.deviceName.title": "Име на устройство",
@@ -54,6 +54,8 @@
54
54
  "funds.packages.expiresIn": "Изтича след {{days}} дни",
55
55
  "funds.packages.expiresToday": "Изтича днес",
56
56
  "funds.packages.expiringSoon": "Скоро изтича",
57
+ "funds.packages.gift": "Подарък",
58
+ "funds.packages.giftedOn": "Подарен на {{date}}",
57
59
  "funds.packages.noPackages": "Няма налични пакети с кредити",
58
60
  "funds.packages.purchaseFirst": "Закупете първия си пакет с кредити",
59
61
  "funds.packages.purchasedOn": "Закупен на {{date}}",
@@ -15,6 +15,8 @@
15
15
  "agentGroupManagement.executeTask.thread": "Идентификатор на нишка",
16
16
  "agentGroupManagement.executeTask.timeout": "Времето за изпълнение изтече",
17
17
  "agentGroupManagement.executeTask.tokens": "Използвани токени",
18
+ "agentGroupManagement.executeTasks.intervention.instructionPlaceholder": "Подробни инструкции за агента за изпълнение на задачата...",
19
+ "agentGroupManagement.executeTasks.intervention.titlePlaceholder": "Заглавие на задачата...",
18
20
  "codeInterpreter-legacy.error": "Грешка при изпълнение",
19
21
  "codeInterpreter-legacy.executing": "Изпълнение...",
20
22
  "codeInterpreter-legacy.files": "Файлове:",
@@ -0,0 +1,5 @@
1
+ {
2
+ "avatar.sizeExceeded": "Die Avatargröße überschreitet das Limit",
3
+ "backgroundColor.title": "Hintergrundfarbe",
4
+ "name.placeholder": "Gruppennamen eingeben"
5
+ }
@@ -203,6 +203,8 @@
203
203
  "noMembersYet": "Diese Gruppe hat noch keine Mitglieder. Klicke auf +, um Agenten einzuladen.",
204
204
  "noSelectedAgents": "Noch keine Mitglieder ausgewählt",
205
205
  "openInNewWindow": "In neuem Fenster öffnen",
206
+ "operation.execAgentRuntime": "Antwort wird vorbereitet",
207
+ "operation.sendMessage": "Nachricht wird gesendet",
206
208
  "owner": "Gruppeninhaber",
207
209
  "pageCopilot.title": "Seitenagent",
208
210
  "pageCopilot.welcome": "**Klarer, präziser schreiben**\n\nEntwerfen, umschreiben oder verfeinern – sag mir, was du willst, und ich erledige den Rest.",
@@ -253,6 +255,8 @@
253
255
  "sessionGroup.sorting": "Gruppensortierung wird aktualisiert...",
254
256
  "sessionGroup.tooLong": "Gruppenname muss zwischen 1 und 20 Zeichen lang sein",
255
257
  "shareModal.copy": "Kopieren",
258
+ "shareModal.copyLink": "Link kopieren",
259
+ "shareModal.copyLinkSuccess": "Link kopiert",
256
260
  "shareModal.download": "Screenshot herunterladen",
257
261
  "shareModal.downloadError": "Download fehlgeschlagen",
258
262
  "shareModal.downloadFile": "Datei herunterladen",
@@ -268,12 +272,26 @@
268
272
  "shareModal.imageType": "Bildformat",
269
273
  "shareModal.includeTool": "Skill-Nachrichten einbeziehen",
270
274
  "shareModal.includeUser": "Benutzernachrichten einbeziehen",
275
+ "shareModal.link": "Link",
276
+ "shareModal.link.linkHint": "Jede Person mit dem Link kann dieses Thema ansehen",
277
+ "shareModal.link.noTopic": "Beginne zuerst ein Gespräch, um es zu teilen",
278
+ "shareModal.link.permissionLink": "Jede Person mit dem Link",
279
+ "shareModal.link.permissionPrivate": "Privat",
280
+ "shareModal.link.privateHint": "Nur du hast Zugriff auf diesen Link",
281
+ "shareModal.link.updateError": "Freigabeeinstellungen konnten nicht aktualisiert werden",
282
+ "shareModal.link.visibilityUpdated": "Sichtbarkeit aktualisiert",
271
283
  "shareModal.loadingPdf": "PDF wird geladen...",
272
284
  "shareModal.noPdfData": "Keine PDF-Daten verfügbar",
273
285
  "shareModal.pdf": "PDF",
274
286
  "shareModal.pdfErrorDescription": "Beim Generieren des PDFs ist ein Fehler aufgetreten. Bitte versuche es erneut.",
275
287
  "shareModal.pdfGenerationError": "PDF-Generierung fehlgeschlagen",
276
288
  "shareModal.pdfReady": "PDF ist bereit",
289
+ "shareModal.popover.moreOptions": "Weitere Freigabeoptionen",
290
+ "shareModal.popover.privacyWarning.confirm": "Ich verstehe, weiter",
291
+ "shareModal.popover.privacyWarning.content": "Bitte stelle sicher, dass dein Gespräch keine persönlichen oder sensiblen Informationen enthält. Du bist für alle Inhalte, die du teilst, und deren Folgen verantwortlich.",
292
+ "shareModal.popover.privacyWarning.title": "Datenschutzhinweis",
293
+ "shareModal.popover.title": "Thema teilen",
294
+ "shareModal.popover.visibility": "Sichtbarkeit",
277
295
  "shareModal.regeneratePdf": "PDF neu generieren",
278
296
  "shareModal.screenshot": "Screenshot",
279
297
  "shareModal.settings": "Exporteinstellungen",
@@ -286,6 +304,14 @@
286
304
  "shareModal.withPluginInfo": "Skill-Informationen einbeziehen",
287
305
  "shareModal.withRole": "Rolleninformationen einbeziehen",
288
306
  "shareModal.withSystemRole": "Agentenprofil einbeziehen",
307
+ "sharePage.error.forbidden.subtitle": "Diese Freigabe ist privat und nicht zugänglich.",
308
+ "sharePage.error.forbidden.title": "Zugriff verweigert",
309
+ "sharePage.error.notFound.subtitle": "Dieses Thema existiert nicht oder wurde entfernt.",
310
+ "sharePage.error.notFound.title": "Thema nicht gefunden",
311
+ "sharePage.error.unauthorized.action": "Anmelden",
312
+ "sharePage.error.unauthorized.subtitle": "Bitte melde dich an, um dieses geteilte Thema anzusehen.",
313
+ "sharePage.error.unauthorized.title": "Anmeldung erforderlich",
314
+ "sharePageDisclaimer": "Dieser Inhalt wurde von einem Nutzer geteilt und spiegelt nicht die Ansichten von LobeHub wider. LobeHub übernimmt keine Verantwortung für etwaige Folgen, die sich aus diesem geteilten Inhalt ergeben.",
289
315
  "stt.action": "Spracheingabe",
290
316
  "stt.loading": "Erkennung läuft...",
291
317
  "stt.prettifying": "Wird überarbeitet...",
@@ -103,7 +103,7 @@
103
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Es wurde mit 14,8 Billionen hochwertigen Tokens vortrainiert und mit SFT und RL weiter abgestimmt. Es übertrifft andere Open-Source-Modelle und nähert sich führenden Closed-Source-Modellen an.",
104
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
105
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
106
- "Pro/zai-org/glm-4.7.description": "GLM-4.7 ist das neue Flaggschiffmodell von Zhipu mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktiven Parametern. Es bietet umfassende Verbesserungen in allgemeiner Konversation, logischem Denken und Agentenfähigkeiten. GLM-4.7 stärkt das Interleaved Thinking (verzahntes Denken) und führt Preserved Thinking (bewahrtes Denken) sowie Turn-level Thinking (Denken auf Gesprächsebene) ein.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 ist Zhipus neue Flaggschiff-Generation mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktiven Parametern. Das Modell wurde umfassend in den Bereichen allgemeiner Dialog, logisches Denken und Agentenfähigkeiten verbessert. GLM-4.7 stärkt das Interleaved Thinking und führt Preserved Thinking sowie Turn-level Thinking ein.",
107
107
  "QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
108
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview ist ein Forschungsmodell von Qwen mit Schwerpunkt auf visuellem Denken. Es überzeugt durch seine Fähigkeit zur Analyse komplexer Szenen und zur Lösung visueller Mathematikaufgaben.",
109
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell zur Verbesserung der KI-Logik und des Denkvermögens.",
@@ -388,7 +388,7 @@
388
388
  "deepseek-v3.1:671b.description": "DeepSeek V3.1 ist ein Modell der nächsten Generation für komplexe Schlussfolgerungen und Gedankengänge, ideal für Aufgaben mit tiefgehender Analyse.",
389
389
  "deepseek-v3.2-exp.description": "deepseek-v3.2-exp führt Sparse Attention ein, um die Effizienz beim Training und bei der Inferenz bei langen Texten zu verbessern – zu einem günstigeren Preis als deepseek-v3.1.",
390
390
  "deepseek-v3.2-think.description": "DeepSeek V3.2 Think ist ein vollwertiges Denkmodell mit stärkerer langkettiger Argumentation.",
391
- "deepseek-v3.2.description": "DeepSeek-V3.2 ist das erste hybride Schlussfolgerungsmodell von DeepSeek, das Denken in die Werkzeugnutzung integriert. Es kombiniert eine effiziente Architektur zur Rechenersparnis, großskaliges Reinforcement Learning zur Leistungssteigerung und synthetische Aufgabendaten zur besseren Generalisierung. Die Leistung ist vergleichbar mit GPT-5-High, die Ausgabelänge wurde deutlich reduziert, was Rechenaufwand und Wartezeit für Nutzer erheblich senkt.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 ist das erste hybride Reasoning-Modell von DeepSeek, das Denkprozesse in die Werkzeugnutzung integriert. Es verwendet eine effiziente Architektur zur Reduzierung des Rechenaufwands, groß angelegte Verstärkungslernen zur Leistungssteigerung und synthetische Aufgabendaten zur besseren Generalisierung. Diese Kombination ermöglicht eine Leistung vergleichbar mit GPT-5-High bei deutlich kürzeren Ausgaben, was Rechenkosten und Wartezeiten für Nutzer erheblich reduziert.",
392
392
  "deepseek-v3.description": "DeepSeek-V3 ist ein leistungsstarkes MoE-Modell mit insgesamt 671 Milliarden Parametern und 37 Milliarden aktiven Parametern pro Token.",
393
393
  "deepseek-vl2-small.description": "DeepSeek VL2 Small ist eine leichtgewichtige multimodale Version für ressourcenbeschränkte und hochparallele Anwendungen.",
394
394
  "deepseek-vl2.description": "DeepSeek VL2 ist ein multimodales Modell für Bild-Text-Verständnis und fein abgestimmte visuelle Fragebeantwortung.",
@@ -434,7 +434,7 @@
434
434
  "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 verstärkt das logische Denken erheblich und verbessert die Kernfähigkeiten in Programmierung, Mathematik und logischem Denken im Vergleich zu Doubao-1.5-thinking-pro. Zusätzlich wird das visuelle Verständnis erweitert. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.",
435
435
  "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision ist ein visuelles Modell für tiefes logisches Denken mit verbesserter multimodaler Analyse für Bildung, Bildprüfung, Inspektion/Sicherheit und KI-gestützte Fragenbeantwortung. Unterstützt ein Kontextfenster von 256k und bis zu 64k Ausgabetokens.",
436
436
  "doubao-seed-1.6.description": "Doubao-Seed-1.6 ist ein neues multimodales Modell für tiefes logisches Denken mit Auto-, Denk- und Nicht-Denk-Modi. Im Nicht-Denk-Modus übertrifft es Doubao-1.5-pro/250115 deutlich. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.",
437
- "doubao-seed-1.8.description": "Doubao-Seed-1.8 verfügt über eine verbesserte multimodale Verständnisfähigkeit und Agentenfähigkeiten. Es unterstützt Text-, Bild- und Videoeingaben sowie Kontext-Caching und bietet herausragende Leistung bei komplexen Aufgaben.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 bietet verbesserte multimodale Verständnis- und Agentenfähigkeiten, unterstützt Text-, Bild- und Videoeingaben sowie Kontext-Caching und liefert herausragende Ergebnisse bei komplexen Aufgaben.",
438
438
  "doubao-seed-code.description": "Doubao-Seed-Code ist speziell für agentenbasiertes Programmieren optimiert, unterstützt multimodale Eingaben (Text/Bild/Video) und ein Kontextfenster von 256k. Es ist kompatibel mit der Anthropic API und eignet sich für Programmierung, visuelles Verständnis und Agenten-Workflows.",
439
439
  "doubao-seededit-3-0-i2i-250628.description": "Das Doubao-Bildmodell von ByteDance Seed unterstützt Text- und Bildeingaben mit hochgradig kontrollierbarer, hochwertiger Bildgenerierung. Es unterstützt textgesteuerte Bildbearbeitung mit Ausgabengrößen zwischen 512 und 1536 auf der langen Seite.",
440
440
  "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.",
@@ -526,6 +526,7 @@
526
526
  "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
527
527
  "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
528
528
  "gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist – es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
529
530
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
530
531
  "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
531
532
  "gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
@@ -559,8 +560,8 @@
559
560
  "glm-4.5-x.description": "GLM-4.5 Schnellversion mit starker Leistung und Generierungsgeschwindigkeiten von bis zu 100 Token/Sekunde.",
560
561
  "glm-4.5.description": "Zhipus Flaggschiffmodell mit umschaltbarem Denkmodus, bietet Open-Source-SOTA-Leistung und bis zu 128K Kontext.",
561
562
  "glm-4.5v.description": "Zhipus nächste Generation eines MoE-Vision-Reasoning-Modells mit 106B Gesamtparametern und 12B aktiven. Es erreicht SOTA unter ähnlich großen Open-Source-Multimodalmodellen in Bild-, Video-, Dokumentenverständnis- und GUI-Aufgaben.",
562
- "glm-4.6.description": "GLM-4.6 (355B), das neueste Flaggschiffmodell von Zhipu, übertrifft seine Vorgänger in fortgeschrittener Codierung, Langtextverarbeitung, logischem Denken und Agentenfähigkeiten. Besonders in der Programmierung ist es auf dem Niveau von Claude Sonnet 4 und zählt zu den besten Coding-Modellen Chinas.",
563
- "glm-4.7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu, das für Agentic-Coding-Szenarien optimiert wurde. Es bietet verbesserte Codierungsfähigkeiten, langfristige Aufgabenplanung und Werkzeugintegration. Es erzielt Spitzenleistungen unter Open-Source-Modellen in aktuellen Benchmarks. Die allgemeine Leistungsfähigkeit wurde gesteigert Antworten sind natürlicher, das Schreiben immersiver. Bei komplexen Agentenaufgaben folgt es Anweisungen besser, und die visuelle Qualität sowie Effizienz bei Langzeitaufgaben wurden weiter verbessert.",
563
+ "glm-4.6.description": "Zhipus neuestes Flaggschiffmodell GLM-4.6 (355B) übertrifft seine Vorgänger vollständig in den Bereichen fortgeschrittenes Programmieren, Verarbeitung langer Texte, logisches Denken und Agentenfähigkeiten. Besonders im Bereich Programmierung steht es auf Augenhöhe mit Claude Sonnet 4 und gilt als Chinas führendes Coding-Modell.",
564
+ "glm-4.7.description": "GLM-4.7 ist Zhipus neuestes Flaggschiffmodell, optimiert für agentenbasiertes Programmieren mit verbesserten Codierungsfähigkeiten, langfristiger Aufgabenplanung und Werkzeugintegration. Es erzielt Spitzenleistungen unter Open-Source-Modellen in zahlreichen öffentlichen Benchmarks. Die allgemeinen Fähigkeiten wurden durch präzisere, natürlichere Antworten und ein immersiveres Schreibverhalten verbessert. Bei komplexen Agentenaufgaben ist die Befolgung von Anweisungen bei Werkzeugaufrufen robuster, und die visuelle Gestaltung sowie die Effizienz bei der langfristigen Aufgabenbearbeitung in Artifacts und Agentic Coding wurden weiter optimiert.",
564
565
  "glm-4.description": "GLM-4 ist das ältere Flaggschiffmodell, das im Januar 2024 veröffentlicht wurde und nun durch das stärkere GLM-4-0520 ersetzt wurde.",
565
566
  "glm-4v-flash.description": "GLM-4V-Flash konzentriert sich auf effizientes Einzelbildverständnis für schnelle Analyseanwendungen wie Echtzeit- oder Batch-Bildverarbeitung.",
566
567
  "glm-4v-plus-0111.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.",
@@ -584,6 +585,48 @@
584
585
  "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Flaggschiffmodell für Reasoning, Programmierung, Mathematik und Wissenschaft. Es enthält einen integrierten Denkmodus für genauere Antworten und feinere Kontextverarbeitung.\n\nHinweis: Dieses Modell hat zwei Varianten – mit und ohne Denkmodus. Die Ausgabekosten unterscheiden sich je nach aktivierter Denkfunktion. Wenn Sie die Standardvariante (ohne „:thinking“-Suffix) wählen, vermeidet das Modell explizit die Generierung von Denk-Tokens.\n\nUm Denkprozesse zu nutzen und Denk-Tokens zu erhalten, müssen Sie die „:thinking“-Variante auswählen, die höhere Ausgabekosten verursacht.\n\nGemini 2.5 Flash kann auch über den Parameter „max reasoning tokens“ konfiguriert werden (siehe Dokumentation: https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
585
586
  "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Flaggschiffmodell für Reasoning, Programmierung, Mathematik und Wissenschaft. Es enthält einen integrierten Denkmodus für genauere Antworten und feinere Kontextverarbeitung.\n\nHinweis: Dieses Modell hat zwei Varianten – mit und ohne Denkmodus. Die Ausgabekosten unterscheiden sich je nach aktivierter Denkfunktion. Wenn Sie die Standardvariante (ohne „:thinking“-Suffix) wählen, vermeidet das Modell explizit die Generierung von Denk-Tokens.\n\nUm Denkprozesse zu nutzen und Denk-Tokens zu erhalten, müssen Sie die „:thinking“-Variante auswählen, die höhere Ausgabekosten verursacht.\n\nGemini 2.5 Flash kann auch über den Parameter „max reasoning tokens“ konfiguriert werden (siehe Dokumentation: https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
586
587
  "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) ist Googles Modellfamilie mit Bandbreite von niedriger Latenz bis hin zu leistungsstarkem Reasoning.",
588
+ "google/gemini-2.5-pro-free.description": "Die kostenlose Stufe von Gemini 2.5 Pro bietet multimodale Langkontextverarbeitung mit begrenztem Kontingent – ideal für Tests und leichte Arbeitsabläufe.",
589
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell für komplexe Aufgaben in Code, Mathematik und MINT-Fächern sowie zur Analyse großer Datensätze, Codebasen und Dokumente mit langem Kontext.",
590
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles Flaggschiffmodell für logisches Denken mit Langkontextunterstützung für komplexe Aufgaben.",
591
+ "google/gemini-3-pro-image-preview-free.description": "Kostenlose Stufe von Gemini 3 Pro Image mit begrenztem Kontingent für multimodale Generierung.",
592
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Konversation.",
593
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free bietet dieselben multimodalen Verständnis- und Denkfähigkeiten wie die Standardversion, jedoch mit Kontingent- und Ratenbeschränkungen – ideal für Tests und seltene Nutzung.",
594
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro ist das nächste Generationenmodell für multimodales Denken innerhalb der Gemini-Familie. Es versteht Text, Audio, Bilder und Videos und bewältigt komplexe Aufgaben sowie große Codebasen.",
595
+ "google/gemini-embedding-001.description": "Ein hochmodernes Embedding-Modell mit starker Leistung in Englisch, Mehrsprachigkeit und Code-Aufgaben.",
596
+ "google/gemini-flash-1.5.description": "Gemini 1.5 Flash bietet optimierte multimodale Verarbeitung für eine Vielzahl komplexer Aufgaben.",
597
+ "google/gemini-pro-1.5.description": "Gemini 1.5 Pro kombiniert die neuesten Optimierungen für eine effizientere Verarbeitung multimodaler Daten.",
598
+ "google/gemma-2-27b-it.description": "Gemma 2 27B ist ein vielseitiges Sprachmodell mit starker Leistung in vielen Anwendungsszenarien.",
599
+ "google/gemma-2-27b.description": "Gemma 2 ist Googles effiziente Modellfamilie für Anwendungen von kleinen Apps bis hin zu komplexer Datenverarbeitung.",
600
+ "google/gemma-2-2b-it.description": "Ein fortschrittliches kleines Sprachmodell für Edge-Anwendungen.",
601
+ "google/gemma-2-9b-it.description": "Gemma 2 9B, entwickelt von Google, bietet effiziente Befolgung von Anweisungen und solide Gesamtleistung.",
602
+ "google/gemma-2-9b-it:free.description": "Gemma 2 ist Googles leichtgewichtige Open-Source-Textmodellfamilie.",
603
+ "google/gemma-2-9b.description": "Gemma 2 ist Googles effiziente Modellfamilie für Anwendungen von kleinen Apps bis hin zu komplexer Datenverarbeitung.",
604
+ "google/gemma-2b-it.description": "Gemma Instruct (2B) bietet grundlegende Anweisungsverarbeitung für leichte Anwendungen.",
605
+ "google/gemma-3-12b-it.description": "Gemma 3 12B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt.",
606
+ "google/gemma-3-27b-it.description": "Gemma 3 27B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt.",
607
+ "google/text-embedding-005.description": "Ein auf Englisch fokussiertes Text-Embedding-Modell, optimiert für Code- und Sprachaufgaben.",
608
+ "google/text-multilingual-embedding-002.description": "Ein mehrsprachiges Text-Embedding-Modell, optimiert für sprachübergreifende Aufgaben in vielen Sprachen.",
609
+ "gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
610
+ "gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
611
+ "gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis, optimiert für die Befolgung von Anweisungen.",
612
+ "gpt-3.5-turbo.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
613
+ "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k ist ein leistungsstarkes Textgenerierungsmodell für komplexe Aufgaben.",
614
+ "gpt-35-turbo.description": "GPT-3.5 Turbo ist OpenAIs effizientes Modell für Chat und Textgenerierung mit Unterstützung für parallele Funktionsaufrufe.",
615
+ "gpt-4-0125-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
616
+ "gpt-4-0613.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
617
+ "gpt-4-1106-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
618
+ "gpt-4-32k-0613.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
619
+ "gpt-4-32k.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
620
+ "gpt-4-turbo-2024-04-09.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
621
+ "gpt-4-turbo-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
622
+ "gpt-4-turbo.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
623
+ "gpt-4-vision-preview.description": "Vorschau von GPT-4 Vision, entwickelt für Aufgaben der Bildanalyse und -verarbeitung.",
624
+ "gpt-4.1-mini.description": "GPT-4.1 mini vereint Intelligenz, Geschwindigkeit und Kostenersparnis – ideal für viele Anwendungsfälle.",
625
+ "gpt-4.1-nano.description": "GPT-4.1 nano ist das schnellste und kostengünstigste Modell der GPT-4.1-Reihe.",
626
+ "gpt-4.1.description": "GPT-4.1 ist unser Flaggschiffmodell für komplexe Aufgaben und domänenübergreifende Problemlösungen.",
627
+ "gpt-4.5-preview.description": "GPT-4.5-preview ist das neueste Allzweckmodell mit tiefem Weltwissen und besserem Verständnis von Absichten. Es ist stark in kreativen Aufgaben und Agentenplanung. Der Wissensstand ist Oktober 2023.",
628
+ "gpt-4.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
629
+ "gpt-4o-2024-05-13.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeitaktualisierung, das starkes Verständnis und Generierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
587
630
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
588
631
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
589
632
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
@@ -61,18 +61,16 @@
61
61
  "builtins.lobe-group-agent-builder.inspector.title": "Titel",
62
62
  "builtins.lobe-group-agent-builder.title": "Gruppenbau-Experte",
63
63
  "builtins.lobe-group-management.apiName.broadcast": "Alle sprechen",
64
- "builtins.lobe-group-management.apiName.createAgent": "Gruppenmitglied hinzufügen",
65
64
  "builtins.lobe-group-management.apiName.createWorkflow": "Workflow planen",
66
- "builtins.lobe-group-management.apiName.executeTask": "Aufgabe ausführen",
65
+ "builtins.lobe-group-management.apiName.executeAgentTask": "Agentenaufgabe ausführen",
66
+ "builtins.lobe-group-management.apiName.executeAgentTasks": "Parallele Agentenaufgaben ausführen",
67
67
  "builtins.lobe-group-management.apiName.getAgentInfo": "Mitgliedsinformationen abrufen",
68
68
  "builtins.lobe-group-management.apiName.interrupt": "Aufgabe unterbrechen",
69
- "builtins.lobe-group-management.apiName.inviteAgent": "Mitglied einladen",
70
- "builtins.lobe-group-management.apiName.removeAgent": "Mitglied entfernen",
71
- "builtins.lobe-group-management.apiName.searchAgent": "Relevante Experten finden",
72
69
  "builtins.lobe-group-management.apiName.speak": "Zugewiesenes Mitglied spricht",
73
70
  "builtins.lobe-group-management.apiName.summarize": "Gespräch zusammenfassen",
74
71
  "builtins.lobe-group-management.apiName.vote": "Abstimmung starten",
75
72
  "builtins.lobe-group-management.inspector.broadcast.title": "Folgende Agenten sprechen:",
73
+ "builtins.lobe-group-management.inspector.executeAgentTasks.title": "Aufgaben zuweisen an:",
76
74
  "builtins.lobe-group-management.inspector.speak.title": "Zugewiesener Agent spricht:",
77
75
  "builtins.lobe-group-management.title": "Gruppenkoordinator",
78
76
  "builtins.lobe-gtd.apiName.clearTodos": "To-dos löschen",
@@ -175,6 +173,7 @@
175
173
  "builtins.lobe-user-memory.apiName.removeIdentityMemory": "Identitätsgedächtnis löschen",
176
174
  "builtins.lobe-user-memory.apiName.searchUserMemory": "Gedächtnis durchsuchen",
177
175
  "builtins.lobe-user-memory.apiName.updateIdentityMemory": "Identitätsgedächtnis aktualisieren",
176
+ "builtins.lobe-user-memory.inspector.noResults": "Keine Ergebnisse",
178
177
  "builtins.lobe-user-memory.title": "Gedächtnis",
179
178
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Mehrere Seiten lesen",
180
179
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Seiteninhalt lesen",
@@ -173,8 +173,11 @@
173
173
  "llm.waitingForMoreLinkAriaLabel": "Anbieter-Anfrageformular öffnen",
174
174
  "marketPublish.forkConfirm.by": "von {{author}}",
175
175
  "marketPublish.forkConfirm.confirm": "Veröffentlichung bestätigen",
176
+ "marketPublish.forkConfirm.confirmGroup": "Veröffentlichung bestätigen",
176
177
  "marketPublish.forkConfirm.description": "Sie sind dabei, eine abgeleitete Version basierend auf einem bestehenden Agenten aus der Community zu veröffentlichen. Ihr neuer Agent wird als separater Eintrag im Marktplatz erstellt.",
178
+ "marketPublish.forkConfirm.descriptionGroup": "Sie sind dabei, eine abgeleitete Version basierend auf einer bestehenden Gruppe aus der Community zu veröffentlichen. Ihre neue Gruppe wird als separater Eintrag im Marktplatz erstellt.",
177
179
  "marketPublish.forkConfirm.title": "Abgeleiteten Agenten veröffentlichen",
180
+ "marketPublish.forkConfirm.titleGroup": "Abgeleitete Gruppe veröffentlichen",
178
181
  "marketPublish.modal.changelog.extra": "Beschreiben Sie die wichtigsten Änderungen und Verbesserungen in dieser Version",
179
182
  "marketPublish.modal.changelog.label": "Änderungsprotokoll",
180
183
  "marketPublish.modal.changelog.maxLengthError": "Das Änderungsprotokoll darf 500 Zeichen nicht überschreiten",
@@ -190,22 +193,28 @@
190
193
  "marketPublish.modal.identifier.required": "Bitte geben Sie die Agentenkennung ein",
191
194
  "marketPublish.modal.loading.fetchingRemote": "Remote-Daten werden geladen...",
192
195
  "marketPublish.modal.loading.submit": "Agent wird übermittelt...",
196
+ "marketPublish.modal.loading.submitGroup": "Gruppe wird übermittelt...",
193
197
  "marketPublish.modal.loading.upload": "Neue Version wird veröffentlicht...",
198
+ "marketPublish.modal.loading.uploadGroup": "Neue Gruppenversion wird veröffentlicht...",
194
199
  "marketPublish.modal.messages.createVersionFailed": "Version konnte nicht erstellt werden: {{message}}",
195
200
  "marketPublish.modal.messages.fetchRemoteFailed": "Remote-Agentendaten konnten nicht abgerufen werden",
196
201
  "marketPublish.modal.messages.missingIdentifier": "Dieser Agent hat noch keine Community-Kennung.",
202
+ "marketPublish.modal.messages.noGroup": "Keine Gruppe ausgewählt",
197
203
  "marketPublish.modal.messages.notAuthenticated": "Melden Sie sich zuerst bei Ihrem Community-Konto an.",
198
204
  "marketPublish.modal.messages.publishFailed": "Veröffentlichung fehlgeschlagen: {{message}}",
199
205
  "marketPublish.modal.submitButton": "Veröffentlichen",
200
206
  "marketPublish.modal.title.submit": "In der Agenten-Community teilen",
201
207
  "marketPublish.modal.title.upload": "Neue Version veröffentlichen",
202
208
  "marketPublish.resultModal.message": "Ihr Agent wurde zur Überprüfung eingereicht. Nach Freigabe wird er automatisch veröffentlicht.",
209
+ "marketPublish.resultModal.messageGroup": "Ihre Gruppe wurde zur Überprüfung eingereicht. Nach der Freigabe wird sie automatisch veröffentlicht.",
203
210
  "marketPublish.resultModal.title": "Erfolgreich eingereicht",
204
211
  "marketPublish.resultModal.view": "In der Community anzeigen",
205
212
  "marketPublish.submit.button": "In der Community teilen",
206
213
  "marketPublish.submit.tooltip": "Diesen Agenten in der Community teilen",
214
+ "marketPublish.submitGroup.tooltip": "Diese Gruppe mit der Community teilen",
207
215
  "marketPublish.upload.button": "Neue Version veröffentlichen",
208
216
  "marketPublish.upload.tooltip": "Eine neue Version in der Agenten-Community veröffentlichen",
217
+ "marketPublish.uploadGroup.tooltip": "Neue Version in der Gruppen-Community veröffentlichen",
209
218
  "memory.enabled.desc": "Erlauben Sie LobeHub, Vorlieben und Informationen aus Gesprächen zu extrahieren und später zu verwenden. Sie können den Speicher jederzeit einsehen, bearbeiten oder löschen.",
210
219
  "memory.enabled.title": "Speicher aktivieren",
211
220
  "memory.title": "Speichereinstellungen",
@@ -254,6 +263,7 @@
254
263
  "plugin.settings.title": "{{id}} Fähigkeitenkonfiguration",
255
264
  "plugin.settings.tooltip": "Fähigkeitenkonfiguration",
256
265
  "plugin.store": "Fähigkeiten-Store",
266
+ "publishToCommunity": "In der Community veröffentlichen",
257
267
  "settingAgent.avatar.sizeExceeded": "Bildgröße überschreitet das Limit von 1 MB, bitte wählen Sie ein kleineres Bild",
258
268
  "settingAgent.avatar.title": "Avatar",
259
269
  "settingAgent.backgroundColor.title": "Hintergrundfarbe",
@@ -483,6 +493,7 @@
483
493
  "submitAgentModal.placeholder": "Geben Sie eine eindeutige Kennung für den Agenten ein, z. B. web-entwicklung",
484
494
  "submitAgentModal.success": "Agent erfolgreich eingereicht",
485
495
  "submitAgentModal.tooltips": "In der Agenten-Community teilen",
496
+ "submitGroupModal.tooltips": "In der Gruppen-Community teilen",
486
497
  "sync.device.deviceName.hint": "Fügen Sie einen Namen zur leichteren Identifizierung hinzu",
487
498
  "sync.device.deviceName.placeholder": "Gerätenamen eingeben",
488
499
  "sync.device.deviceName.title": "Gerätename",
@@ -54,6 +54,8 @@
54
54
  "funds.packages.expiresIn": "Läuft in {{days}} Tagen ab",
55
55
  "funds.packages.expiresToday": "Läuft heute ab",
56
56
  "funds.packages.expiringSoon": "Läuft bald ab",
57
+ "funds.packages.gift": "Geschenk",
58
+ "funds.packages.giftedOn": "Verschenkt am {{date}}",
57
59
  "funds.packages.noPackages": "Keine Guthabenpakete",
58
60
  "funds.packages.purchaseFirst": "Kaufe dein erstes Guthabenpaket",
59
61
  "funds.packages.purchasedOn": "Gekauft am {{date}}",
@@ -15,6 +15,8 @@
15
15
  "agentGroupManagement.executeTask.thread": "Thread-ID",
16
16
  "agentGroupManagement.executeTask.timeout": "Ausführung abgelaufen",
17
17
  "agentGroupManagement.executeTask.tokens": "Token-Verbrauch",
18
+ "agentGroupManagement.executeTasks.intervention.instructionPlaceholder": "Detaillierte Anweisung für den Agenten zur Ausführung dieser Aufgabe...",
19
+ "agentGroupManagement.executeTasks.intervention.titlePlaceholder": "Aufgabentitel...",
18
20
  "codeInterpreter-legacy.error": "Ausführungsfehler",
19
21
  "codeInterpreter-legacy.executing": "Wird ausgeführt...",
20
22
  "codeInterpreter-legacy.files": "Dateien:",