@lobehub/lobehub 2.0.0-next.307 → 2.0.0-next.309

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (221) hide show
  1. package/CHANGELOG.md +58 -0
  2. package/changelog/v1.json +21 -0
  3. package/locales/ar/agentGroup.json +5 -0
  4. package/locales/ar/chat.json +26 -0
  5. package/locales/ar/models.json +43 -5
  6. package/locales/ar/plugin.json +4 -5
  7. package/locales/ar/setting.json +11 -0
  8. package/locales/ar/subscription.json +2 -0
  9. package/locales/ar/tool.json +2 -0
  10. package/locales/bg-BG/agentGroup.json +5 -0
  11. package/locales/bg-BG/chat.json +26 -0
  12. package/locales/bg-BG/models.json +49 -3
  13. package/locales/bg-BG/plugin.json +4 -5
  14. package/locales/bg-BG/setting.json +11 -0
  15. package/locales/bg-BG/subscription.json +2 -0
  16. package/locales/bg-BG/tool.json +2 -0
  17. package/locales/de-DE/agentGroup.json +5 -0
  18. package/locales/de-DE/chat.json +26 -0
  19. package/locales/de-DE/models.json +48 -5
  20. package/locales/de-DE/plugin.json +4 -5
  21. package/locales/de-DE/setting.json +11 -0
  22. package/locales/de-DE/subscription.json +2 -0
  23. package/locales/de-DE/tool.json +2 -0
  24. package/locales/en-US/models.json +8 -6
  25. package/locales/en-US/plugin.json +3 -4
  26. package/locales/en-US/setting.json +10 -11
  27. package/locales/en-US/tool.json +2 -0
  28. package/locales/es-ES/agentGroup.json +5 -0
  29. package/locales/es-ES/chat.json +26 -0
  30. package/locales/es-ES/models.json +43 -5
  31. package/locales/es-ES/plugin.json +4 -5
  32. package/locales/es-ES/setting.json +11 -0
  33. package/locales/es-ES/subscription.json +2 -0
  34. package/locales/es-ES/tool.json +2 -0
  35. package/locales/fa-IR/agentGroup.json +5 -0
  36. package/locales/fa-IR/chat.json +26 -0
  37. package/locales/fa-IR/models.json +42 -5
  38. package/locales/fa-IR/plugin.json +4 -5
  39. package/locales/fa-IR/setting.json +11 -0
  40. package/locales/fa-IR/subscription.json +2 -0
  41. package/locales/fa-IR/tool.json +2 -0
  42. package/locales/fr-FR/agentGroup.json +5 -0
  43. package/locales/fr-FR/chat.json +26 -0
  44. package/locales/fr-FR/models.json +5 -5
  45. package/locales/fr-FR/plugin.json +4 -5
  46. package/locales/fr-FR/setting.json +11 -0
  47. package/locales/fr-FR/subscription.json +2 -0
  48. package/locales/fr-FR/tool.json +2 -0
  49. package/locales/it-IT/agentGroup.json +5 -0
  50. package/locales/it-IT/chat.json +26 -0
  51. package/locales/it-IT/models.json +1 -3
  52. package/locales/it-IT/plugin.json +4 -5
  53. package/locales/it-IT/setting.json +11 -0
  54. package/locales/it-IT/subscription.json +2 -0
  55. package/locales/it-IT/tool.json +2 -0
  56. package/locales/ja-JP/agentGroup.json +5 -0
  57. package/locales/ja-JP/chat.json +26 -0
  58. package/locales/ja-JP/models.json +1 -5
  59. package/locales/ja-JP/plugin.json +4 -5
  60. package/locales/ja-JP/setting.json +11 -0
  61. package/locales/ja-JP/subscription.json +2 -0
  62. package/locales/ja-JP/tool.json +2 -0
  63. package/locales/ko-KR/agentGroup.json +5 -0
  64. package/locales/ko-KR/chat.json +26 -0
  65. package/locales/ko-KR/models.json +1 -3
  66. package/locales/ko-KR/plugin.json +4 -5
  67. package/locales/ko-KR/setting.json +11 -0
  68. package/locales/ko-KR/subscription.json +2 -0
  69. package/locales/ko-KR/tool.json +2 -0
  70. package/locales/nl-NL/agentGroup.json +5 -0
  71. package/locales/nl-NL/chat.json +26 -0
  72. package/locales/nl-NL/models.json +35 -3
  73. package/locales/nl-NL/plugin.json +4 -5
  74. package/locales/nl-NL/setting.json +11 -0
  75. package/locales/nl-NL/subscription.json +2 -0
  76. package/locales/nl-NL/tool.json +2 -0
  77. package/locales/pl-PL/agentGroup.json +5 -0
  78. package/locales/pl-PL/chat.json +26 -0
  79. package/locales/pl-PL/models.json +1 -3
  80. package/locales/pl-PL/plugin.json +4 -5
  81. package/locales/pl-PL/setting.json +11 -0
  82. package/locales/pl-PL/subscription.json +2 -0
  83. package/locales/pl-PL/tool.json +2 -0
  84. package/locales/pt-BR/agentGroup.json +5 -0
  85. package/locales/pt-BR/chat.json +26 -0
  86. package/locales/pt-BR/models.json +50 -5
  87. package/locales/pt-BR/plugin.json +4 -5
  88. package/locales/pt-BR/setting.json +11 -0
  89. package/locales/pt-BR/subscription.json +2 -0
  90. package/locales/pt-BR/tool.json +2 -0
  91. package/locales/ru-RU/agentGroup.json +5 -0
  92. package/locales/ru-RU/chat.json +26 -0
  93. package/locales/ru-RU/models.json +22 -3
  94. package/locales/ru-RU/plugin.json +4 -5
  95. package/locales/ru-RU/setting.json +11 -0
  96. package/locales/ru-RU/subscription.json +2 -0
  97. package/locales/ru-RU/tool.json +2 -0
  98. package/locales/tr-TR/agentGroup.json +5 -0
  99. package/locales/tr-TR/chat.json +26 -0
  100. package/locales/tr-TR/models.json +36 -3
  101. package/locales/tr-TR/plugin.json +4 -5
  102. package/locales/tr-TR/setting.json +11 -0
  103. package/locales/tr-TR/subscription.json +2 -0
  104. package/locales/tr-TR/tool.json +2 -0
  105. package/locales/vi-VN/agentGroup.json +5 -0
  106. package/locales/vi-VN/chat.json +26 -0
  107. package/locales/vi-VN/models.json +1 -1
  108. package/locales/vi-VN/plugin.json +4 -5
  109. package/locales/vi-VN/setting.json +11 -0
  110. package/locales/vi-VN/subscription.json +2 -0
  111. package/locales/vi-VN/tool.json +2 -0
  112. package/locales/zh-CN/models.json +52 -5
  113. package/locales/zh-CN/plugin.json +6 -7
  114. package/locales/zh-CN/setting.json +10 -11
  115. package/locales/zh-CN/tool.json +2 -2
  116. package/locales/zh-TW/agentGroup.json +5 -0
  117. package/locales/zh-TW/chat.json +26 -0
  118. package/locales/zh-TW/models.json +54 -5
  119. package/locales/zh-TW/plugin.json +4 -5
  120. package/locales/zh-TW/setting.json +11 -0
  121. package/locales/zh-TW/subscription.json +2 -0
  122. package/locales/zh-TW/tool.json +2 -0
  123. package/package.json +1 -1
  124. package/packages/agent-runtime/src/types/state.ts +2 -0
  125. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/GetAgentInfo/index.tsx +68 -0
  126. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/index.ts +3 -0
  127. package/packages/builtin-tool-group-management/src/client/Inspector/ExecuteAgentTask/index.tsx +52 -8
  128. package/packages/builtin-tool-group-management/src/client/Render/ExecuteTask/index.tsx +2 -21
  129. package/packages/builtin-tool-group-management/src/executor.test.ts +6 -4
  130. package/packages/builtin-tool-group-management/src/manifest.ts +5 -1
  131. package/packages/builtin-tool-group-management/src/types.ts +2 -0
  132. package/packages/builtin-tool-local-system/src/client/Render/WriteFile/index.tsx +48 -5
  133. package/packages/builtin-tool-local-system/src/client/Streaming/WriteFile/index.tsx +39 -0
  134. package/packages/builtin-tool-local-system/src/client/Streaming/index.ts +2 -0
  135. package/packages/builtin-tool-memory/src/manifest.ts +581 -19
  136. package/packages/model-bank/src/aiModels/qiniu.ts +24 -0
  137. package/packages/types/src/topic/thread.ts +2 -2
  138. package/packages/types/src/userMemory/layers.ts +19 -8
  139. package/packages/types/src/userMemory/shared.ts +7 -1
  140. package/src/app/[variants]/(auth)/_layout/index.tsx +0 -2
  141. package/src/app/[variants]/(auth)/layout.tsx +0 -2
  142. package/src/app/[variants]/(auth)/login/[[...login]]/page.tsx +1 -3
  143. package/src/app/[variants]/(auth)/signup/[[...signup]]/page.tsx +1 -3
  144. package/src/app/[variants]/(desktop)/desktop-onboarding/_layout/index.tsx +0 -2
  145. package/src/app/[variants]/(main)/_layout/index.tsx +0 -2
  146. package/src/app/[variants]/(main)/agent/_layout/index.tsx +0 -2
  147. package/src/app/[variants]/(main)/agent/features/Portal/index.tsx +0 -2
  148. package/src/app/[variants]/(main)/community/(list)/_layout/index.tsx +0 -2
  149. package/src/app/[variants]/(main)/community/(list)/assistant/_layout/index.tsx +0 -2
  150. package/src/app/[variants]/(main)/community/(list)/mcp/_layout/index.tsx +0 -2
  151. package/src/app/[variants]/(main)/community/(list)/model/_layout/index.tsx +0 -2
  152. package/src/app/[variants]/(main)/community/_layout/index.tsx +0 -2
  153. package/src/app/[variants]/(main)/group/_layout/index.tsx +0 -2
  154. package/src/app/[variants]/(main)/group/features/Conversation/Header/index.tsx +4 -2
  155. package/src/app/[variants]/(main)/group/features/Portal/index.tsx +0 -2
  156. package/src/app/[variants]/(main)/home/_layout/index.tsx +0 -2
  157. package/src/app/[variants]/(main)/home/index.tsx +0 -2
  158. package/src/app/[variants]/(main)/image/_layout/Topics/TopicUrlSync.tsx +0 -2
  159. package/src/app/[variants]/(main)/image/_layout/index.tsx +0 -2
  160. package/src/app/[variants]/(main)/memory/_layout/index.tsx +0 -2
  161. package/src/app/[variants]/(main)/page/_layout/index.tsx +0 -2
  162. package/src/app/[variants]/(main)/resource/(home)/_layout/index.tsx +0 -2
  163. package/src/app/[variants]/(main)/resource/_layout/index.tsx +0 -2
  164. package/src/app/[variants]/(main)/resource/library/_layout/index.tsx +0 -2
  165. package/src/app/[variants]/(main)/resource/library/features/Container.tsx +0 -2
  166. package/src/app/[variants]/(main)/settings/_layout/index.tsx +0 -2
  167. package/src/app/[variants]/(main)/settings/about/index.tsx +0 -2
  168. package/src/app/[variants]/(main)/settings/agent/index.tsx +0 -2
  169. package/src/app/[variants]/(main)/settings/apikey/index.tsx +0 -2
  170. package/src/app/[variants]/(main)/settings/chat-appearance/index.tsx +0 -2
  171. package/src/app/[variants]/(main)/settings/common/index.tsx +0 -2
  172. package/src/app/[variants]/(main)/settings/hotkey/index.tsx +0 -2
  173. package/src/app/[variants]/(main)/settings/image/index.tsx +0 -2
  174. package/src/app/[variants]/(main)/settings/memory/index.tsx +0 -2
  175. package/src/app/[variants]/(main)/settings/provider/(list)/index.tsx +0 -2
  176. package/src/app/[variants]/(main)/settings/proxy/index.tsx +0 -2
  177. package/src/app/[variants]/(main)/settings/security/index.tsx +1 -3
  178. package/src/app/[variants]/(main)/settings/storage/index.tsx +0 -2
  179. package/src/app/[variants]/(main)/settings/tts/index.tsx +0 -2
  180. package/src/app/[variants]/(mobile)/(home)/_layout/index.tsx +0 -2
  181. package/src/app/[variants]/(mobile)/_layout/index.tsx +1 -3
  182. package/src/app/[variants]/(mobile)/chat/_layout/index.tsx +0 -2
  183. package/src/app/[variants]/(mobile)/chat/settings/_layout/index.tsx +0 -2
  184. package/src/app/[variants]/(mobile)/community/(detail)/_layout/index.tsx +0 -2
  185. package/src/app/[variants]/(mobile)/community/(list)/_layout/index.tsx +0 -2
  186. package/src/app/[variants]/(mobile)/community/_layout/index.tsx +0 -2
  187. package/src/app/[variants]/(mobile)/router/MobileClientRouter.tsx +0 -2
  188. package/src/app/[variants]/(mobile)/settings/index.tsx +0 -2
  189. package/src/app/[variants]/onboarding/_layout/index.tsx +0 -2
  190. package/src/app/[variants]/router/DesktopClientRouter.tsx +0 -2
  191. package/src/components/ModelSelect/index.tsx +6 -56
  192. package/src/components/server/MobileNavLayout.tsx +0 -2
  193. package/src/components/server/ServerLayout.tsx +0 -2
  194. package/src/features/ModelSwitchPanel/components/Footer.tsx +0 -2
  195. package/src/features/ModelSwitchPanel/components/List/MultipleProvidersModelItem.tsx +0 -1
  196. package/src/features/ModelSwitchPanel/components/List/SingleProviderModelItem.tsx +0 -1
  197. package/src/features/ModelSwitchPanel/components/List/VirtualItemRenderer.tsx +0 -1
  198. package/src/features/ModelSwitchPanel/components/List/index.tsx +15 -13
  199. package/src/features/ModelSwitchPanel/components/PanelContent.tsx +0 -2
  200. package/src/features/ModelSwitchPanel/index.tsx +21 -23
  201. package/src/features/ResourceManager/components/Explorer/MasonryView/index.tsx +0 -2
  202. package/src/features/User/UserAvatar.tsx +0 -2
  203. package/src/locales/default/plugin.ts +3 -1
  204. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +11 -3
  205. package/src/server/modules/Mecha/AgentToolsEngine/index.ts +14 -6
  206. package/src/server/modules/Mecha/AgentToolsEngine/types.ts +4 -3
  207. package/src/server/routers/lambda/aiAgent.ts +10 -0
  208. package/src/server/services/agent/index.test.ts +155 -0
  209. package/src/server/services/agent/index.ts +25 -0
  210. package/src/server/services/agentRuntime/AgentRuntimeService.ts +2 -0
  211. package/src/server/services/agentRuntime/types.ts +1 -0
  212. package/src/server/services/aiAgent/__tests__/execAgent.threadId.test.ts +29 -9
  213. package/src/server/services/aiAgent/index.ts +175 -6
  214. package/src/server/services/lobehubSkill/index.ts +109 -0
  215. package/src/server/services/toolExecution/builtin.ts +28 -2
  216. package/src/server/services/toolExecution/types.ts +3 -0
  217. package/src/store/chat/agents/GroupOrchestration/__tests__/call-supervisor.test.ts +305 -0
  218. package/src/store/chat/agents/GroupOrchestration/createGroupOrchestrationExecutors.ts +2 -1
  219. package/src/store/chat/agents/createAgentExecutors.ts +4 -2
  220. package/src/store/chat/slices/plugin/actions/exector.ts +92 -0
  221. package/src/store/chat/slices/plugin/actions/pluginTypes.ts +82 -177
@@ -61,18 +61,16 @@
61
61
  "builtins.lobe-group-agent-builder.inspector.title": "Заглавие",
62
62
  "builtins.lobe-group-agent-builder.title": "Експерт по изграждане на групи",
63
63
  "builtins.lobe-group-management.apiName.broadcast": "Всички говорят",
64
- "builtins.lobe-group-management.apiName.createAgent": "Добавяне на член в групата",
65
64
  "builtins.lobe-group-management.apiName.createWorkflow": "Планиране на работен процес",
66
- "builtins.lobe-group-management.apiName.executeTask": "Изпълнение на задача",
65
+ "builtins.lobe-group-management.apiName.executeAgentTask": "Изпълни задача на агент",
66
+ "builtins.lobe-group-management.apiName.executeAgentTasks": "Изпълни паралелни задачи на агенти",
67
67
  "builtins.lobe-group-management.apiName.getAgentInfo": "Извличане на информация за член",
68
68
  "builtins.lobe-group-management.apiName.interrupt": "Прекъсване на задача",
69
- "builtins.lobe-group-management.apiName.inviteAgent": "Покана на член",
70
- "builtins.lobe-group-management.apiName.removeAgent": "Премахване на член",
71
- "builtins.lobe-group-management.apiName.searchAgent": "Намиране на подходящи експерти",
72
69
  "builtins.lobe-group-management.apiName.speak": "Назначен член говори",
73
70
  "builtins.lobe-group-management.apiName.summarize": "Обобщаване на разговора",
74
71
  "builtins.lobe-group-management.apiName.vote": "Започване на гласуване",
75
72
  "builtins.lobe-group-management.inspector.broadcast.title": "Следните агенти говорят:",
73
+ "builtins.lobe-group-management.inspector.executeAgentTasks.title": "Възлагане на задачи на:",
76
74
  "builtins.lobe-group-management.inspector.speak.title": "Назначен агент говори:",
77
75
  "builtins.lobe-group-management.title": "Координатор на група",
78
76
  "builtins.lobe-gtd.apiName.clearTodos": "Изчистване на задачи",
@@ -175,6 +173,7 @@
175
173
  "builtins.lobe-user-memory.apiName.removeIdentityMemory": "Изтриване на памет за идентичност",
176
174
  "builtins.lobe-user-memory.apiName.searchUserMemory": "Търсене в паметта",
177
175
  "builtins.lobe-user-memory.apiName.updateIdentityMemory": "Актуализиране на памет за идентичност",
176
+ "builtins.lobe-user-memory.inspector.noResults": "Няма резултати",
178
177
  "builtins.lobe-user-memory.title": "Памет",
179
178
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Прочитане на множество страници",
180
179
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Прочитане на съдържание на страница",
@@ -173,8 +173,11 @@
173
173
  "llm.waitingForMoreLinkAriaLabel": "Отвори формуляр за заявка към доставчик",
174
174
  "marketPublish.forkConfirm.by": "от {{author}}",
175
175
  "marketPublish.forkConfirm.confirm": "Потвърди публикуване",
176
+ "marketPublish.forkConfirm.confirmGroup": "Потвърди публикуване",
176
177
  "marketPublish.forkConfirm.description": "Вие сте на път да публикувате производна версия, базирана на съществуващ агент от общността. Вашият нов агент ще бъде създаден като отделен запис в пазара.",
178
+ "marketPublish.forkConfirm.descriptionGroup": "Вие сте на път да публикувате производна версия, базирана на съществуваща група от общността. Вашата нова група ще бъде създадена като отделен запис в пазара.",
177
179
  "marketPublish.forkConfirm.title": "Публикуване на производен агент",
180
+ "marketPublish.forkConfirm.titleGroup": "Публикуване на производна група",
178
181
  "marketPublish.modal.changelog.extra": "Опишете основните промени и подобрения в тази версия",
179
182
  "marketPublish.modal.changelog.label": "Дневник на промените",
180
183
  "marketPublish.modal.changelog.maxLengthError": "Дневникът на промените не трябва да надвишава 500 знака",
@@ -190,22 +193,28 @@
190
193
  "marketPublish.modal.identifier.required": "Моля, въведете идентификатор на агента",
191
194
  "marketPublish.modal.loading.fetchingRemote": "Зареждане на отдалечени данни...",
192
195
  "marketPublish.modal.loading.submit": "Изпращане на агента...",
196
+ "marketPublish.modal.loading.submitGroup": "Изпращане на групата...",
193
197
  "marketPublish.modal.loading.upload": "Публикуване на нова версия...",
198
+ "marketPublish.modal.loading.uploadGroup": "Публикуване на нова версия на групата...",
194
199
  "marketPublish.modal.messages.createVersionFailed": "Неуспешно създаване на версия: {{message}}",
195
200
  "marketPublish.modal.messages.fetchRemoteFailed": "Неуспешно извличане на данни за отдалечения агент",
196
201
  "marketPublish.modal.messages.missingIdentifier": "Този агент все още няма идентификатор в Общността.",
202
+ "marketPublish.modal.messages.noGroup": "Няма избрана група",
197
203
  "marketPublish.modal.messages.notAuthenticated": "Първо влезте в профила си в Общността.",
198
204
  "marketPublish.modal.messages.publishFailed": "Публикуването не бе успешно: {{message}}",
199
205
  "marketPublish.modal.submitButton": "Публикувай",
200
206
  "marketPublish.modal.title.submit": "Сподели в Общността на агентите",
201
207
  "marketPublish.modal.title.upload": "Публикувай нова версия",
202
208
  "marketPublish.resultModal.message": "Вашият агент е изпратен за преглед. След одобрение ще бъде автоматично публикуван.",
209
+ "marketPublish.resultModal.messageGroup": "Вашата група е изпратена за преглед. След одобрение ще бъде автоматично публикувана.",
203
210
  "marketPublish.resultModal.title": "Успешно изпращане",
204
211
  "marketPublish.resultModal.view": "Виж в Общността",
205
212
  "marketPublish.submit.button": "Сподели в Общността",
206
213
  "marketPublish.submit.tooltip": "Споделете този агент в Общността",
214
+ "marketPublish.submitGroup.tooltip": "Споделете тази група с общността",
207
215
  "marketPublish.upload.button": "Публикувай нова версия",
208
216
  "marketPublish.upload.tooltip": "Публикувайте нова версия в Общността на агентите",
217
+ "marketPublish.uploadGroup.tooltip": "Публикувайте нова версия в общността на групите",
209
218
  "memory.enabled.desc": "Позволете на LobeHub да извлича предпочитания и информация от разговорите и да ги използва по-късно. Можете да преглеждате, редактирате или изчиствате паметта по всяко време.",
210
219
  "memory.enabled.title": "Разреши памет",
211
220
  "memory.title": "Настройки на паметта",
@@ -254,6 +263,7 @@
254
263
  "plugin.settings.title": "Конфигурация на умение {{id}}",
255
264
  "plugin.settings.tooltip": "Конфигурация на умение",
256
265
  "plugin.store": "Магазин за умения",
266
+ "publishToCommunity": "Публикувай в общността",
257
267
  "settingAgent.avatar.sizeExceeded": "Размерът на изображението надвишава лимита от 1MB, моля изберете по-малко изображение",
258
268
  "settingAgent.avatar.title": "Аватар",
259
269
  "settingAgent.backgroundColor.title": "Цвят на фона",
@@ -483,6 +493,7 @@
483
493
  "submitAgentModal.placeholder": "Въведете уникален идентификатор за агента, напр. web-development",
484
494
  "submitAgentModal.success": "Агентът е изпратен успешно",
485
495
  "submitAgentModal.tooltips": "Сподели в общността на агентите",
496
+ "submitGroupModal.tooltips": "Сподели в общността на групите",
486
497
  "sync.device.deviceName.hint": "Добавете име за по-лесно разпознаване",
487
498
  "sync.device.deviceName.placeholder": "Въведете име на устройство",
488
499
  "sync.device.deviceName.title": "Име на устройство",
@@ -54,6 +54,8 @@
54
54
  "funds.packages.expiresIn": "Изтича след {{days}} дни",
55
55
  "funds.packages.expiresToday": "Изтича днес",
56
56
  "funds.packages.expiringSoon": "Скоро изтича",
57
+ "funds.packages.gift": "Подарък",
58
+ "funds.packages.giftedOn": "Подарен на {{date}}",
57
59
  "funds.packages.noPackages": "Няма налични пакети с кредити",
58
60
  "funds.packages.purchaseFirst": "Закупете първия си пакет с кредити",
59
61
  "funds.packages.purchasedOn": "Закупен на {{date}}",
@@ -15,6 +15,8 @@
15
15
  "agentGroupManagement.executeTask.thread": "Идентификатор на нишка",
16
16
  "agentGroupManagement.executeTask.timeout": "Времето за изпълнение изтече",
17
17
  "agentGroupManagement.executeTask.tokens": "Използвани токени",
18
+ "agentGroupManagement.executeTasks.intervention.instructionPlaceholder": "Подробни инструкции за агента за изпълнение на задачата...",
19
+ "agentGroupManagement.executeTasks.intervention.titlePlaceholder": "Заглавие на задачата...",
18
20
  "codeInterpreter-legacy.error": "Грешка при изпълнение",
19
21
  "codeInterpreter-legacy.executing": "Изпълнение...",
20
22
  "codeInterpreter-legacy.files": "Файлове:",
@@ -0,0 +1,5 @@
1
+ {
2
+ "avatar.sizeExceeded": "Die Avatargröße überschreitet das Limit",
3
+ "backgroundColor.title": "Hintergrundfarbe",
4
+ "name.placeholder": "Gruppennamen eingeben"
5
+ }
@@ -203,6 +203,8 @@
203
203
  "noMembersYet": "Diese Gruppe hat noch keine Mitglieder. Klicke auf +, um Agenten einzuladen.",
204
204
  "noSelectedAgents": "Noch keine Mitglieder ausgewählt",
205
205
  "openInNewWindow": "In neuem Fenster öffnen",
206
+ "operation.execAgentRuntime": "Antwort wird vorbereitet",
207
+ "operation.sendMessage": "Nachricht wird gesendet",
206
208
  "owner": "Gruppeninhaber",
207
209
  "pageCopilot.title": "Seitenagent",
208
210
  "pageCopilot.welcome": "**Klarer, präziser schreiben**\n\nEntwerfen, umschreiben oder verfeinern – sag mir, was du willst, und ich erledige den Rest.",
@@ -253,6 +255,8 @@
253
255
  "sessionGroup.sorting": "Gruppensortierung wird aktualisiert...",
254
256
  "sessionGroup.tooLong": "Gruppenname muss zwischen 1 und 20 Zeichen lang sein",
255
257
  "shareModal.copy": "Kopieren",
258
+ "shareModal.copyLink": "Link kopieren",
259
+ "shareModal.copyLinkSuccess": "Link kopiert",
256
260
  "shareModal.download": "Screenshot herunterladen",
257
261
  "shareModal.downloadError": "Download fehlgeschlagen",
258
262
  "shareModal.downloadFile": "Datei herunterladen",
@@ -268,12 +272,26 @@
268
272
  "shareModal.imageType": "Bildformat",
269
273
  "shareModal.includeTool": "Skill-Nachrichten einbeziehen",
270
274
  "shareModal.includeUser": "Benutzernachrichten einbeziehen",
275
+ "shareModal.link": "Link",
276
+ "shareModal.link.linkHint": "Jede Person mit dem Link kann dieses Thema ansehen",
277
+ "shareModal.link.noTopic": "Beginne zuerst ein Gespräch, um es zu teilen",
278
+ "shareModal.link.permissionLink": "Jede Person mit dem Link",
279
+ "shareModal.link.permissionPrivate": "Privat",
280
+ "shareModal.link.privateHint": "Nur du hast Zugriff auf diesen Link",
281
+ "shareModal.link.updateError": "Freigabeeinstellungen konnten nicht aktualisiert werden",
282
+ "shareModal.link.visibilityUpdated": "Sichtbarkeit aktualisiert",
271
283
  "shareModal.loadingPdf": "PDF wird geladen...",
272
284
  "shareModal.noPdfData": "Keine PDF-Daten verfügbar",
273
285
  "shareModal.pdf": "PDF",
274
286
  "shareModal.pdfErrorDescription": "Beim Generieren des PDFs ist ein Fehler aufgetreten. Bitte versuche es erneut.",
275
287
  "shareModal.pdfGenerationError": "PDF-Generierung fehlgeschlagen",
276
288
  "shareModal.pdfReady": "PDF ist bereit",
289
+ "shareModal.popover.moreOptions": "Weitere Freigabeoptionen",
290
+ "shareModal.popover.privacyWarning.confirm": "Ich verstehe, weiter",
291
+ "shareModal.popover.privacyWarning.content": "Bitte stelle sicher, dass dein Gespräch keine persönlichen oder sensiblen Informationen enthält. Du bist für alle Inhalte, die du teilst, und deren Folgen verantwortlich.",
292
+ "shareModal.popover.privacyWarning.title": "Datenschutzhinweis",
293
+ "shareModal.popover.title": "Thema teilen",
294
+ "shareModal.popover.visibility": "Sichtbarkeit",
277
295
  "shareModal.regeneratePdf": "PDF neu generieren",
278
296
  "shareModal.screenshot": "Screenshot",
279
297
  "shareModal.settings": "Exporteinstellungen",
@@ -286,6 +304,14 @@
286
304
  "shareModal.withPluginInfo": "Skill-Informationen einbeziehen",
287
305
  "shareModal.withRole": "Rolleninformationen einbeziehen",
288
306
  "shareModal.withSystemRole": "Agentenprofil einbeziehen",
307
+ "sharePage.error.forbidden.subtitle": "Diese Freigabe ist privat und nicht zugänglich.",
308
+ "sharePage.error.forbidden.title": "Zugriff verweigert",
309
+ "sharePage.error.notFound.subtitle": "Dieses Thema existiert nicht oder wurde entfernt.",
310
+ "sharePage.error.notFound.title": "Thema nicht gefunden",
311
+ "sharePage.error.unauthorized.action": "Anmelden",
312
+ "sharePage.error.unauthorized.subtitle": "Bitte melde dich an, um dieses geteilte Thema anzusehen.",
313
+ "sharePage.error.unauthorized.title": "Anmeldung erforderlich",
314
+ "sharePageDisclaimer": "Dieser Inhalt wurde von einem Nutzer geteilt und spiegelt nicht die Ansichten von LobeHub wider. LobeHub übernimmt keine Verantwortung für etwaige Folgen, die sich aus diesem geteilten Inhalt ergeben.",
289
315
  "stt.action": "Spracheingabe",
290
316
  "stt.loading": "Erkennung läuft...",
291
317
  "stt.prettifying": "Wird überarbeitet...",
@@ -103,7 +103,7 @@
103
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Es wurde mit 14,8 Billionen hochwertigen Tokens vortrainiert und mit SFT und RL weiter abgestimmt. Es übertrifft andere Open-Source-Modelle und nähert sich führenden Closed-Source-Modellen an.",
104
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
105
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
106
- "Pro/zai-org/glm-4.7.description": "GLM-4.7 ist das neue Flaggschiffmodell von Zhipu mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktiven Parametern. Es bietet umfassende Verbesserungen in allgemeiner Konversation, logischem Denken und Agentenfähigkeiten. GLM-4.7 stärkt das Interleaved Thinking (verzahntes Denken) und führt Preserved Thinking (bewahrtes Denken) sowie Turn-level Thinking (Denken auf Gesprächsebene) ein.",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 ist Zhipus neue Flaggschiff-Generation mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktiven Parametern. Das Modell wurde umfassend in den Bereichen allgemeiner Dialog, logisches Denken und Agentenfähigkeiten verbessert. GLM-4.7 stärkt das Interleaved Thinking und führt Preserved Thinking sowie Turn-level Thinking ein.",
107
107
  "QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
108
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview ist ein Forschungsmodell von Qwen mit Schwerpunkt auf visuellem Denken. Es überzeugt durch seine Fähigkeit zur Analyse komplexer Szenen und zur Lösung visueller Mathematikaufgaben.",
109
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell zur Verbesserung der KI-Logik und des Denkvermögens.",
@@ -388,7 +388,7 @@
388
388
  "deepseek-v3.1:671b.description": "DeepSeek V3.1 ist ein Modell der nächsten Generation für komplexe Schlussfolgerungen und Gedankengänge, ideal für Aufgaben mit tiefgehender Analyse.",
389
389
  "deepseek-v3.2-exp.description": "deepseek-v3.2-exp führt Sparse Attention ein, um die Effizienz beim Training und bei der Inferenz bei langen Texten zu verbessern – zu einem günstigeren Preis als deepseek-v3.1.",
390
390
  "deepseek-v3.2-think.description": "DeepSeek V3.2 Think ist ein vollwertiges Denkmodell mit stärkerer langkettiger Argumentation.",
391
- "deepseek-v3.2.description": "DeepSeek-V3.2 ist das erste hybride Schlussfolgerungsmodell von DeepSeek, das Denken in die Werkzeugnutzung integriert. Es kombiniert eine effiziente Architektur zur Rechenersparnis, großskaliges Reinforcement Learning zur Leistungssteigerung und synthetische Aufgabendaten zur besseren Generalisierung. Die Leistung ist vergleichbar mit GPT-5-High, die Ausgabelänge wurde deutlich reduziert, was Rechenaufwand und Wartezeit für Nutzer erheblich senkt.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 ist das erste hybride Reasoning-Modell von DeepSeek, das Denkprozesse in die Werkzeugnutzung integriert. Es verwendet eine effiziente Architektur zur Reduzierung des Rechenaufwands, groß angelegte Verstärkungslernen zur Leistungssteigerung und synthetische Aufgabendaten zur besseren Generalisierung. Diese Kombination ermöglicht eine Leistung vergleichbar mit GPT-5-High bei deutlich kürzeren Ausgaben, was Rechenkosten und Wartezeiten für Nutzer erheblich reduziert.",
392
392
  "deepseek-v3.description": "DeepSeek-V3 ist ein leistungsstarkes MoE-Modell mit insgesamt 671 Milliarden Parametern und 37 Milliarden aktiven Parametern pro Token.",
393
393
  "deepseek-vl2-small.description": "DeepSeek VL2 Small ist eine leichtgewichtige multimodale Version für ressourcenbeschränkte und hochparallele Anwendungen.",
394
394
  "deepseek-vl2.description": "DeepSeek VL2 ist ein multimodales Modell für Bild-Text-Verständnis und fein abgestimmte visuelle Fragebeantwortung.",
@@ -434,7 +434,7 @@
434
434
  "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 verstärkt das logische Denken erheblich und verbessert die Kernfähigkeiten in Programmierung, Mathematik und logischem Denken im Vergleich zu Doubao-1.5-thinking-pro. Zusätzlich wird das visuelle Verständnis erweitert. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.",
435
435
  "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision ist ein visuelles Modell für tiefes logisches Denken mit verbesserter multimodaler Analyse für Bildung, Bildprüfung, Inspektion/Sicherheit und KI-gestützte Fragenbeantwortung. Unterstützt ein Kontextfenster von 256k und bis zu 64k Ausgabetokens.",
436
436
  "doubao-seed-1.6.description": "Doubao-Seed-1.6 ist ein neues multimodales Modell für tiefes logisches Denken mit Auto-, Denk- und Nicht-Denk-Modi. Im Nicht-Denk-Modus übertrifft es Doubao-1.5-pro/250115 deutlich. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.",
437
- "doubao-seed-1.8.description": "Doubao-Seed-1.8 verfügt über eine verbesserte multimodale Verständnisfähigkeit und Agentenfähigkeiten. Es unterstützt Text-, Bild- und Videoeingaben sowie Kontext-Caching und bietet herausragende Leistung bei komplexen Aufgaben.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 bietet verbesserte multimodale Verständnis- und Agentenfähigkeiten, unterstützt Text-, Bild- und Videoeingaben sowie Kontext-Caching und liefert herausragende Ergebnisse bei komplexen Aufgaben.",
438
438
  "doubao-seed-code.description": "Doubao-Seed-Code ist speziell für agentenbasiertes Programmieren optimiert, unterstützt multimodale Eingaben (Text/Bild/Video) und ein Kontextfenster von 256k. Es ist kompatibel mit der Anthropic API und eignet sich für Programmierung, visuelles Verständnis und Agenten-Workflows.",
439
439
  "doubao-seededit-3-0-i2i-250628.description": "Das Doubao-Bildmodell von ByteDance Seed unterstützt Text- und Bildeingaben mit hochgradig kontrollierbarer, hochwertiger Bildgenerierung. Es unterstützt textgesteuerte Bildbearbeitung mit Ausgabengrößen zwischen 512 und 1536 auf der langen Seite.",
440
440
  "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.",
@@ -526,6 +526,7 @@
526
526
  "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
527
527
  "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
528
528
  "gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist – es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
529
530
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
530
531
  "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
531
532
  "gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
@@ -559,8 +560,8 @@
559
560
  "glm-4.5-x.description": "GLM-4.5 Schnellversion mit starker Leistung und Generierungsgeschwindigkeiten von bis zu 100 Token/Sekunde.",
560
561
  "glm-4.5.description": "Zhipus Flaggschiffmodell mit umschaltbarem Denkmodus, bietet Open-Source-SOTA-Leistung und bis zu 128K Kontext.",
561
562
  "glm-4.5v.description": "Zhipus nächste Generation eines MoE-Vision-Reasoning-Modells mit 106B Gesamtparametern und 12B aktiven. Es erreicht SOTA unter ähnlich großen Open-Source-Multimodalmodellen in Bild-, Video-, Dokumentenverständnis- und GUI-Aufgaben.",
562
- "glm-4.6.description": "GLM-4.6 (355B), das neueste Flaggschiffmodell von Zhipu, übertrifft seine Vorgänger in fortgeschrittener Codierung, Langtextverarbeitung, logischem Denken und Agentenfähigkeiten. Besonders in der Programmierung ist es auf dem Niveau von Claude Sonnet 4 und zählt zu den besten Coding-Modellen Chinas.",
563
- "glm-4.7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu, das für Agentic-Coding-Szenarien optimiert wurde. Es bietet verbesserte Codierungsfähigkeiten, langfristige Aufgabenplanung und Werkzeugintegration. Es erzielt Spitzenleistungen unter Open-Source-Modellen in aktuellen Benchmarks. Die allgemeine Leistungsfähigkeit wurde gesteigert Antworten sind natürlicher, das Schreiben immersiver. Bei komplexen Agentenaufgaben folgt es Anweisungen besser, und die visuelle Qualität sowie Effizienz bei Langzeitaufgaben wurden weiter verbessert.",
563
+ "glm-4.6.description": "Zhipus neuestes Flaggschiffmodell GLM-4.6 (355B) übertrifft seine Vorgänger vollständig in den Bereichen fortgeschrittenes Programmieren, Verarbeitung langer Texte, logisches Denken und Agentenfähigkeiten. Besonders im Bereich Programmierung steht es auf Augenhöhe mit Claude Sonnet 4 und gilt als Chinas führendes Coding-Modell.",
564
+ "glm-4.7.description": "GLM-4.7 ist Zhipus neuestes Flaggschiffmodell, optimiert für agentenbasiertes Programmieren mit verbesserten Codierungsfähigkeiten, langfristiger Aufgabenplanung und Werkzeugintegration. Es erzielt Spitzenleistungen unter Open-Source-Modellen in zahlreichen öffentlichen Benchmarks. Die allgemeinen Fähigkeiten wurden durch präzisere, natürlichere Antworten und ein immersiveres Schreibverhalten verbessert. Bei komplexen Agentenaufgaben ist die Befolgung von Anweisungen bei Werkzeugaufrufen robuster, und die visuelle Gestaltung sowie die Effizienz bei der langfristigen Aufgabenbearbeitung in Artifacts und Agentic Coding wurden weiter optimiert.",
564
565
  "glm-4.description": "GLM-4 ist das ältere Flaggschiffmodell, das im Januar 2024 veröffentlicht wurde und nun durch das stärkere GLM-4-0520 ersetzt wurde.",
565
566
  "glm-4v-flash.description": "GLM-4V-Flash konzentriert sich auf effizientes Einzelbildverständnis für schnelle Analyseanwendungen wie Echtzeit- oder Batch-Bildverarbeitung.",
566
567
  "glm-4v-plus-0111.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.",
@@ -584,6 +585,48 @@
584
585
  "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Flaggschiffmodell für Reasoning, Programmierung, Mathematik und Wissenschaft. Es enthält einen integrierten Denkmodus für genauere Antworten und feinere Kontextverarbeitung.\n\nHinweis: Dieses Modell hat zwei Varianten – mit und ohne Denkmodus. Die Ausgabekosten unterscheiden sich je nach aktivierter Denkfunktion. Wenn Sie die Standardvariante (ohne „:thinking“-Suffix) wählen, vermeidet das Modell explizit die Generierung von Denk-Tokens.\n\nUm Denkprozesse zu nutzen und Denk-Tokens zu erhalten, müssen Sie die „:thinking“-Variante auswählen, die höhere Ausgabekosten verursacht.\n\nGemini 2.5 Flash kann auch über den Parameter „max reasoning tokens“ konfiguriert werden (siehe Dokumentation: https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
585
586
  "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Flaggschiffmodell für Reasoning, Programmierung, Mathematik und Wissenschaft. Es enthält einen integrierten Denkmodus für genauere Antworten und feinere Kontextverarbeitung.\n\nHinweis: Dieses Modell hat zwei Varianten – mit und ohne Denkmodus. Die Ausgabekosten unterscheiden sich je nach aktivierter Denkfunktion. Wenn Sie die Standardvariante (ohne „:thinking“-Suffix) wählen, vermeidet das Modell explizit die Generierung von Denk-Tokens.\n\nUm Denkprozesse zu nutzen und Denk-Tokens zu erhalten, müssen Sie die „:thinking“-Variante auswählen, die höhere Ausgabekosten verursacht.\n\nGemini 2.5 Flash kann auch über den Parameter „max reasoning tokens“ konfiguriert werden (siehe Dokumentation: https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
586
587
  "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) ist Googles Modellfamilie mit Bandbreite von niedriger Latenz bis hin zu leistungsstarkem Reasoning.",
588
+ "google/gemini-2.5-pro-free.description": "Die kostenlose Stufe von Gemini 2.5 Pro bietet multimodale Langkontextverarbeitung mit begrenztem Kontingent – ideal für Tests und leichte Arbeitsabläufe.",
589
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell für komplexe Aufgaben in Code, Mathematik und MINT-Fächern sowie zur Analyse großer Datensätze, Codebasen und Dokumente mit langem Kontext.",
590
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles Flaggschiffmodell für logisches Denken mit Langkontextunterstützung für komplexe Aufgaben.",
591
+ "google/gemini-3-pro-image-preview-free.description": "Kostenlose Stufe von Gemini 3 Pro Image mit begrenztem Kontingent für multimodale Generierung.",
592
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Konversation.",
593
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free bietet dieselben multimodalen Verständnis- und Denkfähigkeiten wie die Standardversion, jedoch mit Kontingent- und Ratenbeschränkungen – ideal für Tests und seltene Nutzung.",
594
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro ist das nächste Generationenmodell für multimodales Denken innerhalb der Gemini-Familie. Es versteht Text, Audio, Bilder und Videos und bewältigt komplexe Aufgaben sowie große Codebasen.",
595
+ "google/gemini-embedding-001.description": "Ein hochmodernes Embedding-Modell mit starker Leistung in Englisch, Mehrsprachigkeit und Code-Aufgaben.",
596
+ "google/gemini-flash-1.5.description": "Gemini 1.5 Flash bietet optimierte multimodale Verarbeitung für eine Vielzahl komplexer Aufgaben.",
597
+ "google/gemini-pro-1.5.description": "Gemini 1.5 Pro kombiniert die neuesten Optimierungen für eine effizientere Verarbeitung multimodaler Daten.",
598
+ "google/gemma-2-27b-it.description": "Gemma 2 27B ist ein vielseitiges Sprachmodell mit starker Leistung in vielen Anwendungsszenarien.",
599
+ "google/gemma-2-27b.description": "Gemma 2 ist Googles effiziente Modellfamilie für Anwendungen von kleinen Apps bis hin zu komplexer Datenverarbeitung.",
600
+ "google/gemma-2-2b-it.description": "Ein fortschrittliches kleines Sprachmodell für Edge-Anwendungen.",
601
+ "google/gemma-2-9b-it.description": "Gemma 2 9B, entwickelt von Google, bietet effiziente Befolgung von Anweisungen und solide Gesamtleistung.",
602
+ "google/gemma-2-9b-it:free.description": "Gemma 2 ist Googles leichtgewichtige Open-Source-Textmodellfamilie.",
603
+ "google/gemma-2-9b.description": "Gemma 2 ist Googles effiziente Modellfamilie für Anwendungen von kleinen Apps bis hin zu komplexer Datenverarbeitung.",
604
+ "google/gemma-2b-it.description": "Gemma Instruct (2B) bietet grundlegende Anweisungsverarbeitung für leichte Anwendungen.",
605
+ "google/gemma-3-12b-it.description": "Gemma 3 12B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt.",
606
+ "google/gemma-3-27b-it.description": "Gemma 3 27B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Effizienz und Leistung setzt.",
607
+ "google/text-embedding-005.description": "Ein auf Englisch fokussiertes Text-Embedding-Modell, optimiert für Code- und Sprachaufgaben.",
608
+ "google/text-multilingual-embedding-002.description": "Ein mehrsprachiges Text-Embedding-Modell, optimiert für sprachübergreifende Aufgaben in vielen Sprachen.",
609
+ "gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
610
+ "gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
611
+ "gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis, optimiert für die Befolgung von Anweisungen.",
612
+ "gpt-3.5-turbo.description": "GPT 3.5 Turbo für Textgenerierung und -verständnis; verweist derzeit auf gpt-3.5-turbo-0125.",
613
+ "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k ist ein leistungsstarkes Textgenerierungsmodell für komplexe Aufgaben.",
614
+ "gpt-35-turbo.description": "GPT-3.5 Turbo ist OpenAIs effizientes Modell für Chat und Textgenerierung mit Unterstützung für parallele Funktionsaufrufe.",
615
+ "gpt-4-0125-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
616
+ "gpt-4-0613.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
617
+ "gpt-4-1106-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
618
+ "gpt-4-32k-0613.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
619
+ "gpt-4-32k.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
620
+ "gpt-4-turbo-2024-04-09.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
621
+ "gpt-4-turbo-preview.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
622
+ "gpt-4-turbo.description": "Das neueste GPT-4 Turbo unterstützt jetzt auch visuelle Eingaben. Visuelle Anfragen unterstützen den JSON-Modus und Funktionsaufrufe. Es ist ein kosteneffizientes multimodales Modell, das Genauigkeit und Effizienz für Echtzeitanwendungen ausbalanciert.",
623
+ "gpt-4-vision-preview.description": "Vorschau von GPT-4 Vision, entwickelt für Aufgaben der Bildanalyse und -verarbeitung.",
624
+ "gpt-4.1-mini.description": "GPT-4.1 mini vereint Intelligenz, Geschwindigkeit und Kostenersparnis – ideal für viele Anwendungsfälle.",
625
+ "gpt-4.1-nano.description": "GPT-4.1 nano ist das schnellste und kostengünstigste Modell der GPT-4.1-Reihe.",
626
+ "gpt-4.1.description": "GPT-4.1 ist unser Flaggschiffmodell für komplexe Aufgaben und domänenübergreifende Problemlösungen.",
627
+ "gpt-4.5-preview.description": "GPT-4.5-preview ist das neueste Allzweckmodell mit tiefem Weltwissen und besserem Verständnis von Absichten. Es ist stark in kreativen Aufgaben und Agentenplanung. Der Wissensstand ist Oktober 2023.",
628
+ "gpt-4.description": "GPT-4 bietet ein größeres Kontextfenster zur Verarbeitung längerer Eingaben – ideal für umfassende Informationssynthese und Datenanalyse.",
629
+ "gpt-4o-2024-05-13.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeitaktualisierung, das starkes Verständnis und Generierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
587
630
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
588
631
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
589
632
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
@@ -61,18 +61,16 @@
61
61
  "builtins.lobe-group-agent-builder.inspector.title": "Titel",
62
62
  "builtins.lobe-group-agent-builder.title": "Gruppenbau-Experte",
63
63
  "builtins.lobe-group-management.apiName.broadcast": "Alle sprechen",
64
- "builtins.lobe-group-management.apiName.createAgent": "Gruppenmitglied hinzufügen",
65
64
  "builtins.lobe-group-management.apiName.createWorkflow": "Workflow planen",
66
- "builtins.lobe-group-management.apiName.executeTask": "Aufgabe ausführen",
65
+ "builtins.lobe-group-management.apiName.executeAgentTask": "Agentenaufgabe ausführen",
66
+ "builtins.lobe-group-management.apiName.executeAgentTasks": "Parallele Agentenaufgaben ausführen",
67
67
  "builtins.lobe-group-management.apiName.getAgentInfo": "Mitgliedsinformationen abrufen",
68
68
  "builtins.lobe-group-management.apiName.interrupt": "Aufgabe unterbrechen",
69
- "builtins.lobe-group-management.apiName.inviteAgent": "Mitglied einladen",
70
- "builtins.lobe-group-management.apiName.removeAgent": "Mitglied entfernen",
71
- "builtins.lobe-group-management.apiName.searchAgent": "Relevante Experten finden",
72
69
  "builtins.lobe-group-management.apiName.speak": "Zugewiesenes Mitglied spricht",
73
70
  "builtins.lobe-group-management.apiName.summarize": "Gespräch zusammenfassen",
74
71
  "builtins.lobe-group-management.apiName.vote": "Abstimmung starten",
75
72
  "builtins.lobe-group-management.inspector.broadcast.title": "Folgende Agenten sprechen:",
73
+ "builtins.lobe-group-management.inspector.executeAgentTasks.title": "Aufgaben zuweisen an:",
76
74
  "builtins.lobe-group-management.inspector.speak.title": "Zugewiesener Agent spricht:",
77
75
  "builtins.lobe-group-management.title": "Gruppenkoordinator",
78
76
  "builtins.lobe-gtd.apiName.clearTodos": "To-dos löschen",
@@ -175,6 +173,7 @@
175
173
  "builtins.lobe-user-memory.apiName.removeIdentityMemory": "Identitätsgedächtnis löschen",
176
174
  "builtins.lobe-user-memory.apiName.searchUserMemory": "Gedächtnis durchsuchen",
177
175
  "builtins.lobe-user-memory.apiName.updateIdentityMemory": "Identitätsgedächtnis aktualisieren",
176
+ "builtins.lobe-user-memory.inspector.noResults": "Keine Ergebnisse",
178
177
  "builtins.lobe-user-memory.title": "Gedächtnis",
179
178
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Mehrere Seiten lesen",
180
179
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Seiteninhalt lesen",
@@ -173,8 +173,11 @@
173
173
  "llm.waitingForMoreLinkAriaLabel": "Anbieter-Anfrageformular öffnen",
174
174
  "marketPublish.forkConfirm.by": "von {{author}}",
175
175
  "marketPublish.forkConfirm.confirm": "Veröffentlichung bestätigen",
176
+ "marketPublish.forkConfirm.confirmGroup": "Veröffentlichung bestätigen",
176
177
  "marketPublish.forkConfirm.description": "Sie sind dabei, eine abgeleitete Version basierend auf einem bestehenden Agenten aus der Community zu veröffentlichen. Ihr neuer Agent wird als separater Eintrag im Marktplatz erstellt.",
178
+ "marketPublish.forkConfirm.descriptionGroup": "Sie sind dabei, eine abgeleitete Version basierend auf einer bestehenden Gruppe aus der Community zu veröffentlichen. Ihre neue Gruppe wird als separater Eintrag im Marktplatz erstellt.",
177
179
  "marketPublish.forkConfirm.title": "Abgeleiteten Agenten veröffentlichen",
180
+ "marketPublish.forkConfirm.titleGroup": "Abgeleitete Gruppe veröffentlichen",
178
181
  "marketPublish.modal.changelog.extra": "Beschreiben Sie die wichtigsten Änderungen und Verbesserungen in dieser Version",
179
182
  "marketPublish.modal.changelog.label": "Änderungsprotokoll",
180
183
  "marketPublish.modal.changelog.maxLengthError": "Das Änderungsprotokoll darf 500 Zeichen nicht überschreiten",
@@ -190,22 +193,28 @@
190
193
  "marketPublish.modal.identifier.required": "Bitte geben Sie die Agentenkennung ein",
191
194
  "marketPublish.modal.loading.fetchingRemote": "Remote-Daten werden geladen...",
192
195
  "marketPublish.modal.loading.submit": "Agent wird übermittelt...",
196
+ "marketPublish.modal.loading.submitGroup": "Gruppe wird übermittelt...",
193
197
  "marketPublish.modal.loading.upload": "Neue Version wird veröffentlicht...",
198
+ "marketPublish.modal.loading.uploadGroup": "Neue Gruppenversion wird veröffentlicht...",
194
199
  "marketPublish.modal.messages.createVersionFailed": "Version konnte nicht erstellt werden: {{message}}",
195
200
  "marketPublish.modal.messages.fetchRemoteFailed": "Remote-Agentendaten konnten nicht abgerufen werden",
196
201
  "marketPublish.modal.messages.missingIdentifier": "Dieser Agent hat noch keine Community-Kennung.",
202
+ "marketPublish.modal.messages.noGroup": "Keine Gruppe ausgewählt",
197
203
  "marketPublish.modal.messages.notAuthenticated": "Melden Sie sich zuerst bei Ihrem Community-Konto an.",
198
204
  "marketPublish.modal.messages.publishFailed": "Veröffentlichung fehlgeschlagen: {{message}}",
199
205
  "marketPublish.modal.submitButton": "Veröffentlichen",
200
206
  "marketPublish.modal.title.submit": "In der Agenten-Community teilen",
201
207
  "marketPublish.modal.title.upload": "Neue Version veröffentlichen",
202
208
  "marketPublish.resultModal.message": "Ihr Agent wurde zur Überprüfung eingereicht. Nach Freigabe wird er automatisch veröffentlicht.",
209
+ "marketPublish.resultModal.messageGroup": "Ihre Gruppe wurde zur Überprüfung eingereicht. Nach der Freigabe wird sie automatisch veröffentlicht.",
203
210
  "marketPublish.resultModal.title": "Erfolgreich eingereicht",
204
211
  "marketPublish.resultModal.view": "In der Community anzeigen",
205
212
  "marketPublish.submit.button": "In der Community teilen",
206
213
  "marketPublish.submit.tooltip": "Diesen Agenten in der Community teilen",
214
+ "marketPublish.submitGroup.tooltip": "Diese Gruppe mit der Community teilen",
207
215
  "marketPublish.upload.button": "Neue Version veröffentlichen",
208
216
  "marketPublish.upload.tooltip": "Eine neue Version in der Agenten-Community veröffentlichen",
217
+ "marketPublish.uploadGroup.tooltip": "Neue Version in der Gruppen-Community veröffentlichen",
209
218
  "memory.enabled.desc": "Erlauben Sie LobeHub, Vorlieben und Informationen aus Gesprächen zu extrahieren und später zu verwenden. Sie können den Speicher jederzeit einsehen, bearbeiten oder löschen.",
210
219
  "memory.enabled.title": "Speicher aktivieren",
211
220
  "memory.title": "Speichereinstellungen",
@@ -254,6 +263,7 @@
254
263
  "plugin.settings.title": "{{id}} Fähigkeitenkonfiguration",
255
264
  "plugin.settings.tooltip": "Fähigkeitenkonfiguration",
256
265
  "plugin.store": "Fähigkeiten-Store",
266
+ "publishToCommunity": "In der Community veröffentlichen",
257
267
  "settingAgent.avatar.sizeExceeded": "Bildgröße überschreitet das Limit von 1 MB, bitte wählen Sie ein kleineres Bild",
258
268
  "settingAgent.avatar.title": "Avatar",
259
269
  "settingAgent.backgroundColor.title": "Hintergrundfarbe",
@@ -483,6 +493,7 @@
483
493
  "submitAgentModal.placeholder": "Geben Sie eine eindeutige Kennung für den Agenten ein, z. B. web-entwicklung",
484
494
  "submitAgentModal.success": "Agent erfolgreich eingereicht",
485
495
  "submitAgentModal.tooltips": "In der Agenten-Community teilen",
496
+ "submitGroupModal.tooltips": "In der Gruppen-Community teilen",
486
497
  "sync.device.deviceName.hint": "Fügen Sie einen Namen zur leichteren Identifizierung hinzu",
487
498
  "sync.device.deviceName.placeholder": "Gerätenamen eingeben",
488
499
  "sync.device.deviceName.title": "Gerätename",
@@ -54,6 +54,8 @@
54
54
  "funds.packages.expiresIn": "Läuft in {{days}} Tagen ab",
55
55
  "funds.packages.expiresToday": "Läuft heute ab",
56
56
  "funds.packages.expiringSoon": "Läuft bald ab",
57
+ "funds.packages.gift": "Geschenk",
58
+ "funds.packages.giftedOn": "Verschenkt am {{date}}",
57
59
  "funds.packages.noPackages": "Keine Guthabenpakete",
58
60
  "funds.packages.purchaseFirst": "Kaufe dein erstes Guthabenpaket",
59
61
  "funds.packages.purchasedOn": "Gekauft am {{date}}",
@@ -15,6 +15,8 @@
15
15
  "agentGroupManagement.executeTask.thread": "Thread-ID",
16
16
  "agentGroupManagement.executeTask.timeout": "Ausführung abgelaufen",
17
17
  "agentGroupManagement.executeTask.tokens": "Token-Verbrauch",
18
+ "agentGroupManagement.executeTasks.intervention.instructionPlaceholder": "Detaillierte Anweisung für den Agenten zur Ausführung dieser Aufgabe...",
19
+ "agentGroupManagement.executeTasks.intervention.titlePlaceholder": "Aufgabentitel...",
18
20
  "codeInterpreter-legacy.error": "Ausführungsfehler",
19
21
  "codeInterpreter-legacy.executing": "Wird ausgeführt...",
20
22
  "codeInterpreter-legacy.files": "Dateien:",
@@ -103,7 +103,7 @@
103
103
  "Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is a 671B-parameter MoE model using MLA and DeepSeekMoE with loss-free load balancing for efficient inference and training. Pretrained on 14.8T high-quality tokens and further tuned with SFT and RL, it outperforms other open models and approaches leading closed models.",
104
104
  "Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is the newest and most powerful Kimi K2. It is a top-tier MoE model with 1T total and 32B active parameters. Key features include stronger agentic coding intelligence with significant gains on benchmarks and real-world agent tasks, plus improved frontend coding aesthetics and usability.",
105
105
  "Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is the Turbo variant optimized for reasoning speed and throughput while retaining K2 Thinking’s multi-step reasoning and tool use. It is an MoE model with ~1T total parameters, native 256K context, and stable large-scale tool calling for production scenarios with stricter latency and concurrency needs.",
106
- "Pro/zai-org/glm-4.7.description": "GLM-4.7 是智谱新一代旗舰模型,总参数量 355B,激活参数量 32B,在通用对话、推理和智能体能力方面全面升级。GLM-4.7 增强了 Interleaved Thinking(交错思考),并引入了 Preserved Thinking(保留思考)和 Turn-level Thinking(轮级思考)。",
106
+ "Pro/zai-org/glm-4.7.description": "GLM-4.7 is Zhipu's new generation flagship model with 355B total parameters and 32B active parameters, fully upgraded in general dialogue, reasoning, and agent capabilities. GLM-4.7 enhances Interleaved Thinking and introduces Preserved Thinking and Turn-level Thinking.",
107
107
  "QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improving reasoning.",
108
108
  "Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview is a research model from Qwen focused on visual reasoning, with strengths in complex scene understanding and visual math problems.",
109
109
  "Qwen/QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improved AI reasoning.",
@@ -388,7 +388,7 @@
388
388
  "deepseek-v3.1:671b.description": "DeepSeek V3.1 is a next-generation reasoning model with improved complex reasoning and chain-of-thought, suited for tasks requiring deep analysis.",
389
389
  "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduces sparse attention to improve training and inference efficiency on long text, at a lower price than deepseek-v3.1.",
390
390
  "deepseek-v3.2-think.description": "DeepSeek V3.2 Think is a full deep-thinking model with stronger long-chain reasoning.",
391
- "deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首个将思考融入工具使用的混合推理模型,用高效架构省算力、大规模强化学习提能力、大规模合成任务数据强泛化,三者结合性能媲美 GPT-5-High,输出长度大幅降低,显著减少了计算开销与用户等待时间。",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 is the first hybrid reasoning model from DeepSeek that integrates thinking into tool usage. It uses efficient architecture to save computation, large-scale reinforcement learning to enhance capabilities, and large-scale synthetic task data to strengthen generalization. The combination of these three achieves performance comparable to GPT-5-High, with significantly reduced output length, notably decreasing computational overhead and user wait times.",
392
392
  "deepseek-v3.description": "DeepSeek-V3 is a powerful MoE model with 671B total parameters and 37B active per token.",
393
393
  "deepseek-vl2-small.description": "DeepSeek VL2 Small is a lightweight multimodal version for resource-constrained and high-concurrency use.",
394
394
  "deepseek-vl2.description": "DeepSeek VL2 is a multimodal model for image-text understanding and fine-grained visual QA.",
@@ -434,7 +434,7 @@
434
434
  "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6-thinking significantly strengthens reasoning, further improving core abilities in coding, math, and logical reasoning over Doubao-1.5-thinking-pro, while adding vision understanding. It supports a 256k context window and up to 16k output tokens.",
435
435
  "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision is a visual deep-reasoning model that delivers stronger multimodal understanding and reasoning for education, image review, inspection/security, and AI search Q&A. It supports a 256k context window and up to 64k output tokens.",
436
436
  "doubao-seed-1.6.description": "Doubao-Seed-1.6 is a new multimodal deep-reasoning model with auto, thinking, and non-thinking modes. In non-thinking mode, it significantly outperforms Doubao-1.5-pro/250115. It supports a 256k context window and up to 16k output tokens.",
437
- "doubao-seed-1.8.description": "Doubao-Seed-1.8 有着更强的多模态理解能力和 Agent 能力,支持文本/图片/视频输入与上下文缓存,可在复杂任务中提供更出色的表现。",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 has stronger multimodal understanding and Agent capabilities, supports text/image/video input and context caching, and can deliver excellent performance in complex tasks.",
438
438
  "doubao-seed-code.description": "Doubao-Seed-Code is deeply optimized for agentic coding, supports multimodal inputs (text/image/video) and a 256k context window, is compatible with the Anthropic API, and fits coding, vision understanding, and agent workflows.",
439
439
  "doubao-seededit-3-0-i2i-250628.description": "The Doubao image model from ByteDance Seed supports text and image inputs with highly controllable, high-quality image generation. It supports text-guided image editing, with output sizes between 512 and 1536 on the long side.",
440
440
  "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
@@ -560,8 +560,8 @@
560
560
  "glm-4.5-x.description": "GLM-4.5 fast edition, delivering strong performance with generation speeds up to 100 tokens/sec.",
561
561
  "glm-4.5.description": "Zhipu flagship model with a switchable thinking mode, delivering open-source SOTA overall and up to 128K context.",
562
562
  "glm-4.5v.description": "Zhipu’s next-generation MoE vision reasoning model has 106B total parameters with 12B active, achieving SOTA among similarly sized open-source multimodal models across image, video, document understanding, and GUI tasks.",
563
- "glm-4.6.description": "智谱最新旗舰模型 GLM-4.6 (355B) 在高级编码、长文本处理、推理与智能体能力上全面超越前代,尤其在编程能力上对齐 Claude Sonnet 4,成为国内顶尖的 Coding 模型。",
564
- "glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的领先表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts Agentic Coding 的前端美感和长程任务完成效率进一步提升。",
563
+ "glm-4.6.description": "Zhipu's latest flagship model GLM-4.6 (355B) fully surpasses its predecessors in advanced coding, long-text processing, reasoning, and agent capabilities. It particularly aligns with Claude Sonnet 4 in programming ability, becoming China's top Coding model.",
564
+ "glm-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, enhanced for Agentic Coding scenarios with improved coding capabilities, long-term task planning, and tool collaboration. It achieves leading performance among open-source models on multiple public benchmarks. General capabilities are improved with more concise and natural responses and more immersive writing. For complex agent tasks, instruction following during tool calls is stronger, and the frontend aesthetics and long-term task completion efficiency of Artifacts and Agentic Coding are further enhanced.",
565
565
  "glm-4.description": "GLM-4 is the older flagship released in Jan 2024, now replaced by the stronger GLM-4-0520.",
566
566
  "glm-4v-flash.description": "GLM-4V-Flash focuses on efficient single-image understanding for fast analysis scenarios such as real-time or batch image processing.",
567
567
  "glm-4v-plus-0111.description": "GLM-4V-Plus understands video and multiple images, suitable for multimodal tasks.",
@@ -864,8 +864,9 @@
864
864
  "microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B is Microsoft AI’s most advanced Wizard model with highly competitive performance.",
865
865
  "mimo-v2-flash.description": "MiMo-V2-Flash: An efficient model for reasoning, coding, and agent foundations.",
866
866
  "minicpm-v.description": "MiniCPM-V is OpenBMB’s next-generation multimodal model with excellent OCR and multimodal understanding for wide-ranging use cases.",
867
- "minimax-m2.1.description": "MiniMax-M2.1 MiniMax 系列的最新版本,专为多语言编程和真实世界复杂任务优化。作为一款 AI 原生模型,MiniMax-M2.1 在模型性能、智能体框架支持以及多场景适配方面实现了显著提升,旨在帮助企业和个人更快地找到 AI 原生的工作与生活方式。",
867
+ "minimax-m2.1.description": "MiniMax-M2.1 is the latest version of the MiniMax series, optimized for multilingual programming and real-world complex tasks. As an AI-native model, MiniMax-M2.1 achieves significant improvements in model performance, agent framework support, and multi-scenario adaptation, aiming to help enterprises and individuals find AI-native work and lifestyle more quickly.",
868
868
  "minimax-m2.description": "MiniMax M2 is an efficient large language model built specifically for coding and agent workflows.",
869
+ "minimax/minimax-m2.1.description": "MiniMax-M2.1 is a lightweight, cutting-edge large language model optimized for coding, proxy workflows, and modern application development, providing cleaner, more concise output and faster perceptual response times.",
869
870
  "minimax/minimax-m2.description": "MiniMax-M2 is a high-value model that excels at coding and agent tasks for many engineering scenarios.",
870
871
  "minimaxai/minimax-m2.description": "MiniMax-M2 is a compact, fast, cost-effective MoE model (230B total, 10B active) built for top-tier coding and agent performance while retaining strong general intelligence. It excels at multi-file edits, code-run-fix loops, test validation, and complex toolchains.",
871
872
  "ministral-3b-latest.description": "Ministral 3B is Mistral’s top-tier edge model.",
@@ -1219,6 +1220,7 @@
1219
1220
  "z-ai/glm-4.5-air.description": "GLM 4.5 Air is a lightweight GLM 4.5 variant for cost-sensitive scenarios while retaining strong reasoning.",
1220
1221
  "z-ai/glm-4.5.description": "GLM 4.5 is Z.AI’s flagship model with hybrid reasoning optimized for engineering and long-context tasks.",
1221
1222
  "z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's flagship model with extended context length and coding capability.",
1223
+ "z-ai/glm-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, offering improved general capabilities, simpler and more natural replies, and a more immersive writing experience.",
1222
1224
  "zai-glm-4.6.description": "Performs well on coding and reasoning tasks, supports streaming and tool calls, and fits agentic coding and complex reasoning.",
1223
1225
  "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is a base model for agent applications using a Mixture-of-Experts architecture. It is optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.",
1224
1226
  "zai-org/GLM-4.5.description": "GLM-4.5 is a base model built for agent applications using a Mixture-of-Experts architecture. It is deeply optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.",
@@ -40,6 +40,7 @@
40
40
  "builtins.lobe-cloud-sandbox.title": "Cloud Sandbox",
41
41
  "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Batch create agents",
42
42
  "builtins.lobe-group-agent-builder.apiName.createAgent": "Create agent",
43
+ "builtins.lobe-group-agent-builder.apiName.getAgentInfo": "Get member info",
43
44
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Get available models",
44
45
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "Install Skill",
45
46
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "Invite member",
@@ -70,7 +71,8 @@
70
71
  "builtins.lobe-group-management.apiName.summarize": "Summarize conversation",
71
72
  "builtins.lobe-group-management.apiName.vote": "Start vote",
72
73
  "builtins.lobe-group-management.inspector.broadcast.title": "Following Agents speak:",
73
- "builtins.lobe-group-management.inspector.executeAgentTask.title": "Assigning task to:",
74
+ "builtins.lobe-group-management.inspector.executeAgentTask.assignTo": "Assign",
75
+ "builtins.lobe-group-management.inspector.executeAgentTask.task": "task:",
74
76
  "builtins.lobe-group-management.inspector.executeAgentTasks.title": "Assigning tasks to:",
75
77
  "builtins.lobe-group-management.inspector.speak.title": "Designated Agent speaks:",
76
78
  "builtins.lobe-group-management.title": "Group Coordinator",
@@ -175,9 +177,6 @@
175
177
  "builtins.lobe-user-memory.apiName.searchUserMemory": "Search memory",
176
178
  "builtins.lobe-user-memory.apiName.updateIdentityMemory": "Update identity memory",
177
179
  "builtins.lobe-user-memory.inspector.noResults": "No results",
178
- "builtins.lobe-user-memory.render.contexts": "Contexts",
179
- "builtins.lobe-user-memory.render.experiences": "Experiences",
180
- "builtins.lobe-user-memory.render.preferences": "Preferences",
181
180
  "builtins.lobe-user-memory.title": "Memory",
182
181
  "builtins.lobe-web-browsing.apiName.crawlMultiPages": "Read multiple pages",
183
182
  "builtins.lobe-web-browsing.apiName.crawlSinglePage": "Read page content",