@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.274

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (296) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +7 -0
  4. package/locales/ar/common.json +1 -1
  5. package/locales/ar/discover.json +2 -2
  6. package/locales/ar/models.json +40 -12
  7. package/locales/ar/onboarding.json +1 -1
  8. package/locales/ar/plugin.json +22 -1
  9. package/locales/ar/providers.json +0 -1
  10. package/locales/bg-BG/chat.json +7 -0
  11. package/locales/bg-BG/common.json +2 -0
  12. package/locales/bg-BG/discover.json +2 -2
  13. package/locales/bg-BG/models.json +48 -13
  14. package/locales/bg-BG/onboarding.json +1 -1
  15. package/locales/bg-BG/plugin.json +22 -1
  16. package/locales/bg-BG/providers.json +0 -1
  17. package/locales/de-DE/chat.json +7 -0
  18. package/locales/de-DE/common.json +2 -0
  19. package/locales/de-DE/discover.json +2 -2
  20. package/locales/de-DE/models.json +37 -13
  21. package/locales/de-DE/onboarding.json +3 -0
  22. package/locales/de-DE/plugin.json +22 -1
  23. package/locales/de-DE/providers.json +0 -1
  24. package/locales/en-US/chat.json +7 -0
  25. package/locales/en-US/discover.json +2 -2
  26. package/locales/en-US/models.json +15 -15
  27. package/locales/en-US/plugin.json +22 -1
  28. package/locales/en-US/providers.json +0 -1
  29. package/locales/es-ES/chat.json +7 -0
  30. package/locales/es-ES/common.json +2 -0
  31. package/locales/es-ES/discover.json +2 -2
  32. package/locales/es-ES/models.json +32 -14
  33. package/locales/es-ES/onboarding.json +3 -0
  34. package/locales/es-ES/plugin.json +22 -1
  35. package/locales/es-ES/providers.json +0 -1
  36. package/locales/fa-IR/chat.json +7 -0
  37. package/locales/fa-IR/common.json +2 -0
  38. package/locales/fa-IR/discover.json +2 -2
  39. package/locales/fa-IR/models.json +36 -14
  40. package/locales/fa-IR/onboarding.json +3 -0
  41. package/locales/fa-IR/plugin.json +22 -1
  42. package/locales/fa-IR/providers.json +0 -1
  43. package/locales/fr-FR/chat.json +7 -0
  44. package/locales/fr-FR/common.json +2 -0
  45. package/locales/fr-FR/discover.json +2 -2
  46. package/locales/fr-FR/models.json +95 -13
  47. package/locales/fr-FR/onboarding.json +3 -0
  48. package/locales/fr-FR/plugin.json +22 -1
  49. package/locales/fr-FR/providers.json +0 -1
  50. package/locales/it-IT/chat.json +7 -0
  51. package/locales/it-IT/common.json +2 -0
  52. package/locales/it-IT/discover.json +2 -2
  53. package/locales/it-IT/models.json +8 -13
  54. package/locales/it-IT/onboarding.json +3 -0
  55. package/locales/it-IT/plugin.json +22 -1
  56. package/locales/it-IT/providers.json +0 -1
  57. package/locales/ja-JP/chat.json +7 -0
  58. package/locales/ja-JP/common.json +2 -0
  59. package/locales/ja-JP/discover.json +2 -2
  60. package/locales/ja-JP/models.json +76 -8
  61. package/locales/ja-JP/onboarding.json +3 -0
  62. package/locales/ja-JP/plugin.json +22 -1
  63. package/locales/ja-JP/providers.json +0 -1
  64. package/locales/ko-KR/chat.json +7 -0
  65. package/locales/ko-KR/common.json +2 -0
  66. package/locales/ko-KR/discover.json +2 -2
  67. package/locales/ko-KR/models.json +8 -15
  68. package/locales/ko-KR/onboarding.json +3 -0
  69. package/locales/ko-KR/plugin.json +22 -1
  70. package/locales/ko-KR/providers.json +0 -1
  71. package/locales/nl-NL/chat.json +7 -0
  72. package/locales/nl-NL/common.json +2 -0
  73. package/locales/nl-NL/discover.json +2 -2
  74. package/locales/nl-NL/models.json +98 -9
  75. package/locales/nl-NL/onboarding.json +3 -0
  76. package/locales/nl-NL/plugin.json +22 -1
  77. package/locales/nl-NL/providers.json +0 -1
  78. package/locales/pl-PL/chat.json +7 -0
  79. package/locales/pl-PL/common.json +2 -0
  80. package/locales/pl-PL/discover.json +2 -2
  81. package/locales/pl-PL/models.json +38 -13
  82. package/locales/pl-PL/onboarding.json +3 -0
  83. package/locales/pl-PL/plugin.json +22 -1
  84. package/locales/pl-PL/providers.json +0 -1
  85. package/locales/pt-BR/chat.json +7 -0
  86. package/locales/pt-BR/common.json +2 -0
  87. package/locales/pt-BR/discover.json +2 -2
  88. package/locales/pt-BR/models.json +50 -13
  89. package/locales/pt-BR/onboarding.json +3 -0
  90. package/locales/pt-BR/plugin.json +22 -1
  91. package/locales/pt-BR/providers.json +0 -1
  92. package/locales/ru-RU/chat.json +7 -0
  93. package/locales/ru-RU/common.json +2 -0
  94. package/locales/ru-RU/discover.json +2 -2
  95. package/locales/ru-RU/models.json +54 -13
  96. package/locales/ru-RU/onboarding.json +3 -0
  97. package/locales/ru-RU/plugin.json +22 -1
  98. package/locales/ru-RU/providers.json +0 -1
  99. package/locales/tr-TR/chat.json +7 -0
  100. package/locales/tr-TR/common.json +2 -0
  101. package/locales/tr-TR/discover.json +2 -2
  102. package/locales/tr-TR/models.json +40 -13
  103. package/locales/tr-TR/onboarding.json +3 -0
  104. package/locales/tr-TR/plugin.json +22 -1
  105. package/locales/tr-TR/providers.json +0 -1
  106. package/locales/vi-VN/chat.json +7 -0
  107. package/locales/vi-VN/common.json +2 -0
  108. package/locales/vi-VN/discover.json +2 -2
  109. package/locales/vi-VN/models.json +8 -8
  110. package/locales/vi-VN/onboarding.json +3 -0
  111. package/locales/vi-VN/plugin.json +22 -1
  112. package/locales/vi-VN/providers.json +0 -1
  113. package/locales/zh-CN/chat.json +7 -0
  114. package/locales/zh-CN/discover.json +2 -2
  115. package/locales/zh-CN/models.json +95 -13
  116. package/locales/zh-CN/onboarding.json +3 -0
  117. package/locales/zh-CN/plugin.json +22 -1
  118. package/locales/zh-CN/providers.json +0 -1
  119. package/locales/zh-TW/chat.json +7 -0
  120. package/locales/zh-TW/common.json +2 -0
  121. package/locales/zh-TW/discover.json +2 -2
  122. package/locales/zh-TW/models.json +86 -13
  123. package/locales/zh-TW/onboarding.json +3 -0
  124. package/locales/zh-TW/plugin.json +22 -1
  125. package/locales/zh-TW/providers.json +0 -1
  126. package/package.json +1 -1
  127. package/packages/builtin-tool-agent-builder/package.json +1 -0
  128. package/packages/builtin-tool-agent-builder/src/client/Inspector/GetAvailableModels/index.tsx +66 -0
  129. package/packages/builtin-tool-agent-builder/src/client/Inspector/InstallPlugin/index.tsx +63 -0
  130. package/packages/builtin-tool-agent-builder/src/client/Inspector/SearchMarketTools/index.tsx +64 -0
  131. package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdateConfig/index.tsx +94 -0
  132. package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdatePrompt/index.tsx +96 -0
  133. package/packages/builtin-tool-agent-builder/src/client/Inspector/index.ts +29 -0
  134. package/packages/builtin-tool-agent-builder/src/client/index.ts +13 -0
  135. package/packages/builtin-tool-agent-builder/src/executor.ts +132 -0
  136. package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/ExecuteCode/index.tsx +5 -14
  137. package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/RunCommand/index.tsx +5 -13
  138. package/packages/builtin-tool-group-agent-builder/package.json +7 -1
  139. package/packages/builtin-tool-group-agent-builder/src/ExecutionRuntime/index.ts +331 -87
  140. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/BatchCreateAgents/index.tsx +110 -0
  141. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/CreateAgent/index.tsx +72 -0
  142. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/InviteAgent/index.tsx +57 -0
  143. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/RemoveAgent/index.tsx +57 -0
  144. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/SearchAgent/index.tsx +66 -0
  145. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateAgentPrompt/index.tsx +120 -0
  146. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroup/index.tsx +87 -0
  147. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroupPrompt/index.tsx +99 -0
  148. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/index.ts +52 -0
  149. package/packages/builtin-tool-group-agent-builder/src/client/Render/BatchCreateAgents.tsx +103 -0
  150. package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateAgentPrompt/index.tsx +36 -0
  151. package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateGroupPrompt/index.tsx +36 -0
  152. package/packages/builtin-tool-group-agent-builder/src/client/Render/index.ts +16 -0
  153. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/BatchCreateAgents/index.tsx +88 -0
  154. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateAgentPrompt/index.tsx +37 -0
  155. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateGroupPrompt/index.tsx +35 -0
  156. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/index.ts +22 -0
  157. package/packages/builtin-tool-group-agent-builder/src/client/index.ts +26 -0
  158. package/packages/builtin-tool-group-agent-builder/src/executor.ts +284 -0
  159. package/packages/builtin-tool-group-agent-builder/src/index.ts +1 -14
  160. package/packages/builtin-tool-group-agent-builder/src/manifest.ts +160 -15
  161. package/packages/builtin-tool-group-agent-builder/src/systemRole.ts +232 -46
  162. package/packages/builtin-tool-group-agent-builder/src/types.ts +191 -41
  163. package/packages/builtin-tool-group-management/src/client/Inspector/Broadcast/index.tsx +2 -2
  164. package/packages/builtin-tool-group-management/src/manifest.ts +1 -1
  165. package/packages/builtin-tool-gtd/src/client/Inspector/ClearTodos/index.tsx +5 -11
  166. package/packages/builtin-tool-gtd/src/client/Inspector/CompleteTodos/index.tsx +3 -9
  167. package/packages/builtin-tool-gtd/src/client/Inspector/CreatePlan/index.tsx +6 -15
  168. package/packages/builtin-tool-gtd/src/client/Inspector/CreateTodos/index.tsx +3 -9
  169. package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +6 -17
  170. package/packages/builtin-tool-gtd/src/client/Inspector/RemoveTodos/index.tsx +3 -9
  171. package/packages/builtin-tool-gtd/src/client/Inspector/UpdatePlan/index.tsx +3 -9
  172. package/packages/builtin-tool-gtd/src/client/Inspector/UpdateTodos/index.tsx +3 -9
  173. package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +4 -16
  174. package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +5 -16
  175. package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +4 -12
  176. package/packages/builtin-tool-local-system/src/client/Inspector/GlobLocalFiles/index.tsx +5 -13
  177. package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +5 -16
  178. package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +5 -16
  179. package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +5 -16
  180. package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +5 -11
  181. package/packages/builtin-tool-local-system/src/client/Inspector/RunCommand/index.tsx +5 -13
  182. package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +5 -16
  183. package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +6 -15
  184. package/packages/builtin-tool-notebook/src/client/Inspector/CreateDocument/index.tsx +7 -15
  185. package/packages/builtin-tool-page-agent/src/client/Inspector/EditTitle/index.tsx +5 -14
  186. package/packages/builtin-tool-page-agent/src/client/Inspector/GetPageContent/index.tsx +7 -8
  187. package/packages/builtin-tool-page-agent/src/client/Inspector/InitPage/index.tsx +4 -10
  188. package/packages/builtin-tool-page-agent/src/client/Inspector/ModifyNodes/index.tsx +3 -9
  189. package/packages/builtin-tool-page-agent/src/client/Inspector/ReplaceText/index.tsx +5 -11
  190. package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlMultiPages/index.tsx +6 -15
  191. package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlSinglePage/index.tsx +6 -15
  192. package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +4 -15
  193. package/packages/database/src/models/chatGroup.ts +1 -1
  194. package/packages/model-bank/src/aiModels/aihubmix.ts +2 -1
  195. package/packages/model-bank/src/aiModels/google.ts +2 -1
  196. package/packages/model-bank/src/aiModels/infiniai.ts +9 -6
  197. package/packages/model-bank/src/aiModels/minimax.ts +9 -5
  198. package/packages/model-bank/src/aiModels/ollamacloud.ts +4 -2
  199. package/packages/model-bank/src/aiModels/vertexai.ts +2 -1
  200. package/packages/types/src/agentGroup/index.ts +8 -0
  201. package/patches/@upstash__qstash.patch +13 -1
  202. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Header/Nav.tsx +1 -1
  203. package/src/app/[variants]/(main)/agent/cron/[cronId]/index.tsx +4 -3
  204. package/src/app/[variants]/(main)/agent/profile/features/ProfileEditor/index.tsx +1 -1
  205. package/src/app/[variants]/(main)/agent/profile/features/store/action.ts +18 -21
  206. package/src/app/[variants]/(main)/group/_layout/GroupIdSync.tsx +6 -1
  207. package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/AgentProfilePopup.tsx +29 -21
  208. package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMember.tsx +1 -0
  209. package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMemberItem.tsx +35 -18
  210. package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/AddTopicButon.tsx +2 -10
  211. package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/Nav.tsx +10 -2
  212. package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/index.tsx +1 -2
  213. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/AgentBuilderProvider.tsx +1 -0
  214. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +15 -9
  215. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/index.tsx +12 -6
  216. package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor/AgentHeader.tsx → GroupProfile/GroupHeader.tsx} +22 -29
  217. package/src/app/[variants]/(main)/group/profile/features/GroupProfile/index.tsx +96 -0
  218. package/src/app/[variants]/(main)/group/profile/features/Header/AgentBuilderToggle.tsx +3 -4
  219. package/src/app/[variants]/(main)/group/profile/features/Header/AutoSaveHint.tsx +11 -7
  220. package/src/app/[variants]/(main)/group/profile/features/Header/ChromeTabs/index.tsx +147 -0
  221. package/src/app/[variants]/(main)/group/profile/features/Header/index.tsx +104 -13
  222. package/src/app/[variants]/(main)/group/profile/features/MemberProfile/AgentHeader.tsx +222 -0
  223. package/src/app/[variants]/(main)/group/profile/features/MemberProfile/index.tsx +155 -0
  224. package/src/app/[variants]/(main)/group/profile/features/ProfileHydration.tsx +63 -5
  225. package/src/app/[variants]/(main)/group/profile/index.tsx +34 -37
  226. package/src/app/[variants]/(mobile)/(home)/_layout/SessionHydration.tsx +1 -1
  227. package/src/app/[variants]/(mobile)/(home)/features/SessionListContent/List/Item/index.tsx +1 -1
  228. package/src/features/AgentBuilder/index.tsx +16 -1
  229. package/src/features/Conversation/Messages/AssistantGroup/Tool/Inspector/StatusIndicator.tsx +3 -2
  230. package/src/features/EditorCanvas/EditorCanvas.test.tsx +206 -0
  231. package/src/features/EditorCanvas/EditorDataMode.tsx +53 -19
  232. package/src/features/EditorModal/index.tsx +2 -2
  233. package/src/features/NavPanel/components/SessionHydration.tsx +1 -1
  234. package/src/features/ShareModal/ShareImage/ChatList/index.tsx +1 -1
  235. package/src/features/ShareModal/SharePdf/index.tsx +1 -1
  236. package/src/hooks/useBidirectionalQuerySync.ts +112 -0
  237. package/src/locales/default/chat.ts +10 -0
  238. package/src/locales/default/plugin.ts +22 -1
  239. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +45 -45
  240. package/src/server/modules/KeyVaultsEncrypt/index.ts +6 -6
  241. package/src/server/modules/S3/index.ts +1 -1
  242. package/src/server/routers/lambda/agent.ts +24 -0
  243. package/src/server/routers/lambda/agentGroup.ts +39 -0
  244. package/src/services/agent.ts +22 -0
  245. package/src/services/chatGroup/index.ts +14 -0
  246. package/src/store/agent/selectors/selectors.ts +3 -0
  247. package/src/store/agentGroup/initialState.ts +6 -0
  248. package/src/store/agentGroup/selectors/byId.ts +3 -1
  249. package/src/store/agentGroup/selectors/current.ts +2 -2
  250. package/src/store/agentGroup/slices/lifecycle.ts +18 -0
  251. package/src/store/chat/agents/__tests__/createAgentExecutors/fixtures/mockStore.ts +1 -1
  252. package/src/store/chat/slices/aiAgent/actions/__tests__/agentGroup.test.ts +4 -1
  253. package/src/store/chat/slices/aiAgent/actions/agentGroup.ts +1 -1
  254. package/src/store/chat/slices/aiChat/actions/__tests__/conversationLifecycle.test.ts +65 -0
  255. package/src/store/chat/slices/aiChat/actions/conversationLifecycle.ts +2 -1
  256. package/src/store/chat/slices/builtinTool/actions/__tests__/search.test.ts +1 -1
  257. package/src/store/chat/slices/builtinTool/actions/index.ts +1 -6
  258. package/src/store/chat/slices/message/action.test.ts +5 -5
  259. package/src/store/chat/slices/message/actions/publicApi.ts +5 -5
  260. package/src/store/chat/slices/message/initialState.ts +0 -5
  261. package/src/store/chat/slices/message/selectors/displayMessage.test.ts +4 -4
  262. package/src/store/chat/slices/plugin/action.test.ts +54 -19
  263. package/src/store/chat/slices/plugin/actions/pluginTypes.ts +15 -21
  264. package/src/store/chat/slices/topic/action.test.ts +74 -24
  265. package/src/store/chat/slices/topic/action.ts +21 -13
  266. package/src/store/chat/slices/topic/selectors.test.ts +1 -1
  267. package/src/store/global/initialState.ts +10 -0
  268. package/src/store/global/selectors/systemStatus.ts +5 -0
  269. package/src/store/groupProfile/action.ts +168 -0
  270. package/src/store/groupProfile/index.ts +16 -0
  271. package/src/{app/[variants]/(main)/group/profile/features/store → store/groupProfile}/initialState.ts +17 -0
  272. package/src/store/groupProfile/selectors.ts +13 -0
  273. package/src/store/tool/slices/builtin/executors/index.ts +4 -0
  274. package/src/styles/text.ts +16 -0
  275. package/src/tools/inspectors.ts +13 -0
  276. package/src/tools/renders.ts +3 -0
  277. package/src/tools/streamings.ts +8 -0
  278. package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/TypoBar.tsx +0 -129
  279. package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/index.tsx +0 -138
  280. package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/useSlashItems.tsx +0 -139
  281. package/src/app/[variants]/(main)/group/profile/features/ProfileEditor/index.tsx +0 -82
  282. package/src/app/[variants]/(main)/group/profile/features/ProfileProvider.tsx +0 -20
  283. package/src/app/[variants]/(main)/group/profile/features/StoreUpdater.tsx +0 -24
  284. package/src/app/[variants]/(main)/group/profile/features/store/action.ts +0 -163
  285. package/src/app/[variants]/(main)/group/profile/features/store/index.ts +0 -23
  286. package/src/app/[variants]/(main)/group/profile/features/store/selectors.ts +0 -7
  287. package/src/features/EditorModal/EditorCanvas.tsx +0 -84
  288. package/src/features/EditorModal/Typobar.tsx +0 -139
  289. package/src/store/chat/slices/builtinTool/actions/agentBuilder.ts +0 -192
  290. package/src/store/chat/slices/builtinTool/actions/groupAgentBuilder.ts +0 -242
  291. package/src/tools/executionRuntimes.ts +0 -14
  292. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/AgentTool.tsx +0 -0
  293. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/MentionDropdown.tsx +0 -0
  294. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/index.tsx +0 -0
  295. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/types.ts +0 -0
  296. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/useMentionItems.tsx +0 -0
@@ -73,9 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick е голям MoE модел с ефективна активация на експерти за силна логическа производителност.",
74
74
  "MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
75
75
  "MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
76
- "MiniMax-M2.1-Lightning.description": "Мощни многоезични програмни възможности за цялостно подобрено програмиране. По-бързо, по-ефективно.",
77
- "MiniMax-M2.1.description": "Мощни многоезични програмни възможности за цялостно подобрено програмиране",
78
- "MiniMax-M2.description": "Създаден за ефективно кодиране и агентски работни потоци",
76
+ "MiniMax-M2.1-Lightning.description": "Мощни многоезични възможности за програмиране и цялостно подобрено програмистко изживяване. По-бързо и по-ефективно.",
77
+ "MiniMax-M2.1.description": "Мощни многоезични възможности за програмиране и цялостно подобрено програмистко изживяване",
78
+ "MiniMax-M2.description": "Създаден специално за ефективно програмиране и работни потоци с агенти",
79
79
  "MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
80
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е отворен модел с голям мащаб и хибридно внимание, с общо 456B параметри и ~45.9B активни на токен. Поддържа нативно 1M контекст и използва Flash Attention за 75% по-малко FLOPs при генериране на 100K токена спрямо DeepSeek R1. С MoE архитектура, CISPO и хибридно обучение с внимание и RL, постига водеща производителност при дълги входове и реални задачи по софтуерно инженерство.",
81
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 преосмисля ефективността на агентите. Това е компактен, бърз и икономичен MoE модел с 230B общо и 10B активни параметри, създаден за водещи задачи по програмиране и агенти, като същевременно запазва силен общ интелект. Със само 10B активни параметри, съперничи на много по-големи модели, което го прави идеален за приложения с висока ефективност.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
272
272
  "claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
273
273
  "claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, който подобрява уменията си и надминава предишния водещ модел Claude 3 Opus в много бенчмаркове.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрение в различни умения и надминава предишния най-голям модел Claude 3 Opus в много интелигентни бенчмаркове.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, предлагащ почти мигновени отговори или разширено мислене с прецизен контрол.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и задачи за агенти.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, отличаващ се със светкавична скорост и разширено мислене.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, превъзхождащ в производителност, интелигентност, плавност и разбиране.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено поетапно мислене с прецизен контрол за потребителите на API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено поетапно мислене с видим процес.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
289
289
  "codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
358
- "deepseek-chat.description": "DeepSeek V3.2 балансира разсъждение и дължина на изхода за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5 и това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворените агенти.",
358
+ "deepseek-chat.description": "Нов модел с отворен код, комбиниращ общи и програмни способности. Съчетава общия диалогов модел с мощен кодиращ модел и по-добро съответствие с предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
379
379
  "deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking е дълбок разсъждаващ модел, който генерира верига от мисли преди отговорите за по-висока точност, с водещи резултати в състезания и разсъждение, сравнимо с Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 извежда верига от мисли преди крайния отговор за повишена точност.",
382
382
  "deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K е ултралек модел за прости QA, класификация и нискоразходно извеждане.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа вход от текст и изображения за висококачествено и силно контролируемо генериране на изображения от подсказки.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ текстови и визуални входове с високо ниво на контрол и качество. Генерира изображения от текстови подсказки.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
480
480
  "fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
482
- "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, завъртане и други.",
483
- "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с отлично визуализиране на китайски текст и разнообразни визуални стилове.",
482
+ "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на китайски и английски текст, както и висококачествени трансформации като смяна на стил и въртене на обекти.",
483
+ "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо визуализиране на китайски текст и разнообразни визуални стилове.",
484
484
  "flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
485
485
  "flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
486
486
  "flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
@@ -491,6 +491,41 @@
491
491
  "flux-pro.description": "Висококласен търговски модел за генериране на изображения с несравнимо качество и разнообразие на изхода.",
492
492
  "flux-schnell.description": "FLUX.1 [schnell] е най-усъвършенстваният отворен модел с малко стъпки, надминаващ подобни конкуренти и дори силни недестилирани модели като Midjourney v6.0 и DALL-E 3 (HD). Фино настроен е да запази разнообразието от предварително обучение, значително подобрявайки визуалното качество, следването на инструкции, вариациите в размер/съотношение, обработката на шрифтове и разнообразието на изхода.",
493
493
  "flux.1-schnell.description": "FLUX.1-schnell е високопроизводителен модел за генериране на изображения с бърз изход в различни стилове.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) осигурява стабилна и настройваема производителност за комплексни задачи.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) предлага силна мултимодална поддръжка за комплексни задачи.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro е високопроизводителен AI модел на Google, проектиран за мащабиране на широк спектър от задачи.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 е ефективен мултимодален модел за мащабиране на приложения.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 е ефективен мултимодален модел, създаден за широко внедряване.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 е най-новият експериментален модел с значителни подобрения в текстови и мултимодални случаи на употреба.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B е ефективен мултимодален модел, създаден за широко внедряване.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B е ефективен мултимодален модел за мащабиране на приложения.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 предлага оптимизирана мултимодална обработка за комплексни задачи.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash е най-новият мултимодален AI модел на Google с бърза обработка, поддържащ текстови, визуални и видео входове за ефективно мащабиране на задачи.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 е мащабируемо мултимодално AI решение за комплексни задачи.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 е най-новият модел, готов за продукция, с по-високо качество на изхода, особено при математика, дълъг контекст и визуални задачи.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 осигурява силна мултимодална обработка с по-голяма гъвкавост за разработка на приложения.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 прилага последните оптимизации за по-ефективна мултимодална обработка.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro поддържа до 2 милиона токена, идеален среден по размер мултимодален модел за комплексни задачи.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Експериментален модел Gemini 2.0 Flash с поддръжка за генериране на изображения.",
511
+ "gemini-2.0-flash-exp.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
512
+ "gemini-2.0-flash-lite-001.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
513
+ "gemini-2.0-flash-lite.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview е най-изгодният модел на Google с пълни възможности.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash е най-изгодният модел на Google с пълни възможности.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
494
529
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
495
530
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
496
531
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@@ -63,4 +63,4 @@
63
63
  "username.title": "Между другото, как да ви наричам?",
64
64
  "username.title2": "Нека първо се опознаем!",
65
65
  "username.title3": "Така ще можем да си говорим по-естествено оттук нататък~"
66
- }
66
+ }
@@ -5,6 +5,7 @@
5
5
  "builtins.lobe-agent-builder.apiName.getConfig": "Извличане на конфигурация",
6
6
  "builtins.lobe-agent-builder.apiName.getMeta": "Извличане на метаданни",
7
7
  "builtins.lobe-agent-builder.apiName.getPrompt": "Извличане на системен подкана",
8
+ "builtins.lobe-agent-builder.apiName.installPlugin": "Инсталирай умение",
8
9
  "builtins.lobe-agent-builder.apiName.searchMarketTools": "Търсене в пазара за умения",
9
10
  "builtins.lobe-agent-builder.apiName.searchOfficialTools": "Търсене на официални умения",
10
11
  "builtins.lobe-agent-builder.apiName.setModel": "Задаване на модел",
@@ -15,6 +16,12 @@
15
16
  "builtins.lobe-agent-builder.apiName.updateConfig": "Актуализиране на конфигурацията",
16
17
  "builtins.lobe-agent-builder.apiName.updateMeta": "Актуализиране на метаданни",
17
18
  "builtins.lobe-agent-builder.apiName.updatePrompt": "Актуализиране на системен подкана",
19
+ "builtins.lobe-agent-builder.inspector.chars": " знака",
20
+ "builtins.lobe-agent-builder.inspector.disablePlugin": "Деактивирай",
21
+ "builtins.lobe-agent-builder.inspector.enablePlugin": "Активирай",
22
+ "builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} модела",
23
+ "builtins.lobe-agent-builder.inspector.noResults": "Няма резултати",
24
+ "builtins.lobe-agent-builder.inspector.togglePlugin": "Превключи",
18
25
  "builtins.lobe-agent-builder.title": "Експерт по изграждане на агенти",
19
26
  "builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Редактиране на файл",
20
27
  "builtins.lobe-cloud-sandbox.apiName.executeCode": "Изпълнение на код",
@@ -31,13 +38,27 @@
31
38
  "builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Търсене на файлове",
32
39
  "builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Запис на файл",
33
40
  "builtins.lobe-cloud-sandbox.title": "Облачна пясъчник среда",
41
+ "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Създай агенти на групи",
42
+ "builtins.lobe-group-agent-builder.apiName.createAgent": "Създай агент",
34
43
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Извличане на налични модели",
35
44
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "Инсталиране на умение",
36
45
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "Покана на член",
37
46
  "builtins.lobe-group-agent-builder.apiName.removeAgent": "Премахване на член",
47
+ "builtins.lobe-group-agent-builder.apiName.searchAgent": "Търси агенти",
38
48
  "builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Търсене в пазара за умения",
39
49
  "builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Актуализиране на конфигурацията на агента",
40
- "builtins.lobe-group-agent-builder.apiName.updatePrompt": "Актуализиране на системен подкана",
50
+ "builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Актуализирай подкана на агент",
51
+ "builtins.lobe-group-agent-builder.apiName.updateGroup": "Актуализирай група",
52
+ "builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Актуализирай подкана на група",
53
+ "builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Актуализирай подкана на супервайзър",
54
+ "builtins.lobe-group-agent-builder.inspector.agents": "агенти",
55
+ "builtins.lobe-group-agent-builder.inspector.avatar": "Аватар",
56
+ "builtins.lobe-group-agent-builder.inspector.backgroundColor": "Цвят на фона",
57
+ "builtins.lobe-group-agent-builder.inspector.description": "Описание",
58
+ "builtins.lobe-group-agent-builder.inspector.noResults": "Няма резултати",
59
+ "builtins.lobe-group-agent-builder.inspector.openingMessage": "Начално съобщение",
60
+ "builtins.lobe-group-agent-builder.inspector.openingQuestions": "Начални въпроси",
61
+ "builtins.lobe-group-agent-builder.inspector.title": "Заглавие",
41
62
  "builtins.lobe-group-agent-builder.title": "Експерт по изграждане на групи",
42
63
  "builtins.lobe-group-management.apiName.broadcast": "Всички говорят",
43
64
  "builtins.lobe-group-management.apiName.createAgent": "Добавяне на член в групата",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
30
30
  "jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
31
31
  "lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
32
- "lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
33
32
  "minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
34
33
  "mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
35
34
  "modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",
@@ -71,11 +71,18 @@
71
71
  "group.desc": "Bringen Sie eine Aufgabe mit mehreren Agenten in einem gemeinsamen Raum voran.",
72
72
  "group.memberTooltip": "Es gibt {{count}} Mitglieder in der Gruppe",
73
73
  "group.orchestratorThinking": "Orchestrator denkt nach...",
74
+ "group.profile.contentPlaceholder": "Legen Sie hier die Ziele/Arbeitsweisen der Gruppe fest. Diese Informationen werden mit allen Gruppenmitgliedern geteilt.",
75
+ "group.profile.external": "Extern",
76
+ "group.profile.externalAgentWarning": "Dies ist ein externer Agent. Änderungen, die hier vorgenommen werden, wirken sich direkt auf die ursprüngliche Agentenkonfiguration aus.",
77
+ "group.profile.groupSettings": "Gruppeneinstellungen",
78
+ "group.profile.supervisor": "Supervisor",
79
+ "group.profile.supervisorPlaceholder": "Der Supervisor koordiniert verschiedene Agenten. Durch das Festlegen der Supervisor-Informationen kann der Arbeitsablauf präziser abgestimmt werden.",
74
80
  "group.removeMember": "Mitglied entfernen",
75
81
  "group.title": "Gruppe",
76
82
  "groupDescription": "Gruppenbeschreibung",
77
83
  "groupSidebar.agentProfile.chat": "Chat",
78
84
  "groupSidebar.agentProfile.model": "Modell",
85
+ "groupSidebar.agentProfile.settings": "Einstellungen",
79
86
  "groupSidebar.members.addMember": "Mitglied hinzufügen",
80
87
  "groupSidebar.members.enableOrchestrator": "Orchestrator aktivieren",
81
88
  "groupSidebar.members.memberSettings": "Mitgliedseinstellungen",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Community-Agent",
135
135
  "cmdk.search.file": "Datei",
136
136
  "cmdk.search.files": "Dateien",
137
+ "cmdk.search.folder": "Ordner",
138
+ "cmdk.search.folders": "Ordner",
137
139
  "cmdk.search.loading": "Suche läuft...",
138
140
  "cmdk.search.market": "Community",
139
141
  "cmdk.search.mcp": "MCP-Server",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Mehr",
57
57
  "assistants.plugins": "Integrierte Fähigkeiten",
58
58
  "assistants.recentSubmits": "Kürzlich aktualisiert",
59
- "assistants.sorts.recommended": "Empfohlen",
60
59
  "assistants.sorts.createdAt": "Kürzlich veröffentlicht",
61
60
  "assistants.sorts.identifier": "Agenten-ID",
62
61
  "assistants.sorts.knowledgeCount": "Bibliotheken",
63
62
  "assistants.sorts.myown": "Meine Agenten anzeigen",
64
63
  "assistants.sorts.pluginCount": "Fähigkeiten",
64
+ "assistants.sorts.recommended": "Empfohlen",
65
65
  "assistants.sorts.title": "Agentenname",
66
66
  "assistants.sorts.tokenUsage": "Token-Nutzung",
67
67
  "assistants.status.archived.reasons.official": "Die Plattform hat diesen Agenten aus Sicherheits-, Richtlinien- oder anderen Gründen entfernt.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Dieser Agent enthält Bibliotheken",
84
84
  "assistants.withPlugin": "Dieser Agent enthält Fähigkeiten",
85
85
  "back": "Zurück zur Entdeckung",
86
- "category.assistant.discover": "Entdecken",
87
86
  "category.assistant.academic": "Akademisch",
88
87
  "category.assistant.all": "Alle",
89
88
  "category.assistant.career": "Karriere",
90
89
  "category.assistant.copywriting": "Texterstellung",
91
90
  "category.assistant.design": "Design",
91
+ "category.assistant.discover": "Entdecken",
92
92
  "category.assistant.education": "Bildung",
93
93
  "category.assistant.emotions": "Emotionen",
94
94
  "category.assistant.entertainment": "Unterhaltung",
@@ -73,9 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick ist ein großes MoE-Modell mit effizienter Expertenaktivierung für starke Argumentationsleistung.",
74
74
  "MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
75
75
  "MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
76
- "MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten für ein rundum verbessertes Programmiererlebnis. Schneller und effizienter.",
77
- "MiniMax-M2.1.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten für ein rundum verbessertes Programmiererlebnis",
78
- "MiniMax-M2.description": "Speziell entwickelt für effizientes Programmieren und Agenten-Workflows",
76
+ "MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfunktionen, umfassend verbesserte Programmiererfahrung. Schneller und effizienter.",
77
+ "MiniMax-M2.1.description": "Leistungsstarke mehrsprachige Programmierfunktionen, umfassend verbesserte Programmiererfahrung",
78
+ "MiniMax-M2.description": "Speziell für effizientes Programmieren und Agenten-Workflows entwickelt",
79
79
  "MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).",
80
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 ist ein Open-Weights-Modell für großskalige hybride Aufmerksamkeits- und Schlussfolgerungsaufgaben mit insgesamt 456 Milliarden Parametern und etwa 45,9 Milliarden aktiven Parametern pro Token. Es unterstützt nativ einen Kontext von 1 Million Tokens und nutzt Flash Attention, um die FLOPs bei der Generierung von 100.000 Tokens im Vergleich zu DeepSeek R1 um 75 % zu reduzieren. Durch die MoE-Architektur, CISPO und hybrides RL-Training erzielt es führende Leistungen bei Aufgaben mit langen Eingaben und realer Softwareentwicklung.",
81
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 definiert Effizienz für Agenten neu. Es handelt sich um ein kompaktes, schnelles und kosteneffizientes MoE-Modell mit insgesamt 230 Milliarden und 10 Milliarden aktiven Parametern, das für erstklassige Programmier- und Agentenaufgaben entwickelt wurde und gleichzeitig eine starke allgemeine Intelligenz beibehält. Trotz nur 10 Milliarden aktiver Parameter konkurriert es mit deutlich größeren Modellen und eignet sich ideal für Anwendungen mit hoher Effizienz.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
272
272
  "claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
273
273
  "claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in zahlreichen Fähigkeiten. Es übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es ermöglicht nahezu sofortige Antworten oder tiefgreifendes Denken mit präziser Steuerung.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste hybride Reasoning-Modell auf dem Markt. Es liefert nahezu sofortige Antworten oder schrittweise Denkprozesse, die für Nutzer sichtbar sind. Sonnet ist besonders stark in den Bereichen Programmierung, Data Science, Bildverarbeitung und Agentenaufgaben.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – blitzschnell und mit erweitertem Denkvermögen.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feiner Steuerung für API-Nutzer.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 liefert nahezu sofortige Antworten oder nachvollziehbares, schrittweises Denken mit sichtbarem Denkprozess.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
358
- "deepseek-chat.description": "DeepSeek V3.2 balanciert logisches Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führt Open-Source-Agentenbewertungen an.",
358
+ "deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es bewahrt den Dialogstil des Chat-Modells und die starke Codierungsleistung des Coder-Modells mit besserer Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert, um die Genauigkeit zu erhöhen. Es erzielt Spitzenwerte in Wettbewerben und bietet eine Denkfähigkeit vergleichbar mit Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
382
382
  "deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochqualitative, kontrollierbare Bildgenerierung aus Prompts.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder aus Texteingaben.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
480
480
  "fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
482
- "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise Textbearbeitung in Chinesisch/Englisch, Stilübertragungen, Drehungen und mehr unterstützt.",
483
- "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
482
+ "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt, chinesischen und englischen Text präzise editiert und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen ermöglicht.",
483
+ "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
484
484
  "flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
485
485
  "flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
486
486
  "flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
@@ -526,7 +526,6 @@
526
526
  "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
527
527
  "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
528
528
  "gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
529
- "gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das für Geschwindigkeit entwickelt wurde. Es verbindet modernste Intelligenz mit exzellenter Suchintegration.",
530
529
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
531
530
  "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
532
531
  "gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
@@ -560,6 +559,31 @@
560
559
  "glm-4.5-x.description": "GLM-4.5 Schnellversion mit starker Leistung und Generierungsgeschwindigkeiten von bis zu 100 Token/Sekunde.",
561
560
  "glm-4.5.description": "Zhipus Flaggschiffmodell mit umschaltbarem Denkmodus, bietet Open-Source-SOTA-Leistung und bis zu 128K Kontext.",
562
561
  "glm-4.5v.description": "Zhipus nächste Generation eines MoE-Vision-Reasoning-Modells mit 106B Gesamtparametern und 12B aktiven. Es erreicht SOTA unter ähnlich großen Open-Source-Multimodalmodellen in Bild-, Video-, Dokumentenverständnis- und GUI-Aufgaben.",
562
+ "glm-4.6.description": "GLM-4.6 (355B), das neueste Flaggschiffmodell von Zhipu, übertrifft seine Vorgänger in fortgeschrittener Codierung, Langtextverarbeitung, logischem Denken und Agentenfähigkeiten. Besonders in der Programmierung ist es auf dem Niveau von Claude Sonnet 4 und zählt zu den besten Coding-Modellen Chinas.",
563
+ "glm-4.7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu, das für Agentic-Coding-Szenarien optimiert wurde. Es bietet verbesserte Codierungsfähigkeiten, langfristige Aufgabenplanung und Werkzeugintegration. Es erzielt Spitzenleistungen unter Open-Source-Modellen in aktuellen Benchmarks. Die allgemeine Leistungsfähigkeit wurde gesteigert – Antworten sind natürlicher, das Schreiben immersiver. Bei komplexen Agentenaufgaben folgt es Anweisungen besser, und die visuelle Qualität sowie Effizienz bei Langzeitaufgaben wurden weiter verbessert.",
564
+ "glm-4.description": "GLM-4 ist das ältere Flaggschiffmodell, das im Januar 2024 veröffentlicht wurde und nun durch das stärkere GLM-4-0520 ersetzt wurde.",
565
+ "glm-4v-flash.description": "GLM-4V-Flash konzentriert sich auf effizientes Einzelbildverständnis für schnelle Analyseanwendungen wie Echtzeit- oder Batch-Bildverarbeitung.",
566
+ "glm-4v-plus-0111.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.",
567
+ "glm-4v-plus.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.",
568
+ "glm-4v.description": "GLM-4V bietet starkes Bildverständnis und logisches Denken für visuelle Aufgaben.",
569
+ "glm-z1-air.description": "Ein Modell mit starker Argumentationsfähigkeit für Aufgaben, die tiefes Schlussfolgern erfordern.",
570
+ "glm-z1-airx.description": "Ultraschnelles Schlussfolgern bei gleichzeitig hoher Denkqualität.",
571
+ "glm-z1-flash.description": "Die GLM-Z1-Serie bietet starke Fähigkeiten im komplexen logischen Denken, insbesondere in Logik, Mathematik und Programmierung.",
572
+ "glm-z1-flashx.description": "Schnell und kostengünstig: Flash-optimiert mit ultraschnellem Denken und höherer Parallelverarbeitung.",
573
+ "glm-zero-preview.description": "GLM-Zero-Preview bietet starke Fähigkeiten im komplexen logischen Denken, insbesondere in Logik, Mathematik und Programmierung.",
574
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic und vereint außergewöhnliche Intelligenz mit skalierbarer Leistung für komplexe Aufgaben, die höchste Qualität bei Antworten und Denkprozessen erfordern.",
575
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie exzellente Geschwindigkeit, native Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
576
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental ist Googles neuestes experimentelles multimodales KI-Modell mit Qualitätsverbesserungen gegenüber früheren Versionen, insbesondere im Weltwissen, Code und Langkontext.",
577
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite ist eine leichtgewichtige Gemini-Variante mit standardmäßig deaktiviertem Denkmodus zur Verbesserung von Latenz und Kosten – kann jedoch über Parameter aktiviert werden.",
578
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
579
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash ist Googles leistungsstarkes Reasoning-Modell für erweiterte multimodale Aufgaben.",
580
+ "google/gemini-2.5-flash-image-free.description": "Gemini 2.5 Flash Image in der kostenlosen Stufe mit begrenztem Kontingent für multimodale Generierung.",
581
+ "google/gemini-2.5-flash-image-preview.description": "Gemini 2.5 Flash ist ein experimentelles Modell mit Bildgenerierungsunterstützung.",
582
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Konversation.",
583
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite ist die leichtgewichtige Variante von Gemini 2.5, optimiert für geringe Latenz und Kosten – ideal für Szenarien mit hohem Durchsatz.",
584
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Flaggschiffmodell für Reasoning, Programmierung, Mathematik und Wissenschaft. Es enthält einen integrierten Denkmodus für genauere Antworten und feinere Kontextverarbeitung.\n\nHinweis: Dieses Modell hat zwei Varianten – mit und ohne Denkmodus. Die Ausgabekosten unterscheiden sich je nach aktivierter Denkfunktion. Wenn Sie die Standardvariante (ohne „:thinking“-Suffix) wählen, vermeidet das Modell explizit die Generierung von Denk-Tokens.\n\nUm Denkprozesse zu nutzen und Denk-Tokens zu erhalten, müssen Sie die „:thinking“-Variante auswählen, die höhere Ausgabekosten verursacht.\n\nGemini 2.5 Flash kann auch über den Parameter „max reasoning tokens“ konfiguriert werden (siehe Dokumentation: https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
585
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Flaggschiffmodell für Reasoning, Programmierung, Mathematik und Wissenschaft. Es enthält einen integrierten Denkmodus für genauere Antworten und feinere Kontextverarbeitung.\n\nHinweis: Dieses Modell hat zwei Varianten – mit und ohne Denkmodus. Die Ausgabekosten unterscheiden sich je nach aktivierter Denkfunktion. Wenn Sie die Standardvariante (ohne „:thinking“-Suffix) wählen, vermeidet das Modell explizit die Generierung von Denk-Tokens.\n\nUm Denkprozesse zu nutzen und Denk-Tokens zu erhalten, müssen Sie die „:thinking“-Variante auswählen, die höhere Ausgabekosten verursacht.\n\nGemini 2.5 Flash kann auch über den Parameter „max reasoning tokens“ konfiguriert werden (siehe Dokumentation: https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
586
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) ist Googles Modellfamilie mit Bandbreite von niedriger Latenz bis hin zu leistungsstarkem Reasoning.",
563
587
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 ist ein offenes LLM für Entwickler, Forscher und Unternehmen. Es wurde entwickelt, um beim Aufbau, Experimentieren und verantwortungsvollen Skalieren generativer KI-Ideen zu unterstützen. Als Teil der Grundlage für globale Innovationsgemeinschaften eignet es sich besonders für Umgebungen mit begrenzten Rechenressourcen, Edge-Geräte und schnellere Trainingszeiten.",
564
588
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Starke Bildverarbeitung bei hochauflösenden Bildern – ideal für visuelle Verständnisanwendungen.",
565
589
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Fortschrittliche Bildverarbeitung für visuelle Agentenanwendungen.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Texterstellung",
13
13
  "interests.hint": "Du kannst das jederzeit in den Einstellungen ändern",
14
14
  "interests.placeholder": "Gib deine Interessen ein...",
15
+ "interests.title": "Für welche Bereiche interessierst du dich?",
16
+ "interests.title2": "Das hilft mir, dich besser kennenzulernen",
17
+ "interests.title3": "Lass dir ruhig Zeit, ich möchte dich besser kennenlernen",
15
18
  "modeSelection.desc": "Wähle den Modus, der am besten zu dir passt",
16
19
  "modeSelection.hint": "Du kannst das jederzeit in den Einstellungen ändern",
17
20
  "modeSelection.lite.desc": "Ideal für alltägliche Gespräche, Fragen & Antworten, leichte Produktivität und zum Ausprobieren von Modellen",
@@ -5,6 +5,7 @@
5
5
  "builtins.lobe-agent-builder.apiName.getConfig": "Konfiguration abrufen",
6
6
  "builtins.lobe-agent-builder.apiName.getMeta": "Metadaten abrufen",
7
7
  "builtins.lobe-agent-builder.apiName.getPrompt": "System-Prompt abrufen",
8
+ "builtins.lobe-agent-builder.apiName.installPlugin": "Fähigkeit installieren",
8
9
  "builtins.lobe-agent-builder.apiName.searchMarketTools": "Skill-Markt durchsuchen",
9
10
  "builtins.lobe-agent-builder.apiName.searchOfficialTools": "Offizielle Skills durchsuchen",
10
11
  "builtins.lobe-agent-builder.apiName.setModel": "Modell festlegen",
@@ -15,6 +16,12 @@
15
16
  "builtins.lobe-agent-builder.apiName.updateConfig": "Konfiguration aktualisieren",
16
17
  "builtins.lobe-agent-builder.apiName.updateMeta": "Metadaten aktualisieren",
17
18
  "builtins.lobe-agent-builder.apiName.updatePrompt": "System-Prompt aktualisieren",
19
+ "builtins.lobe-agent-builder.inspector.chars": " Zeichen",
20
+ "builtins.lobe-agent-builder.inspector.disablePlugin": "Deaktivieren",
21
+ "builtins.lobe-agent-builder.inspector.enablePlugin": "Aktivieren",
22
+ "builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} Modelle",
23
+ "builtins.lobe-agent-builder.inspector.noResults": "Keine Ergebnisse",
24
+ "builtins.lobe-agent-builder.inspector.togglePlugin": "Umschalten",
18
25
  "builtins.lobe-agent-builder.title": "Agentenbau-Experte",
19
26
  "builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Datei bearbeiten",
20
27
  "builtins.lobe-cloud-sandbox.apiName.executeCode": "Code ausführen",
@@ -31,13 +38,27 @@
31
38
  "builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Dateien suchen",
32
39
  "builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Datei schreiben",
33
40
  "builtins.lobe-cloud-sandbox.title": "Cloud-Sandbox",
41
+ "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Agenten stapelweise erstellen",
42
+ "builtins.lobe-group-agent-builder.apiName.createAgent": "Agent erstellen",
34
43
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Verfügbare Modelle abrufen",
35
44
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "Skill installieren",
36
45
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "Mitglied einladen",
37
46
  "builtins.lobe-group-agent-builder.apiName.removeAgent": "Mitglied entfernen",
47
+ "builtins.lobe-group-agent-builder.apiName.searchAgent": "Agenten suchen",
38
48
  "builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Skill-Markt durchsuchen",
39
49
  "builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Agenten-Konfiguration aktualisieren",
40
- "builtins.lobe-group-agent-builder.apiName.updatePrompt": "System-Prompt aktualisieren",
50
+ "builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Agenten-Prompt aktualisieren",
51
+ "builtins.lobe-group-agent-builder.apiName.updateGroup": "Gruppe aktualisieren",
52
+ "builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Gruppen-Prompt aktualisieren",
53
+ "builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Supervisor-Prompt aktualisieren",
54
+ "builtins.lobe-group-agent-builder.inspector.agents": "Agenten",
55
+ "builtins.lobe-group-agent-builder.inspector.avatar": "Avatar",
56
+ "builtins.lobe-group-agent-builder.inspector.backgroundColor": "Hintergrundfarbe",
57
+ "builtins.lobe-group-agent-builder.inspector.description": "Beschreibung",
58
+ "builtins.lobe-group-agent-builder.inspector.noResults": "Keine Ergebnisse",
59
+ "builtins.lobe-group-agent-builder.inspector.openingMessage": "Begrüßungsnachricht",
60
+ "builtins.lobe-group-agent-builder.inspector.openingQuestions": "Einstiegsfragen",
61
+ "builtins.lobe-group-agent-builder.inspector.title": "Titel",
41
62
  "builtins.lobe-group-agent-builder.title": "Gruppenbau-Experte",
42
63
  "builtins.lobe-group-management.apiName.broadcast": "Alle sprechen",
43
64
  "builtins.lobe-group-management.apiName.createAgent": "Gruppenmitglied hinzufügen",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
30
30
  "jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
31
31
  "lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
32
- "lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
33
32
  "minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
34
33
  "mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.",
35
34
  "modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",
@@ -71,11 +71,18 @@
71
71
  "group.desc": "Move a task forward with multiple Agents in one shared space.",
72
72
  "group.memberTooltip": "There are {{count}} members in the group",
73
73
  "group.orchestratorThinking": "Orchestrator is thinking...",
74
+ "group.profile.contentPlaceholder": "Set the group objectives/work modes here. This information will be shared with all group members.",
75
+ "group.profile.external": "External",
76
+ "group.profile.externalAgentWarning": "This is an external agent. Changes made here will directly modify the original agent configuration.",
77
+ "group.profile.groupSettings": "Group Settings",
78
+ "group.profile.supervisor": "Supervisor",
79
+ "group.profile.supervisorPlaceholder": "The supervisor coordinates different agents. Setting supervisor information here enables more precise workflow coordination.",
74
80
  "group.removeMember": "Remove Member",
75
81
  "group.title": "Group",
76
82
  "groupDescription": "Group description",
77
83
  "groupSidebar.agentProfile.chat": "Chat",
78
84
  "groupSidebar.agentProfile.model": "Model",
85
+ "groupSidebar.agentProfile.settings": "Settings",
79
86
  "groupSidebar.members.addMember": "Add Member",
80
87
  "groupSidebar.members.enableOrchestrator": "Enable Orchestrator",
81
88
  "groupSidebar.members.memberSettings": "Member Settings",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "More",
57
57
  "assistants.plugins": "Integrated Skills",
58
58
  "assistants.recentSubmits": "Recent Updates",
59
- "assistants.sorts.recommended": "Recommended",
60
59
  "assistants.sorts.createdAt": "Recently Published",
61
60
  "assistants.sorts.identifier": "Agent ID",
62
61
  "assistants.sorts.knowledgeCount": "Libraries",
63
62
  "assistants.sorts.myown": "View My Agents",
64
63
  "assistants.sorts.pluginCount": "Skills",
64
+ "assistants.sorts.recommended": "Recommended",
65
65
  "assistants.sorts.title": "Agent Name",
66
66
  "assistants.sorts.tokenUsage": "Token Usage",
67
67
  "assistants.status.archived.reasons.official": "The platform removed this Agent due to security, policy, or other concerns.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "This Agent includes Libraries",
84
84
  "assistants.withPlugin": "This Agent includes Skills",
85
85
  "back": "Back to Discovery",
86
- "category.assistant.discover": "Discover",
87
86
  "category.assistant.academic": "Academic",
88
87
  "category.assistant.all": "All",
89
88
  "category.assistant.career": "Career",
90
89
  "category.assistant.copywriting": "Copywriting",
91
90
  "category.assistant.design": "Design",
91
+ "category.assistant.discover": "Discover",
92
92
  "category.assistant.education": "Education",
93
93
  "category.assistant.emotions": "Emotions",
94
94
  "category.assistant.entertainment": "Entertainment",