@lobehub/lobehub 2.0.0-next.272 → 2.0.0-next.274

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (296) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +7 -0
  4. package/locales/ar/common.json +1 -1
  5. package/locales/ar/discover.json +2 -2
  6. package/locales/ar/models.json +40 -12
  7. package/locales/ar/onboarding.json +1 -1
  8. package/locales/ar/plugin.json +22 -1
  9. package/locales/ar/providers.json +0 -1
  10. package/locales/bg-BG/chat.json +7 -0
  11. package/locales/bg-BG/common.json +2 -0
  12. package/locales/bg-BG/discover.json +2 -2
  13. package/locales/bg-BG/models.json +48 -13
  14. package/locales/bg-BG/onboarding.json +1 -1
  15. package/locales/bg-BG/plugin.json +22 -1
  16. package/locales/bg-BG/providers.json +0 -1
  17. package/locales/de-DE/chat.json +7 -0
  18. package/locales/de-DE/common.json +2 -0
  19. package/locales/de-DE/discover.json +2 -2
  20. package/locales/de-DE/models.json +37 -13
  21. package/locales/de-DE/onboarding.json +3 -0
  22. package/locales/de-DE/plugin.json +22 -1
  23. package/locales/de-DE/providers.json +0 -1
  24. package/locales/en-US/chat.json +7 -0
  25. package/locales/en-US/discover.json +2 -2
  26. package/locales/en-US/models.json +15 -15
  27. package/locales/en-US/plugin.json +22 -1
  28. package/locales/en-US/providers.json +0 -1
  29. package/locales/es-ES/chat.json +7 -0
  30. package/locales/es-ES/common.json +2 -0
  31. package/locales/es-ES/discover.json +2 -2
  32. package/locales/es-ES/models.json +32 -14
  33. package/locales/es-ES/onboarding.json +3 -0
  34. package/locales/es-ES/plugin.json +22 -1
  35. package/locales/es-ES/providers.json +0 -1
  36. package/locales/fa-IR/chat.json +7 -0
  37. package/locales/fa-IR/common.json +2 -0
  38. package/locales/fa-IR/discover.json +2 -2
  39. package/locales/fa-IR/models.json +36 -14
  40. package/locales/fa-IR/onboarding.json +3 -0
  41. package/locales/fa-IR/plugin.json +22 -1
  42. package/locales/fa-IR/providers.json +0 -1
  43. package/locales/fr-FR/chat.json +7 -0
  44. package/locales/fr-FR/common.json +2 -0
  45. package/locales/fr-FR/discover.json +2 -2
  46. package/locales/fr-FR/models.json +95 -13
  47. package/locales/fr-FR/onboarding.json +3 -0
  48. package/locales/fr-FR/plugin.json +22 -1
  49. package/locales/fr-FR/providers.json +0 -1
  50. package/locales/it-IT/chat.json +7 -0
  51. package/locales/it-IT/common.json +2 -0
  52. package/locales/it-IT/discover.json +2 -2
  53. package/locales/it-IT/models.json +8 -13
  54. package/locales/it-IT/onboarding.json +3 -0
  55. package/locales/it-IT/plugin.json +22 -1
  56. package/locales/it-IT/providers.json +0 -1
  57. package/locales/ja-JP/chat.json +7 -0
  58. package/locales/ja-JP/common.json +2 -0
  59. package/locales/ja-JP/discover.json +2 -2
  60. package/locales/ja-JP/models.json +76 -8
  61. package/locales/ja-JP/onboarding.json +3 -0
  62. package/locales/ja-JP/plugin.json +22 -1
  63. package/locales/ja-JP/providers.json +0 -1
  64. package/locales/ko-KR/chat.json +7 -0
  65. package/locales/ko-KR/common.json +2 -0
  66. package/locales/ko-KR/discover.json +2 -2
  67. package/locales/ko-KR/models.json +8 -15
  68. package/locales/ko-KR/onboarding.json +3 -0
  69. package/locales/ko-KR/plugin.json +22 -1
  70. package/locales/ko-KR/providers.json +0 -1
  71. package/locales/nl-NL/chat.json +7 -0
  72. package/locales/nl-NL/common.json +2 -0
  73. package/locales/nl-NL/discover.json +2 -2
  74. package/locales/nl-NL/models.json +98 -9
  75. package/locales/nl-NL/onboarding.json +3 -0
  76. package/locales/nl-NL/plugin.json +22 -1
  77. package/locales/nl-NL/providers.json +0 -1
  78. package/locales/pl-PL/chat.json +7 -0
  79. package/locales/pl-PL/common.json +2 -0
  80. package/locales/pl-PL/discover.json +2 -2
  81. package/locales/pl-PL/models.json +38 -13
  82. package/locales/pl-PL/onboarding.json +3 -0
  83. package/locales/pl-PL/plugin.json +22 -1
  84. package/locales/pl-PL/providers.json +0 -1
  85. package/locales/pt-BR/chat.json +7 -0
  86. package/locales/pt-BR/common.json +2 -0
  87. package/locales/pt-BR/discover.json +2 -2
  88. package/locales/pt-BR/models.json +50 -13
  89. package/locales/pt-BR/onboarding.json +3 -0
  90. package/locales/pt-BR/plugin.json +22 -1
  91. package/locales/pt-BR/providers.json +0 -1
  92. package/locales/ru-RU/chat.json +7 -0
  93. package/locales/ru-RU/common.json +2 -0
  94. package/locales/ru-RU/discover.json +2 -2
  95. package/locales/ru-RU/models.json +54 -13
  96. package/locales/ru-RU/onboarding.json +3 -0
  97. package/locales/ru-RU/plugin.json +22 -1
  98. package/locales/ru-RU/providers.json +0 -1
  99. package/locales/tr-TR/chat.json +7 -0
  100. package/locales/tr-TR/common.json +2 -0
  101. package/locales/tr-TR/discover.json +2 -2
  102. package/locales/tr-TR/models.json +40 -13
  103. package/locales/tr-TR/onboarding.json +3 -0
  104. package/locales/tr-TR/plugin.json +22 -1
  105. package/locales/tr-TR/providers.json +0 -1
  106. package/locales/vi-VN/chat.json +7 -0
  107. package/locales/vi-VN/common.json +2 -0
  108. package/locales/vi-VN/discover.json +2 -2
  109. package/locales/vi-VN/models.json +8 -8
  110. package/locales/vi-VN/onboarding.json +3 -0
  111. package/locales/vi-VN/plugin.json +22 -1
  112. package/locales/vi-VN/providers.json +0 -1
  113. package/locales/zh-CN/chat.json +7 -0
  114. package/locales/zh-CN/discover.json +2 -2
  115. package/locales/zh-CN/models.json +95 -13
  116. package/locales/zh-CN/onboarding.json +3 -0
  117. package/locales/zh-CN/plugin.json +22 -1
  118. package/locales/zh-CN/providers.json +0 -1
  119. package/locales/zh-TW/chat.json +7 -0
  120. package/locales/zh-TW/common.json +2 -0
  121. package/locales/zh-TW/discover.json +2 -2
  122. package/locales/zh-TW/models.json +86 -13
  123. package/locales/zh-TW/onboarding.json +3 -0
  124. package/locales/zh-TW/plugin.json +22 -1
  125. package/locales/zh-TW/providers.json +0 -1
  126. package/package.json +1 -1
  127. package/packages/builtin-tool-agent-builder/package.json +1 -0
  128. package/packages/builtin-tool-agent-builder/src/client/Inspector/GetAvailableModels/index.tsx +66 -0
  129. package/packages/builtin-tool-agent-builder/src/client/Inspector/InstallPlugin/index.tsx +63 -0
  130. package/packages/builtin-tool-agent-builder/src/client/Inspector/SearchMarketTools/index.tsx +64 -0
  131. package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdateConfig/index.tsx +94 -0
  132. package/packages/builtin-tool-agent-builder/src/client/Inspector/UpdatePrompt/index.tsx +96 -0
  133. package/packages/builtin-tool-agent-builder/src/client/Inspector/index.ts +29 -0
  134. package/packages/builtin-tool-agent-builder/src/client/index.ts +13 -0
  135. package/packages/builtin-tool-agent-builder/src/executor.ts +132 -0
  136. package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/ExecuteCode/index.tsx +5 -14
  137. package/packages/builtin-tool-cloud-sandbox/src/client/Inspector/RunCommand/index.tsx +5 -13
  138. package/packages/builtin-tool-group-agent-builder/package.json +7 -1
  139. package/packages/builtin-tool-group-agent-builder/src/ExecutionRuntime/index.ts +331 -87
  140. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/BatchCreateAgents/index.tsx +110 -0
  141. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/CreateAgent/index.tsx +72 -0
  142. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/InviteAgent/index.tsx +57 -0
  143. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/RemoveAgent/index.tsx +57 -0
  144. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/SearchAgent/index.tsx +66 -0
  145. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateAgentPrompt/index.tsx +120 -0
  146. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroup/index.tsx +87 -0
  147. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/UpdateGroupPrompt/index.tsx +99 -0
  148. package/packages/builtin-tool-group-agent-builder/src/client/Inspector/index.ts +52 -0
  149. package/packages/builtin-tool-group-agent-builder/src/client/Render/BatchCreateAgents.tsx +103 -0
  150. package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateAgentPrompt/index.tsx +36 -0
  151. package/packages/builtin-tool-group-agent-builder/src/client/Render/UpdateGroupPrompt/index.tsx +36 -0
  152. package/packages/builtin-tool-group-agent-builder/src/client/Render/index.ts +16 -0
  153. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/BatchCreateAgents/index.tsx +88 -0
  154. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateAgentPrompt/index.tsx +37 -0
  155. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/UpdateGroupPrompt/index.tsx +35 -0
  156. package/packages/builtin-tool-group-agent-builder/src/client/Streaming/index.ts +22 -0
  157. package/packages/builtin-tool-group-agent-builder/src/client/index.ts +26 -0
  158. package/packages/builtin-tool-group-agent-builder/src/executor.ts +284 -0
  159. package/packages/builtin-tool-group-agent-builder/src/index.ts +1 -14
  160. package/packages/builtin-tool-group-agent-builder/src/manifest.ts +160 -15
  161. package/packages/builtin-tool-group-agent-builder/src/systemRole.ts +232 -46
  162. package/packages/builtin-tool-group-agent-builder/src/types.ts +191 -41
  163. package/packages/builtin-tool-group-management/src/client/Inspector/Broadcast/index.tsx +2 -2
  164. package/packages/builtin-tool-group-management/src/manifest.ts +1 -1
  165. package/packages/builtin-tool-gtd/src/client/Inspector/ClearTodos/index.tsx +5 -11
  166. package/packages/builtin-tool-gtd/src/client/Inspector/CompleteTodos/index.tsx +3 -9
  167. package/packages/builtin-tool-gtd/src/client/Inspector/CreatePlan/index.tsx +6 -15
  168. package/packages/builtin-tool-gtd/src/client/Inspector/CreateTodos/index.tsx +3 -9
  169. package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +6 -17
  170. package/packages/builtin-tool-gtd/src/client/Inspector/RemoveTodos/index.tsx +3 -9
  171. package/packages/builtin-tool-gtd/src/client/Inspector/UpdatePlan/index.tsx +3 -9
  172. package/packages/builtin-tool-gtd/src/client/Inspector/UpdateTodos/index.tsx +3 -9
  173. package/packages/builtin-tool-knowledge-base/src/client/Inspector/ReadKnowledge/index.tsx +4 -16
  174. package/packages/builtin-tool-knowledge-base/src/client/Inspector/SearchKnowledgeBase/index.tsx +5 -16
  175. package/packages/builtin-tool-local-system/src/client/Inspector/EditLocalFile/index.tsx +4 -12
  176. package/packages/builtin-tool-local-system/src/client/Inspector/GlobLocalFiles/index.tsx +5 -13
  177. package/packages/builtin-tool-local-system/src/client/Inspector/GrepContent/index.tsx +5 -16
  178. package/packages/builtin-tool-local-system/src/client/Inspector/ListLocalFiles/index.tsx +5 -16
  179. package/packages/builtin-tool-local-system/src/client/Inspector/ReadLocalFile/index.tsx +5 -16
  180. package/packages/builtin-tool-local-system/src/client/Inspector/RenameLocalFile/index.tsx +5 -11
  181. package/packages/builtin-tool-local-system/src/client/Inspector/RunCommand/index.tsx +5 -13
  182. package/packages/builtin-tool-local-system/src/client/Inspector/SearchLocalFiles/index.tsx +5 -16
  183. package/packages/builtin-tool-local-system/src/client/Inspector/WriteLocalFile/index.tsx +6 -15
  184. package/packages/builtin-tool-notebook/src/client/Inspector/CreateDocument/index.tsx +7 -15
  185. package/packages/builtin-tool-page-agent/src/client/Inspector/EditTitle/index.tsx +5 -14
  186. package/packages/builtin-tool-page-agent/src/client/Inspector/GetPageContent/index.tsx +7 -8
  187. package/packages/builtin-tool-page-agent/src/client/Inspector/InitPage/index.tsx +4 -10
  188. package/packages/builtin-tool-page-agent/src/client/Inspector/ModifyNodes/index.tsx +3 -9
  189. package/packages/builtin-tool-page-agent/src/client/Inspector/ReplaceText/index.tsx +5 -11
  190. package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlMultiPages/index.tsx +6 -15
  191. package/packages/builtin-tool-web-browsing/src/client/Inspector/CrawlSinglePage/index.tsx +6 -15
  192. package/packages/builtin-tool-web-browsing/src/client/Inspector/Search/index.tsx +4 -15
  193. package/packages/database/src/models/chatGroup.ts +1 -1
  194. package/packages/model-bank/src/aiModels/aihubmix.ts +2 -1
  195. package/packages/model-bank/src/aiModels/google.ts +2 -1
  196. package/packages/model-bank/src/aiModels/infiniai.ts +9 -6
  197. package/packages/model-bank/src/aiModels/minimax.ts +9 -5
  198. package/packages/model-bank/src/aiModels/ollamacloud.ts +4 -2
  199. package/packages/model-bank/src/aiModels/vertexai.ts +2 -1
  200. package/packages/types/src/agentGroup/index.ts +8 -0
  201. package/patches/@upstash__qstash.patch +13 -1
  202. package/src/app/[variants]/(main)/agent/_layout/Sidebar/Header/Nav.tsx +1 -1
  203. package/src/app/[variants]/(main)/agent/cron/[cronId]/index.tsx +4 -3
  204. package/src/app/[variants]/(main)/agent/profile/features/ProfileEditor/index.tsx +1 -1
  205. package/src/app/[variants]/(main)/agent/profile/features/store/action.ts +18 -21
  206. package/src/app/[variants]/(main)/group/_layout/GroupIdSync.tsx +6 -1
  207. package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/AgentProfilePopup.tsx +29 -21
  208. package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMember.tsx +1 -0
  209. package/src/app/[variants]/(main)/group/_layout/Sidebar/GroupConfig/GroupMemberItem.tsx +35 -18
  210. package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/AddTopicButon.tsx +2 -10
  211. package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/Nav.tsx +10 -2
  212. package/src/app/[variants]/(main)/group/_layout/Sidebar/Header/index.tsx +1 -2
  213. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/AgentBuilderProvider.tsx +1 -0
  214. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/TopicSelector.tsx +15 -9
  215. package/src/app/[variants]/(main)/group/profile/features/AgentBuilder/index.tsx +12 -6
  216. package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor/AgentHeader.tsx → GroupProfile/GroupHeader.tsx} +22 -29
  217. package/src/app/[variants]/(main)/group/profile/features/GroupProfile/index.tsx +96 -0
  218. package/src/app/[variants]/(main)/group/profile/features/Header/AgentBuilderToggle.tsx +3 -4
  219. package/src/app/[variants]/(main)/group/profile/features/Header/AutoSaveHint.tsx +11 -7
  220. package/src/app/[variants]/(main)/group/profile/features/Header/ChromeTabs/index.tsx +147 -0
  221. package/src/app/[variants]/(main)/group/profile/features/Header/index.tsx +104 -13
  222. package/src/app/[variants]/(main)/group/profile/features/MemberProfile/AgentHeader.tsx +222 -0
  223. package/src/app/[variants]/(main)/group/profile/features/MemberProfile/index.tsx +155 -0
  224. package/src/app/[variants]/(main)/group/profile/features/ProfileHydration.tsx +63 -5
  225. package/src/app/[variants]/(main)/group/profile/index.tsx +34 -37
  226. package/src/app/[variants]/(mobile)/(home)/_layout/SessionHydration.tsx +1 -1
  227. package/src/app/[variants]/(mobile)/(home)/features/SessionListContent/List/Item/index.tsx +1 -1
  228. package/src/features/AgentBuilder/index.tsx +16 -1
  229. package/src/features/Conversation/Messages/AssistantGroup/Tool/Inspector/StatusIndicator.tsx +3 -2
  230. package/src/features/EditorCanvas/EditorCanvas.test.tsx +206 -0
  231. package/src/features/EditorCanvas/EditorDataMode.tsx +53 -19
  232. package/src/features/EditorModal/index.tsx +2 -2
  233. package/src/features/NavPanel/components/SessionHydration.tsx +1 -1
  234. package/src/features/ShareModal/ShareImage/ChatList/index.tsx +1 -1
  235. package/src/features/ShareModal/SharePdf/index.tsx +1 -1
  236. package/src/hooks/useBidirectionalQuerySync.ts +112 -0
  237. package/src/locales/default/chat.ts +10 -0
  238. package/src/locales/default/plugin.ts +22 -1
  239. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +45 -45
  240. package/src/server/modules/KeyVaultsEncrypt/index.ts +6 -6
  241. package/src/server/modules/S3/index.ts +1 -1
  242. package/src/server/routers/lambda/agent.ts +24 -0
  243. package/src/server/routers/lambda/agentGroup.ts +39 -0
  244. package/src/services/agent.ts +22 -0
  245. package/src/services/chatGroup/index.ts +14 -0
  246. package/src/store/agent/selectors/selectors.ts +3 -0
  247. package/src/store/agentGroup/initialState.ts +6 -0
  248. package/src/store/agentGroup/selectors/byId.ts +3 -1
  249. package/src/store/agentGroup/selectors/current.ts +2 -2
  250. package/src/store/agentGroup/slices/lifecycle.ts +18 -0
  251. package/src/store/chat/agents/__tests__/createAgentExecutors/fixtures/mockStore.ts +1 -1
  252. package/src/store/chat/slices/aiAgent/actions/__tests__/agentGroup.test.ts +4 -1
  253. package/src/store/chat/slices/aiAgent/actions/agentGroup.ts +1 -1
  254. package/src/store/chat/slices/aiChat/actions/__tests__/conversationLifecycle.test.ts +65 -0
  255. package/src/store/chat/slices/aiChat/actions/conversationLifecycle.ts +2 -1
  256. package/src/store/chat/slices/builtinTool/actions/__tests__/search.test.ts +1 -1
  257. package/src/store/chat/slices/builtinTool/actions/index.ts +1 -6
  258. package/src/store/chat/slices/message/action.test.ts +5 -5
  259. package/src/store/chat/slices/message/actions/publicApi.ts +5 -5
  260. package/src/store/chat/slices/message/initialState.ts +0 -5
  261. package/src/store/chat/slices/message/selectors/displayMessage.test.ts +4 -4
  262. package/src/store/chat/slices/plugin/action.test.ts +54 -19
  263. package/src/store/chat/slices/plugin/actions/pluginTypes.ts +15 -21
  264. package/src/store/chat/slices/topic/action.test.ts +74 -24
  265. package/src/store/chat/slices/topic/action.ts +21 -13
  266. package/src/store/chat/slices/topic/selectors.test.ts +1 -1
  267. package/src/store/global/initialState.ts +10 -0
  268. package/src/store/global/selectors/systemStatus.ts +5 -0
  269. package/src/store/groupProfile/action.ts +168 -0
  270. package/src/store/groupProfile/index.ts +16 -0
  271. package/src/{app/[variants]/(main)/group/profile/features/store → store/groupProfile}/initialState.ts +17 -0
  272. package/src/store/groupProfile/selectors.ts +13 -0
  273. package/src/store/tool/slices/builtin/executors/index.ts +4 -0
  274. package/src/styles/text.ts +16 -0
  275. package/src/tools/inspectors.ts +13 -0
  276. package/src/tools/renders.ts +3 -0
  277. package/src/tools/streamings.ts +8 -0
  278. package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/TypoBar.tsx +0 -129
  279. package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/index.tsx +0 -138
  280. package/src/app/[variants]/(main)/group/profile/features/EditorCanvas/useSlashItems.tsx +0 -139
  281. package/src/app/[variants]/(main)/group/profile/features/ProfileEditor/index.tsx +0 -82
  282. package/src/app/[variants]/(main)/group/profile/features/ProfileProvider.tsx +0 -20
  283. package/src/app/[variants]/(main)/group/profile/features/StoreUpdater.tsx +0 -24
  284. package/src/app/[variants]/(main)/group/profile/features/store/action.ts +0 -163
  285. package/src/app/[variants]/(main)/group/profile/features/store/index.ts +0 -23
  286. package/src/app/[variants]/(main)/group/profile/features/store/selectors.ts +0 -7
  287. package/src/features/EditorModal/EditorCanvas.tsx +0 -84
  288. package/src/features/EditorModal/Typobar.tsx +0 -139
  289. package/src/store/chat/slices/builtinTool/actions/agentBuilder.ts +0 -192
  290. package/src/store/chat/slices/builtinTool/actions/groupAgentBuilder.ts +0 -242
  291. package/src/tools/executionRuntimes.ts +0 -14
  292. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/AgentTool.tsx +0 -0
  293. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/MentionDropdown.tsx +0 -0
  294. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/index.tsx +0 -0
  295. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/types.ts +0 -0
  296. /package/src/app/[variants]/(main)/group/profile/features/{ProfileEditor → MemberProfile}/MentionList/useMentionItems.tsx +0 -0
@@ -73,9 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick to duży model MoE z efektywną aktywacją ekspertów, zapewniający wysoką wydajność rozumowania.",
74
74
  "MiniMax-M1.description": "Nowy wewnętrzny model rozumowania z 80 tys. łańcuchów myślowych i 1 mln tokenów wejściowych, oferujący wydajność porównywalną z czołowymi modelami światowymi.",
75
75
  "MiniMax-M2-Stable.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów, z większą równoległością dla zastosowań komercyjnych.",
76
- "MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania w wielu językach kompleksowe ulepszenie doświadczenia kodowania. Szybciej i wydajniej.",
77
- "MiniMax-M2.1.description": "Potężne możliwości programowania w wielu językach kompleksowe ulepszenie doświadczenia kodowania",
78
- "MiniMax-M2.description": "Stworzony z myślą o wydajnym kodowaniu i przepływach pracy agentów",
76
+ "MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania wielojęzycznego, kompleksowo ulepszone doświadczenie programistyczne. Szybsze i bardziej wydajne.",
77
+ "MiniMax-M2.1.description": "Potężne możliwości programowania wielojęzycznego, kompleksowo ulepszone doświadczenie programistyczne",
78
+ "MiniMax-M2.description": "Stworzony specjalnie z myślą o efektywnym kodowaniu i przepływach pracy agentów",
79
79
  "MiniMax-Text-01.description": "MiniMax-01 wprowadza dużą skalę uwagi liniowej wykraczającą poza klasyczne Transformatory, z 456 mld parametrów i 45,9 mld aktywowanych na przebieg. Osiąga najwyższą wydajność i obsługuje do 4 mln tokenów kontekstu (32× GPT-4o, 20× Claude-3.5-Sonnet).",
80
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 to model rozumowania o otwartych wagach, oparty na hybrydowej uwadze, z 456 mld parametrów ogółem i ~45,9 mld aktywnych na token. Natywnie obsługuje kontekst 1 mln tokenów i wykorzystuje Flash Attention, redukując FLOPs o 75% przy generowaniu 100 tys. tokenów w porównaniu do DeepSeek R1. Dzięki architekturze MoE, CISPO i treningowi RL z hybrydową uwagą, osiąga czołowe wyniki w zadaniach rozumowania z długim wejściem i rzeczywistym inżynierii oprogramowania.",
81
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefiniuje efektywność agentów. To kompaktowy, szybki i opłacalny model MoE z 230 mld parametrów ogółem i 10 mld aktywnych, zaprojektowany do zadań kodowania i agentowych najwyższej klasy, przy zachowaniu silnej inteligencji ogólnej. Dzięki tylko 10 mld aktywnych parametrów dorównuje znacznie większym modelom, co czyni go idealnym do zastosowań wymagających wysokiej wydajności.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
272
272
  "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
273
273
  "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania, zapewniający błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z możliwością pogłębionego rozumowania.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku od Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic, oferujący błyskawiczne odpowiedzi lub rozbudowane, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.",
289
289
  "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
358
- "deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość odpowiedzi w codziennych zadaniach QA i agentowych. W testach publicznych osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
358
+ "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje dialogową naturę modelu czatu i silne możliwości kodowania, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również jakość pisania i wykonywania instrukcji.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
379
379
  "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji. Osiąga czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "Tryb rozumowania DeepSeek V3.2 generuje łańcuch myślowy przed odpowiedzią końcową, aby zwiększyć dokładność.",
382
382
  "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, stworzony przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe, umożliwiając precyzyjne i wysokiej jakości generowanie obrazów na podstawie promptów.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i graficzne oraz oferujący wysoką kontrolę i jakość generowanych obrazów. Tworzy obrazy na podstawie opisów tekstowych.",
475
475
  "fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
480
480
  "fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
482
- "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wyglądu, precyzyjną edycję tekstu w języku chińskim/angielskim, transfer stylu, obrót i inne.",
483
- "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen z silnym renderowaniem tekstu chińskiego i różnorodnymi stylami wizualnymi.",
482
+ "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wizualną, precyzyjnie edytujący tekst w języku chińskim i angielskim oraz umożliwiający wysokiej jakości modyfikacje, takie jak transfer stylu i obrót obiektów.",
483
+ "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, oferujący imponujące renderowanie tekstu w języku chińskim i różnorodne style wizualne.",
484
484
  "flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 1–4 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
485
485
  "flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
486
486
  "flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
@@ -501,6 +501,31 @@
501
501
  "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B to wydajny model multimodalny do szerokiego zastosowania.",
502
502
  "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 zapewnia zoptymalizowane przetwarzanie multimodalne dla złożonych zadań.",
503
503
  "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash to najnowszy model AI od Google z szybkim przetwarzaniem, obsługujący wejścia tekstowe, obrazowe i wideo, umożliwiając efektywne skalowanie zadań.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 to skalowalne rozwiązanie AI multimodalnej do złożonych zadań.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 to najnowszy model gotowy do produkcji, oferujący wyższą jakość wyników, szczególnie w zadaniach matematycznych, z długim kontekstem i przetwarzaniem obrazu.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 zapewnia silne przetwarzanie multimodalne z większą elastycznością dla twórców aplikacji.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 zawiera najnowsze optymalizacje dla bardziej efektywnego przetwarzania multimodalnego.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro obsługuje do 2 milionów tokenów, będąc idealnym modelem multimodalnym średniej wielkości do złożonych zadań.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Eksperymentalny model Gemini 2.0 Flash z obsługą generowania obrazów.",
511
+ "gemini-2.0-flash-exp.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
512
+ "gemini-2.0-flash-lite-001.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
513
+ "gemini-2.0-flash-lite.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google z pełnymi możliwościami.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash to najbardziej opłacalny model Google z pełnymi możliwościami.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.",
504
529
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
505
530
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
506
531
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Tworzenie treści",
13
13
  "interests.hint": "Możesz to zmienić w każdej chwili w ustawieniach",
14
14
  "interests.placeholder": "Wpisz swoje zainteresowania...",
15
+ "interests.title": "Jakie obszary Cię interesują?",
16
+ "interests.title2": "To pomoże mi lepiej Cię poznać",
17
+ "interests.title3": "Nie spiesz się, chcę Cię lepiej poznać",
15
18
  "modeSelection.desc": "Wybierz tryb pracy, który najbardziej Ci odpowiada",
16
19
  "modeSelection.hint": "Możesz to zmienić w każdej chwili w ustawieniach",
17
20
  "modeSelection.lite.desc": "Idealny do codziennych rozmów, pytań i odpowiedzi, lekkiej pracy i testowania modeli",
@@ -5,6 +5,7 @@
5
5
  "builtins.lobe-agent-builder.apiName.getConfig": "Pobierz konfigurację",
6
6
  "builtins.lobe-agent-builder.apiName.getMeta": "Pobierz metadane",
7
7
  "builtins.lobe-agent-builder.apiName.getPrompt": "Pobierz systemowy prompt",
8
+ "builtins.lobe-agent-builder.apiName.installPlugin": "Zainstaluj umiejętność",
8
9
  "builtins.lobe-agent-builder.apiName.searchMarketTools": "Przeszukaj rynek Umiejętności",
9
10
  "builtins.lobe-agent-builder.apiName.searchOfficialTools": "Przeszukaj oficjalne Umiejętności",
10
11
  "builtins.lobe-agent-builder.apiName.setModel": "Ustaw model",
@@ -15,6 +16,12 @@
15
16
  "builtins.lobe-agent-builder.apiName.updateConfig": "Zaktualizuj konfigurację",
16
17
  "builtins.lobe-agent-builder.apiName.updateMeta": "Zaktualizuj metadane",
17
18
  "builtins.lobe-agent-builder.apiName.updatePrompt": "Zaktualizuj systemowy prompt",
19
+ "builtins.lobe-agent-builder.inspector.chars": " znaki",
20
+ "builtins.lobe-agent-builder.inspector.disablePlugin": "Wyłącz",
21
+ "builtins.lobe-agent-builder.inspector.enablePlugin": "Włącz",
22
+ "builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} modeli",
23
+ "builtins.lobe-agent-builder.inspector.noResults": "Brak wyników",
24
+ "builtins.lobe-agent-builder.inspector.togglePlugin": "Przełącz",
18
25
  "builtins.lobe-agent-builder.title": "Ekspert Budowy Agenta",
19
26
  "builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Edytuj plik",
20
27
  "builtins.lobe-cloud-sandbox.apiName.executeCode": "Wykonaj kod",
@@ -31,13 +38,27 @@
31
38
  "builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Przeszukaj pliki",
32
39
  "builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Zapisz plik",
33
40
  "builtins.lobe-cloud-sandbox.title": "Piaskownica w Chmurze",
41
+ "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Utwórz wielu agentów",
42
+ "builtins.lobe-group-agent-builder.apiName.createAgent": "Utwórz agenta",
34
43
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Pobierz dostępne modele",
35
44
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "Zainstaluj Umiejętność",
36
45
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "Zaproś członka",
37
46
  "builtins.lobe-group-agent-builder.apiName.removeAgent": "Usuń członka",
47
+ "builtins.lobe-group-agent-builder.apiName.searchAgent": "Szukaj agentów",
38
48
  "builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Przeszukaj rynek Umiejętności",
39
49
  "builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Zaktualizuj konfigurację agenta",
40
- "builtins.lobe-group-agent-builder.apiName.updatePrompt": "Zaktualizuj systemowy prompt",
50
+ "builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Zaktualizuj prompt agenta",
51
+ "builtins.lobe-group-agent-builder.apiName.updateGroup": "Zaktualizuj grupę",
52
+ "builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Zaktualizuj prompt grupy",
53
+ "builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Zaktualizuj prompt nadzorcy",
54
+ "builtins.lobe-group-agent-builder.inspector.agents": "agenci",
55
+ "builtins.lobe-group-agent-builder.inspector.avatar": "Awatar",
56
+ "builtins.lobe-group-agent-builder.inspector.backgroundColor": "Kolor tła",
57
+ "builtins.lobe-group-agent-builder.inspector.description": "Opis",
58
+ "builtins.lobe-group-agent-builder.inspector.noResults": "Brak wyników",
59
+ "builtins.lobe-group-agent-builder.inspector.openingMessage": "Wiadomość powitalna",
60
+ "builtins.lobe-group-agent-builder.inspector.openingQuestions": "Pytania początkowe",
61
+ "builtins.lobe-group-agent-builder.inspector.title": "Tytuł",
41
62
  "builtins.lobe-group-agent-builder.title": "Ekspert Budowy Grupy",
42
63
  "builtins.lobe-group-management.apiName.broadcast": "Wszyscy mówią",
43
64
  "builtins.lobe-group-management.apiName.createAgent": "Dodaj członka grupy",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
- "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
33
32
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
34
33
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
35
34
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -71,11 +71,18 @@
71
71
  "group.desc": "Avance em uma tarefa com vários Agentes em um espaço compartilhado.",
72
72
  "group.memberTooltip": "Há {{count}} membros no grupo",
73
73
  "group.orchestratorThinking": "Orquestrador está pensando...",
74
+ "group.profile.contentPlaceholder": "Defina os objetivos/modos de trabalho do grupo aqui. Essas informações serão compartilhadas com todos os membros do grupo.",
75
+ "group.profile.external": "Externo",
76
+ "group.profile.externalAgentWarning": "Este é um agente externo. As alterações feitas aqui modificarão diretamente a configuração original do agente.",
77
+ "group.profile.groupSettings": "Configurações do Grupo",
78
+ "group.profile.supervisor": "Supervisor",
79
+ "group.profile.supervisorPlaceholder": "O supervisor coordena diferentes agentes. Definir as informações do supervisor aqui permite uma coordenação de fluxo de trabalho mais precisa.",
74
80
  "group.removeMember": "Remover Membro",
75
81
  "group.title": "Grupo",
76
82
  "groupDescription": "Descrição do grupo",
77
83
  "groupSidebar.agentProfile.chat": "Conversa",
78
84
  "groupSidebar.agentProfile.model": "Modelo",
85
+ "groupSidebar.agentProfile.settings": "Configurações",
79
86
  "groupSidebar.members.addMember": "Adicionar Membro",
80
87
  "groupSidebar.members.enableOrchestrator": "Ativar Orquestrador",
81
88
  "groupSidebar.members.memberSettings": "Configurações do Membro",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Agente da Comunidade",
135
135
  "cmdk.search.file": "Arquivo",
136
136
  "cmdk.search.files": "Arquivos",
137
+ "cmdk.search.folder": "Pasta",
138
+ "cmdk.search.folders": "Pastas",
137
139
  "cmdk.search.loading": "Pesquisando...",
138
140
  "cmdk.search.market": "Comunidade",
139
141
  "cmdk.search.mcp": "Servidor MCP",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Mais",
57
57
  "assistants.plugins": "Habilidades Integradas",
58
58
  "assistants.recentSubmits": "Atualizações Recentes",
59
- "assistants.sorts.recommended": "Recomendado",
60
59
  "assistants.sorts.createdAt": "Recentemente Publicado",
61
60
  "assistants.sorts.identifier": "ID do Agente",
62
61
  "assistants.sorts.knowledgeCount": "Bibliotecas",
63
62
  "assistants.sorts.myown": "Ver Meus Agentes",
64
63
  "assistants.sorts.pluginCount": "Habilidades",
64
+ "assistants.sorts.recommended": "Recomendado",
65
65
  "assistants.sorts.title": "Nome do Agente",
66
66
  "assistants.sorts.tokenUsage": "Uso de Tokens",
67
67
  "assistants.status.archived.reasons.official": "A plataforma removeu este Agente por motivos de segurança, política ou outras preocupações.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Este Agente inclui Bibliotecas",
84
84
  "assistants.withPlugin": "Este Agente inclui Habilidades",
85
85
  "back": "Voltar para Descoberta",
86
- "category.assistant.discover": "Descoberta",
87
86
  "category.assistant.academic": "Acadêmico",
88
87
  "category.assistant.all": "Todos",
89
88
  "category.assistant.career": "Carreira",
90
89
  "category.assistant.copywriting": "Redação",
91
90
  "category.assistant.design": "Design",
91
+ "category.assistant.discover": "Descoberta",
92
92
  "category.assistant.education": "Educação",
93
93
  "category.assistant.emotions": "Emoções",
94
94
  "category.assistant.entertainment": "Entretenimento",
@@ -73,9 +73,9 @@
73
73
  "Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick é um modelo MoE de grande porte com ativação eficiente de especialistas para desempenho robusto em raciocínio.",
74
74
  "MiniMax-M1.description": "Um novo modelo de raciocínio interno com 80 mil cadeias de pensamento e 1 milhão de tokens de entrada, oferecendo desempenho comparável aos principais modelos globais.",
75
75
  "MiniMax-M2-Stable.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes, com maior concorrência para uso comercial.",
76
- "MiniMax-M2.1-Lightning.description": "Poderosas capacidades de programação multilíngue, com uma experiência de codificação totalmente aprimorada. Mais rápido, mais eficiente.",
77
- "MiniMax-M2.1.description": "Poderosas capacidades de programação multilíngue, com uma experiência de codificação totalmente aprimorada.",
78
- "MiniMax-M2.description": "Projetado para codificação eficiente e fluxos de trabalho com agentes.",
76
+ "MiniMax-M2.1-Lightning.description": "Poderosas capacidades de programação multilíngue, experiência de codificação totalmente aprimorada. Mais rápido e eficiente.",
77
+ "MiniMax-M2.1.description": "Poderosas capacidades de programação multilíngue, experiência de codificação totalmente aprimorada",
78
+ "MiniMax-M2.description": "Desenvolvido especificamente para codificação eficiente e fluxos de trabalho com agentes",
79
79
  "MiniMax-Text-01.description": "O MiniMax-01 introduz atenção linear em larga escala além dos Transformers clássicos, com 456 bilhões de parâmetros e 45,9 bilhões ativados por passagem. Alcança desempenho de ponta e suporta até 4 milhões de tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
80
80
  "MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 é um modelo de raciocínio com pesos abertos, atenção híbrida em larga escala, com 456 bilhões de parâmetros totais e ~45,9 bilhões ativos por token. Suporta nativamente 1 milhão de tokens de contexto e utiliza Flash Attention para reduzir FLOPs em 75% na geração de 100 mil tokens em comparação com o DeepSeek R1. Com arquitetura MoE, CISPO e treinamento com atenção híbrida via RL, atinge desempenho líder em raciocínio com entradas longas e tarefas reais de engenharia de software.",
81
81
  "MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 redefine a eficiência de agentes. É um modelo MoE compacto, rápido e econômico com 230 bilhões de parâmetros totais e 10 bilhões ativos, projetado para tarefas de codificação e agentes de alto nível, mantendo forte inteligência geral. Com apenas 10 bilhões de parâmetros ativos, rivaliza com modelos muito maiores, sendo ideal para aplicações de alta eficiência.",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
273
273
  "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio disponível no mercado. Ele pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo visíveis para o usuário. O Sonnet se destaca especialmente em programação, ciência de dados, visão computacional e tarefas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários de API.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou realizar raciocínios passo a passo com processo visível.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
289
289
  "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis do GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
358
+ "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Preserva o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
379
379
  "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
380
380
  "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "O modo de raciocínio DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
382
382
  "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
383
383
  "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
384
384
  "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
473
473
  "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela equipe Seed da ByteDance, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem e gera imagens de alta qualidade com controle preciso. Gera imagens a partir de comandos de texto.",
475
475
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
480
480
  "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
482
- "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagem da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e mais.",
483
- "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.",
482
+ "fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagens da equipe Qwen que permite edições semânticas e visuais, edita com precisão textos em chinês e inglês, e realiza edições de alta qualidade como transferência de estilo e rotação de objetos.",
483
+ "fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.",
484
484
  "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
485
485
  "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
486
486
  "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@@ -526,7 +526,6 @@
526
526
  "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
527
527
  "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
528
528
  "gemini-2.5-pro.description": "Gemini 2.5 Pro é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
529
- "gemini-3-flash-preview.description": "Gemini 3 Flash é o modelo mais inteligente já criado para velocidade, combinando inteligência de ponta com excelente integração de busca.",
530
529
  "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.",
531
530
  "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.",
532
531
  "gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.",
@@ -554,6 +553,44 @@
554
553
  "glm-4-plus.description": "GLM-4-Plus é um modelo carro-chefe de alta inteligência com forte capacidade para textos longos e tarefas complexas, além de desempenho geral aprimorado.",
555
554
  "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
556
555
  "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
556
+ "glm-4.5-air.description": "Edição leve do GLM-4.5 que equilibra desempenho e custo, com modos de raciocínio híbrido flexíveis.",
557
+ "glm-4.5-airx.description": "Edição rápida do GLM-4.5-Air com respostas mais ágeis para uso em larga escala e alta velocidade.",
558
+ "glm-4.5-flash.description": "Versão gratuita do GLM-4.5 com ótimo desempenho em raciocínio, programação e tarefas de agentes.",
559
+ "glm-4.5-x.description": "Edição rápida do GLM-4.5, com desempenho robusto e velocidade de geração de até 100 tokens/segundo.",
560
+ "glm-4.5.description": "Modelo principal da Zhipu com modo de raciocínio alternável, oferecendo SOTA de código aberto e suporte a contexto de até 128K tokens.",
561
+ "glm-4.5v.description": "Modelo de raciocínio visual de próxima geração da Zhipu com arquitetura MoE, totalizando 106B parâmetros (12B ativos), atingindo SOTA entre modelos multimodais de código aberto de tamanho semelhante em tarefas de imagem, vídeo, documentos e interfaces gráficas.",
562
+ "glm-4.6.description": "GLM-4.6 (355B), o mais novo modelo principal da Zhipu, supera amplamente a geração anterior em codificação avançada, processamento de textos longos, raciocínio e capacidades de agentes. Em especial, sua habilidade de programação está alinhada ao Claude Sonnet 4, tornando-o o modelo de codificação mais avançado da China.",
563
+ "glm-4.7.description": "GLM-4.7 é o mais novo modelo principal da Zhipu, com codificação reforçada para cenários de programação com agentes, planejamento de tarefas de longo prazo e colaboração com ferramentas. Apresenta desempenho de ponta entre modelos de código aberto em diversos benchmarks públicos. Suas respostas são mais naturais e concisas, com escrita mais envolvente. Em tarefas complexas de agentes, segue instruções com mais precisão, e melhora a estética e eficiência na execução de tarefas longas com Artifacts e Agentic Coding.",
564
+ "glm-4.description": "GLM-4 é o modelo principal anterior lançado em janeiro de 2024, agora substituído pelo mais forte GLM-4-0520.",
565
+ "glm-4v-flash.description": "GLM-4V-Flash é focado em compreensão eficiente de imagens únicas para cenários de análise rápida, como processamento de imagens em tempo real ou em lote.",
566
+ "glm-4v-plus-0111.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.",
567
+ "glm-4v-plus.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.",
568
+ "glm-4v.description": "GLM-4V oferece forte compreensão e raciocínio visual em diversas tarefas visuais.",
569
+ "glm-z1-air.description": "Modelo de raciocínio com forte capacidade de inferência para tarefas que exigem dedução profunda.",
570
+ "glm-z1-airx.description": "Raciocínio ultrarrápido com alta qualidade de inferência.",
571
+ "glm-z1-flash.description": "A série GLM-Z1 oferece raciocínio complexo robusto, com destaque em lógica, matemática e programação.",
572
+ "glm-z1-flashx.description": "Rápido e de baixo custo: versão Flash com raciocínio ultrarrápido e maior concorrência.",
573
+ "glm-zero-preview.description": "GLM-Zero-Preview oferece raciocínio complexo robusto, com destaque em lógica, matemática e programação.",
574
+ "global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional e desempenho escalável para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
575
+ "google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferece capacidades de nova geração, incluindo excelente velocidade, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
576
+ "google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental é o mais recente modelo multimodal experimental do Google, com melhorias de qualidade em relação às versões anteriores, especialmente em conhecimento geral, código e contexto longo.",
577
+ "google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite é uma variante leve do Gemini com raciocínio desativado por padrão para melhorar latência e custo, podendo ser ativado via parâmetros.",
578
+ "google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite oferece recursos de nova geração, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
579
+ "google/gemini-2.0-flash.description": "Gemini 2.0 Flash é o modelo de raciocínio de alto desempenho do Google para tarefas multimodais estendidas.",
580
+ "google/gemini-2.5-flash-image-free.description": "Camada gratuita do Gemini 2.5 Flash Image com geração multimodal limitada por cota.",
581
+ "google/gemini-2.5-flash-image-preview.description": "Modelo experimental Gemini 2.5 Flash com suporte à geração de imagens.",
582
+ "google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) é o modelo de geração de imagens do Google com suporte a conversas multimodais.",
583
+ "google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite é a variante leve do Gemini 2.5, otimizada para latência e custo, ideal para cenários de alto volume.",
584
+ "google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, programação, matemática e ciências. Inclui raciocínio embutido para respostas mais precisas e processamento de contexto refinado.\n\nNota: Este modelo possui duas variantes — com e sem raciocínio. O preço de saída varia significativamente dependendo da ativação do raciocínio.\n\nPara usar o raciocínio e receber tokens de raciocínio, selecione a variante “:thinking”, que possui custo adicional.\n\nO Gemini 2.5 Flash também pode ser configurado via o parâmetro “max reasoning tokens” conforme documentado (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
585
+ "google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, programação, matemática e ciências. Inclui raciocínio embutido para respostas mais precisas e processamento de contexto refinado.\n\nNota: Este modelo possui duas variantes — com e sem raciocínio. O preço de saída varia significativamente dependendo da ativação do raciocínio.\n\nPara usar o raciocínio e receber tokens de raciocínio, selecione a variante “:thinking”, que possui custo adicional.\n\nO Gemini 2.5 Flash também pode ser configurado via o parâmetro “max reasoning tokens” conforme documentado (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
586
+ "google/gemini-2.5-flash.description": "Gemini 2.5 Flash (Lite/Pro/Flash) é a família de modelos do Google que abrange desde baixa latência até raciocínio de alto desempenho.",
587
+ "google/gemini-2.5-pro-free.description": "Camada gratuita do Gemini 2.5 Pro com geração multimodal de contexto longo limitada por cota, ideal para testes e fluxos leves.",
588
+ "google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google para resolver problemas complexos em código, matemática e STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
589
+ "google/gemini-2.5-pro.description": "Gemini 2.5 Pro é o modelo principal de raciocínio do Google com suporte a contexto longo para tarefas complexas.",
590
+ "google/gemini-3-pro-image-preview-free.description": "Camada gratuita do Gemini 3 Pro Image com geração multimodal limitada por cota.",
591
+ "google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google com suporte a conversas multimodais.",
592
+ "google/gemini-3-pro-preview-free.description": "Gemini 3 Pro Preview Free oferece a mesma compreensão e raciocínio multimodal da versão padrão, mas com limites de cota e taxa, ideal para testes e uso de baixa frequência.",
593
+ "google/gemini-3-pro-preview.description": "Gemini 3 Pro é o modelo de raciocínio multimodal de próxima geração da família Gemini, com compreensão de texto, áudio, imagens e vídeo, capaz de lidar com tarefas complexas e grandes bases de código.",
557
594
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
558
595
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
559
596
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -12,6 +12,9 @@
12
12
  "interests.area.writing": "Criação de Conteúdo",
13
13
  "interests.hint": "Você pode mudar isso a qualquer momento nas configurações",
14
14
  "interests.placeholder": "Digite seus interesses...",
15
+ "interests.title": "Quais são as suas áreas de interesse?",
16
+ "interests.title2": "Isso vai me ajudar a te conhecer melhor",
17
+ "interests.title3": "Sem pressa, vou te conhecer melhor aos poucos",
15
18
  "modeSelection.desc": "Escolha o modo que combina mais com você",
16
19
  "modeSelection.hint": "Você pode mudar isso a qualquer momento nas configurações",
17
20
  "modeSelection.lite.desc": "Ideal para conversas do dia a dia, perguntas e respostas, produtividade leve e testes de modelos",
@@ -5,6 +5,7 @@
5
5
  "builtins.lobe-agent-builder.apiName.getConfig": "Obter configuração",
6
6
  "builtins.lobe-agent-builder.apiName.getMeta": "Obter metadados",
7
7
  "builtins.lobe-agent-builder.apiName.getPrompt": "Obter prompt do sistema",
8
+ "builtins.lobe-agent-builder.apiName.installPlugin": "Instalar Habilidade",
8
9
  "builtins.lobe-agent-builder.apiName.searchMarketTools": "Buscar no mercado de Habilidades",
9
10
  "builtins.lobe-agent-builder.apiName.searchOfficialTools": "Buscar Habilidades oficiais",
10
11
  "builtins.lobe-agent-builder.apiName.setModel": "Definir modelo",
@@ -15,6 +16,12 @@
15
16
  "builtins.lobe-agent-builder.apiName.updateConfig": "Atualizar configuração",
16
17
  "builtins.lobe-agent-builder.apiName.updateMeta": "Atualizar metadados",
17
18
  "builtins.lobe-agent-builder.apiName.updatePrompt": "Atualizar prompt do sistema",
19
+ "builtins.lobe-agent-builder.inspector.chars": " caracteres",
20
+ "builtins.lobe-agent-builder.inspector.disablePlugin": "Desativar",
21
+ "builtins.lobe-agent-builder.inspector.enablePlugin": "Ativar",
22
+ "builtins.lobe-agent-builder.inspector.modelsCount": "{{count}} modelos",
23
+ "builtins.lobe-agent-builder.inspector.noResults": "Nenhum resultado",
24
+ "builtins.lobe-agent-builder.inspector.togglePlugin": "Alternar",
18
25
  "builtins.lobe-agent-builder.title": "Especialista em Criação de Agentes",
19
26
  "builtins.lobe-cloud-sandbox.apiName.editLocalFile": "Editar arquivo",
20
27
  "builtins.lobe-cloud-sandbox.apiName.executeCode": "Executar código",
@@ -31,13 +38,27 @@
31
38
  "builtins.lobe-cloud-sandbox.apiName.searchLocalFiles": "Buscar arquivos",
32
39
  "builtins.lobe-cloud-sandbox.apiName.writeLocalFile": "Escrever arquivo",
33
40
  "builtins.lobe-cloud-sandbox.title": "Ambiente de Testes na Nuvem",
41
+ "builtins.lobe-group-agent-builder.apiName.batchCreateAgents": "Criar agentes em lote",
42
+ "builtins.lobe-group-agent-builder.apiName.createAgent": "Criar agente",
34
43
  "builtins.lobe-group-agent-builder.apiName.getAvailableModels": "Obter modelos disponíveis",
35
44
  "builtins.lobe-group-agent-builder.apiName.installPlugin": "Instalar Habilidade",
36
45
  "builtins.lobe-group-agent-builder.apiName.inviteAgent": "Convidar membro",
37
46
  "builtins.lobe-group-agent-builder.apiName.removeAgent": "Remover membro",
47
+ "builtins.lobe-group-agent-builder.apiName.searchAgent": "Buscar agentes",
38
48
  "builtins.lobe-group-agent-builder.apiName.searchMarketTools": "Buscar no mercado de Habilidades",
39
49
  "builtins.lobe-group-agent-builder.apiName.updateAgentConfig": "Atualizar configuração do agente",
40
- "builtins.lobe-group-agent-builder.apiName.updatePrompt": "Atualizar prompt do sistema",
50
+ "builtins.lobe-group-agent-builder.apiName.updateAgentPrompt": "Atualizar prompt do agente",
51
+ "builtins.lobe-group-agent-builder.apiName.updateGroup": "Atualizar grupo",
52
+ "builtins.lobe-group-agent-builder.apiName.updateGroupPrompt": "Atualizar prompt do grupo",
53
+ "builtins.lobe-group-agent-builder.apiName.updateSupervisorPrompt": "Atualizar prompt do supervisor",
54
+ "builtins.lobe-group-agent-builder.inspector.agents": "agentes",
55
+ "builtins.lobe-group-agent-builder.inspector.avatar": "Avatar",
56
+ "builtins.lobe-group-agent-builder.inspector.backgroundColor": "Cor de fundo",
57
+ "builtins.lobe-group-agent-builder.inspector.description": "Descrição",
58
+ "builtins.lobe-group-agent-builder.inspector.noResults": "Nenhum resultado",
59
+ "builtins.lobe-group-agent-builder.inspector.openingMessage": "Mensagem de abertura",
60
+ "builtins.lobe-group-agent-builder.inspector.openingQuestions": "Perguntas iniciais",
61
+ "builtins.lobe-group-agent-builder.inspector.title": "Título",
41
62
  "builtins.lobe-group-agent-builder.title": "Especialista em Criação de Grupos",
42
63
  "builtins.lobe-group-management.apiName.broadcast": "Todos falam",
43
64
  "builtins.lobe-group-management.apiName.createAgent": "Adicionar membro ao grupo",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
33
32
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
34
33
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
35
34
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -71,11 +71,18 @@
71
71
  "group.desc": "Продвигайте задачу с помощью нескольких агентов в общем пространстве.",
72
72
  "group.memberTooltip": "В группе {{count}} участников",
73
73
  "group.orchestratorThinking": "Оркестратор обдумывает...",
74
+ "group.profile.contentPlaceholder": "Укажите цели и режимы работы группы здесь. Эта информация будет доступна всем участникам группы.",
75
+ "group.profile.external": "Внешний",
76
+ "group.profile.externalAgentWarning": "Это внешний агент. Изменения, внесённые здесь, напрямую повлияют на исходную конфигурацию агента.",
77
+ "group.profile.groupSettings": "Настройки группы",
78
+ "group.profile.supervisor": "Куратор",
79
+ "group.profile.supervisorPlaceholder": "Куратор координирует работу различных агентов. Указание информации о кураторе позволяет точнее организовать рабочие процессы.",
74
80
  "group.removeMember": "Удалить участника",
75
81
  "group.title": "Группа",
76
82
  "groupDescription": "Описание группы",
77
83
  "groupSidebar.agentProfile.chat": "Чат",
78
84
  "groupSidebar.agentProfile.model": "Модель",
85
+ "groupSidebar.agentProfile.settings": "Настройки",
79
86
  "groupSidebar.members.addMember": "Добавить участника",
80
87
  "groupSidebar.members.enableOrchestrator": "Включить оркестратор",
81
88
  "groupSidebar.members.memberSettings": "Настройки участника",
@@ -134,6 +134,8 @@
134
134
  "cmdk.search.communityAgent": "Агент сообщества",
135
135
  "cmdk.search.file": "Файл",
136
136
  "cmdk.search.files": "Файлы",
137
+ "cmdk.search.folder": "Папка",
138
+ "cmdk.search.folders": "Папки",
137
139
  "cmdk.search.loading": "Поиск...",
138
140
  "cmdk.search.market": "Сообщество",
139
141
  "cmdk.search.mcp": "Сервер MCP",
@@ -56,12 +56,12 @@
56
56
  "assistants.more": "Ещё",
57
57
  "assistants.plugins": "Интегрированные навыки",
58
58
  "assistants.recentSubmits": "Недавние обновления",
59
- "assistants.sorts.recommended": "Рекомендованные",
60
59
  "assistants.sorts.createdAt": "Недавно опубликованные",
61
60
  "assistants.sorts.identifier": "ID агента",
62
61
  "assistants.sorts.knowledgeCount": "Библиотеки",
63
62
  "assistants.sorts.myown": "Мои агенты",
64
63
  "assistants.sorts.pluginCount": "Навыки",
64
+ "assistants.sorts.recommended": "Рекомендованные",
65
65
  "assistants.sorts.title": "Название агента",
66
66
  "assistants.sorts.tokenUsage": "Использование токенов",
67
67
  "assistants.status.archived.reasons.official": "Платформа удалила этого агента по соображениям безопасности, политики или другим причинам.",
@@ -83,12 +83,12 @@
83
83
  "assistants.withKnowledge": "Этот агент использует библиотеки",
84
84
  "assistants.withPlugin": "Этот агент использует навыки",
85
85
  "back": "Назад к поиску",
86
- "category.assistant.discover": "Обзор",
87
86
  "category.assistant.academic": "Академия",
88
87
  "category.assistant.all": "Все",
89
88
  "category.assistant.career": "Карьера",
90
89
  "category.assistant.copywriting": "Копирайтинг",
91
90
  "category.assistant.design": "Дизайн",
91
+ "category.assistant.discover": "Обзор",
92
92
  "category.assistant.education": "Образование",
93
93
  "category.assistant.emotions": "Эмоции",
94
94
  "category.assistant.entertainment": "Развлечения",