@lobehub/lobehub 2.0.0-next.339 → 2.0.0-next.340

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (180) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/docs/self-hosting/advanced/auth/clerk-to-betterauth.mdx +366 -0
  4. package/docs/self-hosting/advanced/auth/clerk-to-betterauth.zh-CN.mdx +360 -0
  5. package/docs/self-hosting/advanced/auth/legacy.mdx +4 -0
  6. package/docs/self-hosting/advanced/auth/legacy.zh-CN.mdx +4 -0
  7. package/docs/self-hosting/advanced/auth.mdx +55 -30
  8. package/docs/self-hosting/advanced/auth.zh-CN.mdx +55 -30
  9. package/locales/ar/auth.json +1 -1
  10. package/locales/ar/desktop-onboarding.json +1 -0
  11. package/locales/ar/metadata.json +2 -2
  12. package/locales/ar/models.json +23 -5
  13. package/locales/ar/providers.json +0 -1
  14. package/locales/ar/setting.json +19 -0
  15. package/locales/bg-BG/auth.json +1 -1
  16. package/locales/bg-BG/desktop-onboarding.json +1 -0
  17. package/locales/bg-BG/metadata.json +2 -2
  18. package/locales/bg-BG/models.json +5 -5
  19. package/locales/bg-BG/providers.json +0 -1
  20. package/locales/bg-BG/setting.json +19 -0
  21. package/locales/de-DE/auth.json +1 -1
  22. package/locales/de-DE/desktop-onboarding.json +1 -0
  23. package/locales/de-DE/metadata.json +2 -2
  24. package/locales/de-DE/models.json +31 -10
  25. package/locales/de-DE/providers.json +0 -1
  26. package/locales/de-DE/setting.json +19 -0
  27. package/locales/en-US/auth.json +3 -2
  28. package/locales/en-US/metadata.json +2 -2
  29. package/locales/en-US/models.json +10 -11
  30. package/locales/en-US/providers.json +0 -1
  31. package/locales/es-ES/auth.json +1 -1
  32. package/locales/es-ES/desktop-onboarding.json +1 -0
  33. package/locales/es-ES/metadata.json +2 -2
  34. package/locales/es-ES/models.json +32 -5
  35. package/locales/es-ES/providers.json +0 -1
  36. package/locales/es-ES/setting.json +19 -0
  37. package/locales/fa-IR/auth.json +1 -1
  38. package/locales/fa-IR/desktop-onboarding.json +1 -0
  39. package/locales/fa-IR/metadata.json +2 -2
  40. package/locales/fa-IR/models.json +35 -5
  41. package/locales/fa-IR/providers.json +0 -1
  42. package/locales/fa-IR/setting.json +19 -0
  43. package/locales/fr-FR/auth.json +1 -1
  44. package/locales/fr-FR/desktop-onboarding.json +1 -0
  45. package/locales/fr-FR/metadata.json +2 -2
  46. package/locales/fr-FR/models.json +33 -5
  47. package/locales/fr-FR/providers.json +0 -1
  48. package/locales/fr-FR/setting.json +19 -0
  49. package/locales/it-IT/auth.json +1 -1
  50. package/locales/it-IT/desktop-onboarding.json +1 -0
  51. package/locales/it-IT/metadata.json +2 -2
  52. package/locales/it-IT/models.json +3 -8
  53. package/locales/it-IT/providers.json +0 -1
  54. package/locales/it-IT/setting.json +19 -0
  55. package/locales/ja-JP/auth.json +1 -1
  56. package/locales/ja-JP/desktop-onboarding.json +1 -0
  57. package/locales/ja-JP/metadata.json +2 -2
  58. package/locales/ja-JP/models.json +32 -5
  59. package/locales/ja-JP/providers.json +0 -1
  60. package/locales/ja-JP/setting.json +19 -0
  61. package/locales/ko-KR/auth.json +1 -1
  62. package/locales/ko-KR/desktop-onboarding.json +1 -0
  63. package/locales/ko-KR/metadata.json +2 -2
  64. package/locales/ko-KR/models.json +3 -8
  65. package/locales/ko-KR/providers.json +0 -1
  66. package/locales/ko-KR/setting.json +19 -0
  67. package/locales/nl-NL/auth.json +1 -1
  68. package/locales/nl-NL/desktop-onboarding.json +1 -0
  69. package/locales/nl-NL/metadata.json +2 -2
  70. package/locales/nl-NL/models.json +45 -4
  71. package/locales/nl-NL/providers.json +0 -1
  72. package/locales/nl-NL/setting.json +19 -0
  73. package/locales/pl-PL/auth.json +1 -1
  74. package/locales/pl-PL/desktop-onboarding.json +1 -0
  75. package/locales/pl-PL/metadata.json +2 -2
  76. package/locales/pl-PL/models.json +37 -5
  77. package/locales/pl-PL/providers.json +0 -1
  78. package/locales/pl-PL/setting.json +19 -0
  79. package/locales/pt-BR/auth.json +1 -1
  80. package/locales/pt-BR/desktop-onboarding.json +1 -0
  81. package/locales/pt-BR/metadata.json +2 -2
  82. package/locales/pt-BR/models.json +28 -4
  83. package/locales/pt-BR/providers.json +0 -1
  84. package/locales/pt-BR/setting.json +19 -0
  85. package/locales/ru-RU/auth.json +1 -1
  86. package/locales/ru-RU/desktop-onboarding.json +1 -0
  87. package/locales/ru-RU/metadata.json +2 -2
  88. package/locales/ru-RU/models.json +3 -8
  89. package/locales/ru-RU/providers.json +0 -1
  90. package/locales/ru-RU/setting.json +19 -0
  91. package/locales/tr-TR/auth.json +1 -1
  92. package/locales/tr-TR/desktop-onboarding.json +1 -0
  93. package/locales/tr-TR/metadata.json +2 -2
  94. package/locales/tr-TR/models.json +26 -7
  95. package/locales/tr-TR/providers.json +0 -1
  96. package/locales/tr-TR/setting.json +19 -0
  97. package/locales/vi-VN/auth.json +1 -1
  98. package/locales/vi-VN/desktop-onboarding.json +1 -0
  99. package/locales/vi-VN/metadata.json +2 -2
  100. package/locales/vi-VN/models.json +3 -5
  101. package/locales/vi-VN/providers.json +0 -1
  102. package/locales/vi-VN/setting.json +19 -0
  103. package/locales/zh-CN/auth.json +3 -3
  104. package/locales/zh-CN/metadata.json +2 -2
  105. package/locales/zh-CN/models.json +46 -6
  106. package/locales/zh-CN/providers.json +0 -1
  107. package/locales/zh-TW/auth.json +1 -1
  108. package/locales/zh-TW/desktop-onboarding.json +1 -0
  109. package/locales/zh-TW/metadata.json +2 -2
  110. package/locales/zh-TW/models.json +39 -6
  111. package/locales/zh-TW/providers.json +0 -1
  112. package/locales/zh-TW/setting.json +19 -0
  113. package/package.json +1 -1
  114. package/packages/const/src/url.ts +1 -1
  115. package/public/og/agent-og.webp +0 -0
  116. package/public/og/mcp-og.webp +0 -0
  117. package/public/og/og.webp +0 -0
  118. package/scripts/clerk-to-betterauth/__tests__/parseCsvLine.test.ts +21 -0
  119. package/scripts/clerk-to-betterauth/_internal/config.ts +55 -0
  120. package/scripts/clerk-to-betterauth/_internal/db.ts +32 -0
  121. package/scripts/clerk-to-betterauth/_internal/env.ts +6 -0
  122. package/scripts/clerk-to-betterauth/_internal/load-data-from-files.ts +74 -0
  123. package/scripts/clerk-to-betterauth/_internal/types.ts +45 -0
  124. package/scripts/clerk-to-betterauth/_internal/utils.ts +36 -0
  125. package/scripts/clerk-to-betterauth/export-clerk-users-with-api.ts +211 -0
  126. package/scripts/clerk-to-betterauth/index.ts +314 -0
  127. package/scripts/clerk-to-betterauth/prod/put_clerk_exported_users_csv_here.txt +0 -0
  128. package/scripts/clerk-to-betterauth/test/put_clerk_exported_users_csv_here.txt +0 -0
  129. package/scripts/clerk-to-betterauth/verify.ts +275 -0
  130. package/src/app/[variants]/(auth)/signin/SignInEmailStep.tsx +30 -2
  131. package/src/app/[variants]/(auth)/signin/SignInPasswordStep.tsx +1 -1
  132. package/src/app/[variants]/(auth)/signin/page.tsx +3 -0
  133. package/src/app/[variants]/(auth)/signin/useSignIn.ts +6 -2
  134. package/src/app/[variants]/(main)/home/features/RecentResource/Item.tsx +2 -2
  135. package/src/app/[variants]/(main)/home/features/index.tsx +1 -2
  136. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +0 -2
  137. package/src/app/[variants]/(main)/settings/skill/features/Actions.tsx +8 -7
  138. package/src/app/[variants]/(main)/settings/skill/features/McpSkillItem.tsx +9 -11
  139. package/src/app/manifest.ts +4 -4
  140. package/src/features/AuthCard/index.tsx +1 -1
  141. package/src/features/SkillStore/CommunityList/Item.tsx +3 -2
  142. package/src/features/SkillStore/Search/index.tsx +0 -1
  143. package/src/locales/default/auth.ts +3 -2
  144. package/src/locales/default/metadata.ts +2 -2
  145. package/src/server/ld.ts +4 -3
  146. package/src/styles/global.ts +0 -6
  147. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.mdx +0 -0
  148. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.zh-CN.mdx +0 -0
  149. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.mdx +0 -0
  150. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.zh-CN.mdx +0 -0
  151. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.mdx +0 -0
  152. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.zh-CN.mdx +0 -0
  153. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.mdx +0 -0
  154. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.zh-CN.mdx +0 -0
  155. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.mdx +0 -0
  156. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.zh-CN.mdx +0 -0
  157. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.mdx +0 -0
  158. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.zh-CN.mdx +0 -0
  159. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.mdx +0 -0
  160. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.zh-CN.mdx +0 -0
  161. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.mdx +0 -0
  162. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.zh-CN.mdx +0 -0
  163. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.mdx +0 -0
  164. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.zh-CN.mdx +0 -0
  165. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.mdx +0 -0
  166. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.zh-CN.mdx +0 -0
  167. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.mdx +0 -0
  168. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.zh-CN.mdx +0 -0
  169. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.mdx +0 -0
  170. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.zh-CN.mdx +0 -0
  171. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.mdx +0 -0
  172. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.zh-CN.mdx +0 -0
  173. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.mdx +0 -0
  174. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.zh-CN.mdx +0 -0
  175. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.mdx +0 -0
  176. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.zh-CN.mdx +0 -0
  177. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.mdx +0 -0
  178. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.zh-CN.mdx +0 -0
  179. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.mdx +0 -0
  180. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.zh-CN.mdx +0 -0
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
272
272
  "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
273
273
  "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic. In vergelijking met Claude 3 Haiku biedt het verbeterde vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het intelligentste model van Anthropic en het eerste hybride redeneermodel op de markt. Het ondersteunt vrijwel directe reacties of uitgebreid denkwerk met nauwkeurige controle.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct reageren of uitgebreide stapsgewijze redeneringen tonen die zichtbaar zijn voor de gebruiker. Sonnet blinkt uit in programmeren, datawetenschap, visuele taken en agenttoepassingen.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en intelligentste Haiku-model van Anthropic, met bliksemsnelle prestaties en diepgaand denkvermogen.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle prestaties en uitgebreide redeneercapaciteiten.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het intelligentste model van Anthropic, met vrijwel directe reacties of stapsgewijs denkwerk met nauwkeurige controle voor API-gebruikers.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct reageren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.",
@@ -355,6 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
358
+ "deepseek-chat.description": "Een nieuw open-source model dat algemene en programmeervaardigheden combineert. Het behoudt de algemene dialoogmogelijkheden van het chatmodel en de sterke codeerprestaties van het programmeermodel, met verbeterde voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het opvolgen van instructies.",
358
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
359
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
360
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@@ -377,6 +378,7 @@
377
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
378
379
  "deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
379
380
  "deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2-denkmodus genereert een keten van gedachten vóór het uiteindelijke antwoord om de nauwkeurigheid te verbeteren.",
380
382
  "deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
381
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.",
382
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@@ -470,6 +472,7 @@
470
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
471
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
472
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een afbeeldingsgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt en zeer controleerbare, hoogwaardige beelden genereert op basis van tekstprompts.",
473
476
  "fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
474
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
475
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
@@ -477,6 +480,8 @@
477
480
  "fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
478
481
  "fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
479
482
  "fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
483
+ "fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team dat semantische en visuele bewerkingen ondersteunt, nauwkeurige bewerking van Chinese en Engelse tekst mogelijk maakt, en hoogwaardige bewerkingen uitvoert zoals stijltransformatie en objectrotatie.",
484
+ "fal-ai/qwen-image.description": "Een krachtig afbeeldingsgeneratiemodel van het Qwen-team met indrukwekkende weergave van Chinese tekst en diverse visuele stijlen.",
480
485
  "flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 1–4 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
481
486
  "flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
482
487
  "flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
@@ -672,6 +677,42 @@
672
677
  "grok-4-fast-reasoning.description": "We zijn verheugd Grok 4 Fast uit te brengen, onze nieuwste vooruitgang in kosteneffectieve redeneermodellen.",
673
678
  "grok-4.description": "Ons nieuwste en krachtigste vlaggenschipmodel, uitblinkend in NLP, wiskunde en redenering—een ideale allrounder.",
674
679
  "grok-code-fast-1.description": "We zijn verheugd om grok-code-fast-1 te lanceren, een snel en kosteneffectief redeneermodel dat uitblinkt in agentmatig programmeren.",
680
+ "groq/compound-mini.description": "Compound-mini is een samengesteld AI-systeem dat gebruikmaakt van openbaar beschikbare modellen op GroqCloud en intelligent hulpmiddelen inzet om gebruikersvragen te beantwoorden.",
681
+ "groq/compound.description": "Compound is een samengesteld AI-systeem dat gebruikmaakt van meerdere openbaar beschikbare modellen op GroqCloud en intelligent hulpmiddelen inzet om gebruikersvragen te beantwoorden.",
682
+ "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B is een creatief en intelligent taalmodel dat is samengesteld uit meerdere topmodellen.",
683
+ "hunyuan-a13b.description": "Het eerste hybride redeneermodel van Hunyuan, een upgrade van hun hunyuan-standard-256K (80B totaal, 13B actief). Standaard ingesteld op langzaam denken, met ondersteuning voor snel/langzaam schakelen via parameters of prefix /no_think. De algehele capaciteit is verbeterd ten opzichte van de vorige generatie, vooral in wiskunde, wetenschap, langetekstbegrip en agenttaken.",
684
+ "hunyuan-code.description": "Het nieuwste codegeneratiemodel, getraind met 200 miljard hoogwaardige codevoorbeelden en zes maanden SFT; context uitgebreid tot 8K. Het scoort hoog in geautomatiseerde benchmarks voor vijf programmeertalen en in menselijke evaluaties op tien criteria.",
685
+ "hunyuan-functioncall.description": "Het nieuwste MoE FunctionCall-model, getraind met hoogwaardige functieaanroepdata, met een contextvenster van 32K en toonaangevende benchmarkresultaten op meerdere dimensies.",
686
+ "hunyuan-large-longcontext.description": "Blinkt uit in taken met lange documenten zoals samenvattingen en vraag-antwoord, en is ook sterk in algemene tekstgeneratie. Uitstekend in analyse en generatie van complexe, gedetailleerde lange teksten.",
687
+ "hunyuan-large-vision.description": "Een visueel-taalkundig model getraind vanuit Hunyuan Large voor beeld-tekstbegrip. Ondersteunt invoer van meerdere afbeeldingen + tekst in elke resolutie en verbetert meertalig visueel begrip.",
688
+ "hunyuan-large.description": "Hunyuan-large heeft ~389 miljard totale parameters en ~52 miljard actieve, het grootste en krachtigste open MoE-model in een Transformer-architectuur.",
689
+ "hunyuan-lite-vision.description": "Het nieuwste 7B multimodale model met een contextvenster van 32K, ondersteunt Chinees/Engels multimodaal chatten, objectherkenning, documenttabelbegrip en multimodale wiskunde, en presteert beter dan andere 7B-modellen op meerdere benchmarks.",
690
+ "hunyuan-lite.description": "Geüpgraded naar een MoE-architectuur met een contextvenster van 256K, en overtreft veel open modellen op het gebied van NLP, code, wiskunde en industriële benchmarks.",
691
+ "hunyuan-pro.description": "Een MoE-model met biljoenen parameters en een contextvenster van 32K, toonaangevend in benchmarks, sterk in complexe instructies en redenering, geavanceerde wiskunde, functieaanroepen, en geoptimaliseerd voor meertalige vertaling, financiën, recht en medische domeinen.",
692
+ "hunyuan-role.description": "Het nieuwste rollenspelmodel, officieel getraind op rollenspeldata, met verbeterde prestaties voor rollenspeltoepassingen.",
693
+ "hunyuan-standard-256K.description": "Maakt gebruik van verbeterde routering om load balancing en expertverval te voorkomen. Behaalt 99,9% 'needle-in-a-haystack'-score op lange context. MOE-256K breidt contextlengte en kwaliteit verder uit.",
694
+ "hunyuan-standard-vision.description": "Het nieuwste multimodale model met meertalige antwoorden en gebalanceerde Chinese/Engelse vaardigheden.",
695
+ "hunyuan-standard.description": "Maakt gebruik van verbeterde routering om load balancing en expertverval te voorkomen. Behaalt 99,9% 'needle-in-a-haystack'-score op lange context. MOE-32K biedt sterke prestaties bij lange invoer.",
696
+ "hunyuan-t1-20250321.description": "Combineert evenwichtige artistieke en bètavaardigheden met sterk langetekstinformatiebegrip. Ondersteunt redenerende antwoorden voor wiskunde-, logica-, wetenschap- en programmeerproblemen op verschillende niveaus.",
697
+ "hunyuan-t1-20250403.description": "Verbetert projectmatige codegeneratie en schrijfkwaliteit, versterkt begrip van meerstapsgesprekken en ToB-instructies, verbetert woordbegrip en vermindert problemen met gemengde vereenvoudigde/traditionele en Chinese/Engelse output.",
698
+ "hunyuan-t1-20250529.description": "Verbetert creatief schrijven en compositie, versterkt frontend-programmeren, wiskunde en logische redenering, en verbetert het opvolgen van instructies.",
699
+ "hunyuan-t1-20250711.description": "Verbetert aanzienlijk de prestaties bij moeilijke wiskunde, logica en programmeren, verhoogt de outputstabiliteit en versterkt langetekstcapaciteiten.",
700
+ "hunyuan-t1-latest.description": "Verbetert het langzaam-denkende model aanzienlijk op het gebied van moeilijke wiskunde, complexe redenering, uitdagende codeertaken, instructieopvolging en creatieve schrijfkwaliteit.",
701
+ "hunyuan-t1-vision-20250619.description": "Het nieuwste t1-vision multimodale diep-redeneermodel met native keten-van-gedachten, aanzienlijk verbeterd ten opzichte van de vorige standaardversie.",
702
+ "hunyuan-t1-vision-20250916.description": "Het nieuwste t1-vision diep-redeneermodel met grote verbeteringen in VQA, visuele verankering, OCR, grafieken, het oplossen van gefotografeerde problemen en beeldgebaseerde creatie, plus sterkere prestaties in Engels en talen met weinig middelen.",
703
+ "hunyuan-turbo-20241223.description": "Deze versie verbetert de schaalbaarheid van instructies voor betere generalisatie, verhoogt de prestaties in wiskunde/code/logica, verbetert woordbegrip en verhoogt de schrijfkwaliteit.",
704
+ "hunyuan-turbo-latest.description": "Algemene verbeteringen in NLP-begrip, schrijven, chatten, vraag-antwoord, vertaling en domeinspecifieke toepassingen; menselijkere reacties, betere verduidelijking van onduidelijke intenties, verbeterde woordanalyse, hogere creatieve kwaliteit en interactiviteit, en sterkere meerstapsgesprekken.",
705
+ "hunyuan-turbo-vision.description": "Volgende generatie visueel-taalkundig vlaggenschip met een nieuwe MoE-architectuur, met brede verbeteringen in herkenning, contentcreatie, kennisvraag-antwoord en analytisch redeneren.",
706
+ "hunyuan-turbo.description": "Voorvertoning van Hunyuan’s volgende generatie LLM met een nieuwe MoE-architectuur, levert snellere redenering en sterkere resultaten dan hun hunyuan-pro.",
707
+ "hunyuan-turbos-20250313.description": "Vereenvoudigt de stijl van wiskundige oplossingen en versterkt meerstaps wiskundige vraag-antwoord. De schrijfstijl is verfijnd om een minder AI-achtig karakter te hebben en meer gepolijst te zijn.",
708
+ "hunyuan-turbos-20250416.description": "Geüpgradede pretrainingbasis voor beter begrip en opvolging van instructies; afstemming verbetert wiskunde, code, logica en wetenschap; verhoogt schrijfkwaliteit, begrip, vertaalnauwkeurigheid en kennisvraag-antwoord; versterkt agentvaardigheden, vooral bij meerstapsbegrip.",
709
+ "hunyuan-turbos-20250604.description": "Geüpgradede pretrainingbasis met verbeterd schrijven en leesbegrip, aanzienlijke vooruitgang in code en STEM, en beter opvolgen van complexe instructies.",
710
+ "hunyuan-turbos-20250926.description": "Verbeterde kwaliteit van pretrainingdata en post-trainingsstrategie, met verbeteringen in agenten, Engels/talen met weinig middelen, instructieopvolging, code en STEM-vaardigheden.",
711
+ "hunyuan-turbos-latest.description": "Het nieuwste Hunyuan TurboS vlaggenschipmodel met sterkere redenering en een betere algehele ervaring.",
712
+ "hunyuan-turbos-longtext-128k-20250325.description": "Blinkt uit in taken met lange documenten zoals samenvattingen en vraag-antwoord, en is ook sterk in algemene tekstgeneratie. Uitstekend in analyse en generatie van complexe, gedetailleerde lange teksten.",
713
+ "hunyuan-turbos-role-plus.description": "Het nieuwste rollenspelmodel, officieel getraind op rollenspeldata, met verbeterde prestaties voor rollenspeltoepassingen.",
714
+ "hunyuan-turbos-vision-20250619.description": "Het nieuwste TurboS visueel-taalkundig vlaggenschip met grote verbeteringen in beeld-teksttaken zoals entiteitsherkenning, kennisvraag-antwoord, copywriting en het oplossen van problemen op basis van foto's.",
715
+ "hunyuan-turbos-vision.description": "Een visueel-taalkundig vlaggenschip van de volgende generatie gebaseerd op de nieuwste TurboS, gericht op beeld-tekstbegriptaken zoals entiteitsherkenning, kennisvraag-antwoord, copywriting en het oplossen van problemen op basis van foto's.",
675
716
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 is een open LLM voor ontwikkelaars, onderzoekers en bedrijven, ontworpen om hen te helpen bij het bouwen, experimenteren en verantwoord opschalen van generatieve AI-ideeën. Als onderdeel van de basis voor wereldwijde gemeenschapsinnovatie is het goed geschikt voor beperkte rekenkracht en middelen, edge-apparaten en snellere trainingstijden.",
676
717
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Sterke beeldredenering op afbeeldingen met hoge resolutie, geschikt voor toepassingen voor visueel begrip.",
677
718
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Geavanceerde beeldredenering voor toepassingen met visueel begrip en agentfunctionaliteit.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
30
30
  "jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
31
31
  "lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.",
32
- "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
33
32
  "minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
34
33
  "mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
35
34
  "modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",
@@ -36,7 +36,11 @@
36
36
  "agentCronJobs.noExecutionResults": "Geen uitvoeringsresultaten",
37
37
  "agentCronJobs.remainingExecutions": "Resterend: {{count}}",
38
38
  "agentCronJobs.save": "Opslaan",
39
+ "agentCronJobs.saveAsNew": "Opslaan als nieuw",
39
40
  "agentCronJobs.schedule": "Schema",
41
+ "agentCronJobs.scheduleType.daily": "Dagelijks",
42
+ "agentCronJobs.scheduleType.hourly": "Elk uur",
43
+ "agentCronJobs.scheduleType.weekly": "Wekelijks",
40
44
  "agentCronJobs.status.depleted": "Opgebruikt",
41
45
  "agentCronJobs.status.disabled": "Uitgeschakeld",
42
46
  "agentCronJobs.status.enabled": "Ingeschakeld",
@@ -45,6 +49,20 @@
45
49
  "agentCronJobs.unlimited": "Onbeperkt",
46
50
  "agentCronJobs.unnamedTask": "Naamloze taak",
47
51
  "agentCronJobs.updateSuccess": "Geplande taak succesvol bijgewerkt",
52
+ "agentCronJobs.weekday.friday": "Vrijdag",
53
+ "agentCronJobs.weekday.monday": "Maandag",
54
+ "agentCronJobs.weekday.saturday": "Zaterdag",
55
+ "agentCronJobs.weekday.short.friday": "Vr",
56
+ "agentCronJobs.weekday.short.monday": "Ma",
57
+ "agentCronJobs.weekday.short.saturday": "Za",
58
+ "agentCronJobs.weekday.short.sunday": "Zo",
59
+ "agentCronJobs.weekday.short.thursday": "Do",
60
+ "agentCronJobs.weekday.short.tuesday": "Di",
61
+ "agentCronJobs.weekday.short.wednesday": "Wo",
62
+ "agentCronJobs.weekday.sunday": "Zondag",
63
+ "agentCronJobs.weekday.thursday": "Donderdag",
64
+ "agentCronJobs.weekday.tuesday": "Dinsdag",
65
+ "agentCronJobs.weekday.wednesday": "Woensdag",
48
66
  "agentCronJobs.weekdays": "Weekdagen",
49
67
  "agentInfoDescription.basic.avatar": "Avatar",
50
68
  "agentInfoDescription.basic.description": "Beschrijving",
@@ -553,6 +571,7 @@
553
571
  "tab.about": "Over",
554
572
  "tab.addCustomSkill": "Aangepaste skill toevoegen",
555
573
  "tab.agent": "Agentservice",
574
+ "tab.all": "Alles",
556
575
  "tab.apikey": "API-sleutelbeheer",
557
576
  "tab.chatAppearance": "Chatweergave",
558
577
  "tab.common": "Weergave",
@@ -191,7 +191,7 @@
191
191
  "profile.usernameRule": "Nazwa użytkownika może zawierać tylko litery, cyfry lub podkreślenia",
192
192
  "profile.usernameUpdateFailed": "Nie udało się zaktualizować nazwy użytkownika, spróbuj ponownie później",
193
193
  "signin.subtitle": "Zarejestruj się lub zaloguj do swojego konta {{appName}}",
194
- "signin.title": "Do współpracy z agentami",
194
+ "signin.title": "Zespoły agentów, które rosną razem z Tobą",
195
195
  "signout": "Wyloguj się",
196
196
  "signup": "Zarejestruj się",
197
197
  "stats.aiheatmaps": "Indeks aktywności",
@@ -73,6 +73,7 @@
73
73
  "screen5.badge": "Logowanie",
74
74
  "screen5.description": "Zaloguj się, aby synchronizować Agentów, Grupy, ustawienia i Kontekst na wszystkich urządzeniach.",
75
75
  "screen5.errors.desktopOnlyOidc": "Autoryzacja OIDC jest dostępna tylko w wersji desktopowej aplikacji.",
76
+ "screen5.legacyLocalDb.link": "Migruj starszą lokalną bazę danych",
76
77
  "screen5.methods.cloud.description": "Zaloguj się na konto LobeHub Cloud, aby bezproblemowo synchronizować wszystko",
77
78
  "screen5.methods.cloud.name": "LobeHub Cloud",
78
79
  "screen5.methods.selfhost.description": "Połącz się z własną instancją serwera LobeHub",
@@ -1,8 +1,8 @@
1
1
  {
2
2
  "changelog.description": "Bądź na bieżąco z nowymi funkcjami i ulepszeniami w {{appName}}",
3
3
  "changelog.title": "Dziennik zmian",
4
- "chat.description": "{{appName}} oferuje najlepsze wrażenia z interfejsu użytkownika dla ChatGPT, Claude, Gemini i OLLaMA.",
5
- "chat.title": "{{appName}} · Dla Agentów Współpracujących",
4
+ "chat.description": "{{appName}} to przestrzeń do pracy i stylu życia, w której możesz znaleźć, tworzyć i współpracować z zespołami agentów rozwijającymi się razem z Tobą.",
5
+ "chat.title": "{{appName}} · Zespoły agentów, które rozwijają się razem z Tobą",
6
6
  "discover.assistants.description": "Treści, pytania i odpowiedzi, obrazy, wideo, głos, przepływy pracy — przeglądaj i dodawaj Agentów ze Społeczności.",
7
7
  "discover.assistants.title": "Społeczność Agentów",
8
8
  "discover.description": "Odkrywaj Agentów, Umiejętności, Dostawców, modele i Serwery MCP.",
@@ -273,7 +273,7 @@
273
273
  "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
274
274
  "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku widoczne dla użytkownika. Sonnet wyróżnia się szczególnie w programowaniu, analizie danych, przetwarzaniu obrazu i zadaniach agentowych.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
358
- "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje dialogową naturę modelu czatu i silne możliwości kodowania, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również jakość pisania i wykonywania instrukcji.",
358
+ "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje dialogowy charakter modelu czatu i silne możliwości kodowania, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również jakość pisania i wykonywania instrukcji.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@@ -472,7 +472,7 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
474
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i graficzne oraz oferujący wysoką kontrolę i jakość generowanych obrazów. Tworzy obrazy na podstawie opisów tekstowych.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i graficzne oraz umożliwiający precyzyjne, wysokiej jakości generowanie obrazów. Tworzy obrazy na podstawie opisów tekstowych.",
476
476
  "fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
477
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
478
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
@@ -480,8 +480,8 @@
480
480
  "fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
481
481
  "fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
482
482
  "fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
483
- "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wizualną, precyzyjnie edytujący tekst w języku chińskim i angielskim oraz umożliwiający wysokiej jakości modyfikacje, takie jak transfer stylu i obrót obiektów.",
484
- "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, oferujący imponujące renderowanie tekstu w języku chińskim i różnorodne style wizualne.",
483
+ "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wizualną, precyzyjnie edytujący teksty w języku chińskim i angielskim oraz umożliwiający zaawansowane modyfikacje, takie jak transfer stylu czy obrót obiektów.",
484
+ "fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, oferujący imponujące renderowanie tekstu chińskiego i różnorodne style wizualne.",
485
485
  "flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 1–4 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
486
486
  "flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
487
487
  "flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
@@ -596,6 +596,38 @@
596
596
  "google/gemini-embedding-001.description": "Nowoczesny model osadzania tekstu o wysokiej wydajności w języku angielskim, wielojęzycznym i kodzie.",
597
597
  "google/gemini-flash-1.5.description": "Gemini 1.5 Flash zapewnia zoptymalizowane przetwarzanie multimodalne dla szerokiego zakresu złożonych zadań.",
598
598
  "google/gemini-pro-1.5.description": "Gemini 1.5 Pro łączy najnowsze optymalizacje dla bardziej efektywnego przetwarzania danych multimodalnych.",
599
+ "google/gemma-2-27b-it.description": "Gemma 2 27B to uniwersalny model językowy o wysokiej wydajności w wielu scenariuszach.",
600
+ "google/gemma-2-27b.description": "Gemma 2 to wydajna rodzina modeli Google, przeznaczona do zastosowań od małych aplikacji po złożone przetwarzanie danych.",
601
+ "google/gemma-2-2b-it.description": "Zaawansowany mały model językowy zaprojektowany do zastosowań brzegowych.",
602
+ "google/gemma-2-9b-it.description": "Gemma 2 9B, opracowany przez Google, oferuje wydajne wykonywanie instrukcji i solidne ogólne możliwości.",
603
+ "google/gemma-2-9b-it:free.description": "Gemma 2 to lekka, open-source'owa rodzina modeli tekstowych od Google.",
604
+ "google/gemma-2-9b.description": "Gemma 2 to wydajna rodzina modeli Google, przeznaczona do zastosowań od małych aplikacji po złożone przetwarzanie danych.",
605
+ "google/gemma-2b-it.description": "Gemma Instruct (2B) zapewnia podstawową obsługę instrukcji dla lekkich aplikacji.",
606
+ "google/gemma-3-12b-it.description": "Gemma 3 12B to open-source'owy model językowy Google, wyznaczający nowy standard wydajności i efektywności.",
607
+ "google/gemma-3-27b-it.description": "Gemma 3 27B to open-source'owy model językowy Google, wyznaczający nowy standard wydajności i efektywności.",
608
+ "google/text-embedding-005.description": "Model osadzania tekstu skoncentrowany na języku angielskim, zoptymalizowany do zadań związanych z kodem i językiem angielskim.",
609
+ "google/text-multilingual-embedding-002.description": "Wielojęzyczny model osadzania tekstu zoptymalizowany do zadań międzyjęzykowych w wielu językach.",
610
+ "gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo do generowania i rozumienia tekstu; obecnie wskazuje na gpt-3.5-turbo-0125.",
611
+ "gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo do generowania i rozumienia tekstu; obecnie wskazuje na gpt-3.5-turbo-0125.",
612
+ "gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo do zadań generowania i rozumienia tekstu, zoptymalizowany pod kątem wykonywania instrukcji.",
613
+ "gpt-3.5-turbo.description": "GPT 3.5 Turbo do generowania i rozumienia tekstu; obecnie wskazuje na gpt-3.5-turbo-0125.",
614
+ "gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k to model generowania tekstu o dużej pojemności, przeznaczony do złożonych zadań.",
615
+ "gpt-35-turbo.description": "GPT-3.5 Turbo to wydajny model OpenAI do czatu i generowania tekstu, obsługujący równoległe wywoływanie funkcji.",
616
+ "gpt-4-0125-preview.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
617
+ "gpt-4-0613.description": "GPT-4 oferuje większe okno kontekstowe do obsługi dłuższych danych wejściowych, odpowiednie do szerokiej syntezy informacji i analizy danych.",
618
+ "gpt-4-1106-preview.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
619
+ "gpt-4-32k-0613.description": "GPT-4 oferuje większe okno kontekstowe do obsługi dłuższych danych wejściowych w scenariuszach wymagających szerokiej integracji informacji i analizy danych.",
620
+ "gpt-4-32k.description": "GPT-4 oferuje większe okno kontekstowe do obsługi dłuższych danych wejściowych w scenariuszach wymagających szerokiej integracji informacji i analizy danych.",
621
+ "gpt-4-turbo-2024-04-09.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
622
+ "gpt-4-turbo-preview.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
623
+ "gpt-4-turbo.description": "Najnowszy GPT-4 Turbo obsługuje przetwarzanie obrazu. Żądania wizualne wspierają tryb JSON i wywoływanie funkcji. To opłacalny model multimodalny, łączący dokładność i wydajność w zastosowaniach czasu rzeczywistego.",
624
+ "gpt-4-vision-preview.description": "Podgląd GPT-4 Vision, zaprojektowany do zadań analizy i przetwarzania obrazów.",
625
+ "gpt-4.1-mini.description": "GPT-4.1 mini łączy inteligencję, szybkość i niski koszt, co czyni go atrakcyjnym w wielu zastosowaniach.",
626
+ "gpt-4.1-nano.description": "GPT-4.1 nano to najszybszy i najbardziej opłacalny model GPT-4.1.",
627
+ "gpt-4.1.description": "GPT-4.1 to nasz flagowy model do złożonych zadań i rozwiązywania problemów międzydziedzinowych.",
628
+ "gpt-4.5-preview.description": "GPT-4.5-preview to najnowszy model ogólnego przeznaczenia z głęboką wiedzą o świecie i lepszym rozumieniem intencji, silny w zadaniach kreatywnych i planowaniu agentów. Data odcięcia wiedzy: październik 2023.",
629
+ "gpt-4.description": "GPT-4 oferuje większe okno kontekstowe do obsługi dłuższych danych wejściowych, odpowiednie do szerokiej syntezy informacji i analizy danych.",
630
+ "gpt-4o-2024-05-13.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie dla zastosowań na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
599
631
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
600
632
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
601
633
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
30
30
  "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
31
31
  "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
32
- "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
33
32
  "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
34
33
  "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
35
34
  "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",
@@ -36,7 +36,11 @@
36
36
  "agentCronJobs.noExecutionResults": "Brak wyników wykonania",
37
37
  "agentCronJobs.remainingExecutions": "Pozostało: {{count}}",
38
38
  "agentCronJobs.save": "Zapisz",
39
+ "agentCronJobs.saveAsNew": "Zapisz jako nowy",
39
40
  "agentCronJobs.schedule": "Harmonogram",
41
+ "agentCronJobs.scheduleType.daily": "Codziennie",
42
+ "agentCronJobs.scheduleType.hourly": "Co godzinę",
43
+ "agentCronJobs.scheduleType.weekly": "Co tydzień",
40
44
  "agentCronJobs.status.depleted": "Wyczerpano",
41
45
  "agentCronJobs.status.disabled": "Wyłączone",
42
46
  "agentCronJobs.status.enabled": "Włączone",
@@ -45,6 +49,20 @@
45
49
  "agentCronJobs.unlimited": "Nieograniczone",
46
50
  "agentCronJobs.unnamedTask": "Zadanie bez nazwy",
47
51
  "agentCronJobs.updateSuccess": "Zadanie cykliczne zostało pomyślnie zaktualizowane",
52
+ "agentCronJobs.weekday.friday": "Piątek",
53
+ "agentCronJobs.weekday.monday": "Poniedziałek",
54
+ "agentCronJobs.weekday.saturday": "Sobota",
55
+ "agentCronJobs.weekday.short.friday": "Pt",
56
+ "agentCronJobs.weekday.short.monday": "Pn",
57
+ "agentCronJobs.weekday.short.saturday": "So",
58
+ "agentCronJobs.weekday.short.sunday": "Nd",
59
+ "agentCronJobs.weekday.short.thursday": "Cz",
60
+ "agentCronJobs.weekday.short.tuesday": "Wt",
61
+ "agentCronJobs.weekday.short.wednesday": "Śr",
62
+ "agentCronJobs.weekday.sunday": "Niedziela",
63
+ "agentCronJobs.weekday.thursday": "Czwartek",
64
+ "agentCronJobs.weekday.tuesday": "Wtorek",
65
+ "agentCronJobs.weekday.wednesday": "Środa",
48
66
  "agentCronJobs.weekdays": "Dni robocze",
49
67
  "agentInfoDescription.basic.avatar": "Awatar",
50
68
  "agentInfoDescription.basic.description": "Opis",
@@ -553,6 +571,7 @@
553
571
  "tab.about": "O aplikacji",
554
572
  "tab.addCustomSkill": "Dodaj własną umiejętność",
555
573
  "tab.agent": "Usługa agenta",
574
+ "tab.all": "Wszystkie",
556
575
  "tab.apikey": "Zarządzanie kluczami API",
557
576
  "tab.chatAppearance": "Wygląd czatu",
558
577
  "tab.common": "Wygląd",
@@ -191,7 +191,7 @@
191
191
  "profile.usernameRule": "O nome de usuário pode conter apenas letras, números ou sublinhados",
192
192
  "profile.usernameUpdateFailed": "Falha ao atualizar nome de usuário, tente novamente mais tarde",
193
193
  "signin.subtitle": "Cadastre-se ou entre na sua conta {{appName}}",
194
- "signin.title": "Para colaboração com Agents",
194
+ "signin.title": "Equipes de agentes que crescem com você",
195
195
  "signout": "Sair",
196
196
  "signup": "Cadastrar",
197
197
  "stats.aiheatmaps": "Índice de Atividade",
@@ -73,6 +73,7 @@
73
73
  "screen5.badge": "Entrar",
74
74
  "screen5.description": "Entre para sincronizar Agentes, Grupos, configurações e Contexto em todos os dispositivos.",
75
75
  "screen5.errors.desktopOnlyOidc": "A autorização OIDC está disponível apenas no aplicativo desktop.",
76
+ "screen5.legacyLocalDb.link": "Migrar banco de dados local legado",
76
77
  "screen5.methods.cloud.description": "Entre com sua conta LobeHub Cloud para sincronizar tudo de forma integrada",
77
78
  "screen5.methods.cloud.name": "LobeHub Cloud",
78
79
  "screen5.methods.selfhost.description": "Conecte-se à sua própria instância do servidor LobeHub",
@@ -1,8 +1,8 @@
1
1
  {
2
2
  "changelog.description": "Fique por dentro das novas funcionalidades e melhorias do {{appName}}",
3
3
  "changelog.title": "Registro de Alterações",
4
- "chat.description": "O {{appName}} oferece a melhor experiência de interface para ChatGPT, Claude, Gemini e OLLaMA.",
5
- "chat.title": "{{appName}} · Para Agentes Colaborativos",
4
+ "chat.description": "{{appName}} é um espaço de trabalho e estilo de vida para encontrar, construir e colaborar com equipes de agentes que crescem com você.",
5
+ "chat.title": "{{appName}} · Equipes de agentes que crescem com você",
6
6
  "discover.assistants.description": "Conteúdo, perguntas e respostas, imagens, vídeos, voz, fluxos de trabalho — explore e adicione Agentes da Comunidade.",
7
7
  "discover.assistants.title": "Comunidade de Agentes",
8
8
  "discover.description": "Explore Agentes, Habilidades, Provedores, Modelos e Servidores MCP.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
357
357
  "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
358
- "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Preserva o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
358
+ "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
359
359
  "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
360
360
  "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@@ -472,7 +472,7 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
474
474
  "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem e gera imagens de alta qualidade com controle preciso. Gera imagens a partir de comandos de texto.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que aceita entradas de texto e imagem, com geração de imagens altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
476
476
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
477
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
478
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@@ -480,8 +480,8 @@
480
480
  "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
481
481
  "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
482
482
  "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
483
- "fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagens da equipe Qwen que permite edições semânticas e visuais, edita com precisão textos em chinês e inglês, e realiza edições de alta qualidade como transferência de estilo e rotação de objetos.",
484
- "fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.",
483
+ "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen que permite edições semânticas e visuais, edita com precisão textos em chinês e inglês, e realiza edições de alta qualidade como transferência de estilo e rotação de objetos.",
484
+ "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com renderização impressionante de texto em chinês e estilos visuais diversos.",
485
485
  "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
486
486
  "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
487
487
  "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@@ -722,6 +722,30 @@
722
722
  "imagen-4.0-generate-preview-06-06.description": "Família de modelos de geração de imagem a partir de texto da quarta geração Imagen.",
723
723
  "imagen-4.0-ultra-generate-001.description": "Versão Ultra da série de modelos de geração de imagem a partir de texto Imagen de quarta geração.",
724
724
  "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra da quarta geração de modelos de geração de imagem a partir de texto Imagen.",
725
+ "inception/mercury-coder-small.description": "Mercury Coder Small é ideal para geração de código, depuração e refatoração com latência mínima.",
726
+ "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 é o terceiro modelo da arquitetura Ling 2.0 da equipe Bailing do Ant Group. É um modelo MoE com 100 bilhões de parâmetros totais, mas apenas 6,1 bilhões ativos por token (4,8 bilhões sem embeddings). Apesar de sua configuração leve, iguala ou supera modelos densos de 40B e MoEs maiores em diversos benchmarks, explorando alta eficiência por meio de arquitetura e estratégia de treinamento.",
727
+ "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 é um LLM MoE pequeno e de alto desempenho com 16 bilhões de parâmetros totais e apenas 1,4 bilhão ativo por token (789 milhões sem embeddings), oferecendo geração muito rápida. Com design MoE eficiente e grandes volumes de dados de treinamento de alta qualidade, atinge desempenho de ponta comparável a modelos densos abaixo de 10B e MoEs maiores.",
728
+ "inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 é um modelo de raciocínio de alto desempenho otimizado a partir do Ling-flash-2.0-base. Utiliza arquitetura MoE com 100 bilhões de parâmetros totais e apenas 6,1 bilhões ativos por inferência. Seu algoritmo icepop estabiliza o treinamento por RL em modelos MoE, permitindo avanços contínuos em raciocínio complexo. Alcança grandes conquistas em benchmarks difíceis (competições de matemática, geração de código, raciocínio lógico), superando modelos densos de até 40B e rivalizando com MoEs abertos maiores e modelos fechados de raciocínio. Também se destaca em escrita criativa, e sua arquitetura eficiente proporciona inferência rápida com menor custo de implantação para alta concorrência.",
729
+ "inclusionai/ling-1t.description": "Ling-1T é o modelo MoE de 1 trilhão de parâmetros da inclusionAI, otimizado para tarefas de raciocínio intensivo e cargas de trabalho com contexto extenso.",
730
+ "inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 é o modelo MoE da inclusionAI otimizado para eficiência e desempenho em raciocínio, adequado para tarefas de médio a grande porte.",
731
+ "inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 é o modelo MoE leve da inclusionAI, que reduz significativamente os custos mantendo a capacidade de raciocínio.",
732
+ "inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview é o modelo multimodal da inclusionAI, com suporte a entradas de voz, imagem e vídeo, além de melhorias na renderização de imagens e reconhecimento de fala.",
733
+ "inclusionai/ring-1t.description": "Ring-1T é o modelo MoE de raciocínio com um trilhão de parâmetros da inclusionAI, adequado para tarefas de raciocínio em larga escala e pesquisa.",
734
+ "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 é uma variante do modelo Ring da inclusionAI para cenários de alto rendimento, com foco em velocidade e eficiência de custo.",
735
+ "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 é o modelo MoE leve e de alto rendimento da inclusionAI, projetado para alta concorrência.",
736
+ "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat é um modelo de chat de código aberto baseado na arquitetura InternLM2. O modelo de 7B é focado em geração de diálogos com suporte a chinês e inglês, utilizando treinamento moderno para conversas fluentes e inteligentes. É adequado para diversos cenários de chat, como atendimento ao cliente e assistentes pessoais.",
737
+ "internlm2.5-latest.description": "Modelos legados ainda mantidos com desempenho excelente e estável após várias iterações. Disponíveis nos tamanhos 7B e 20B, com suporte a contexto de 1 milhão e melhor seguimento de instruções e uso de ferramentas. Padrão para a série InternLM2.5 mais recente (atualmente internlm2.5-20b-chat).",
738
+ "internlm3-latest.description": "Nossa série de modelos mais recente com excelente desempenho em raciocínio, liderando entre os modelos abertos de seu porte. Padrão para a série InternLM3 mais recente (atualmente internlm3-8b-instruct).",
739
+ "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO é um modelo multimodal pré-treinado para raciocínio complexo entre imagem e texto.",
740
+ "internvl2.5-latest.description": "InternVL2.5 continua sendo mantido com desempenho forte e estável. Padrão para a série InternVL2.5 mais recente (atualmente internvl2.5-78b).",
741
+ "internvl3-14b.description": "InternVL3 14B é um modelo multimodal de porte médio que equilibra desempenho e custo.",
742
+ "internvl3-1b.description": "InternVL3 1B é um modelo multimodal leve para implantação com recursos limitados.",
743
+ "internvl3-38b.description": "InternVL3 38B é um modelo multimodal de código aberto de grande porte para compreensão precisa de imagem e texto.",
744
+ "internvl3-latest.description": "Nosso modelo multimodal mais recente com compreensão aprimorada de imagem e texto e capacidade de lidar com sequências longas de imagens, comparável aos principais modelos fechados. Padrão para a série InternVL mais recente (atualmente internvl3-78b).",
745
+ "irag-1.0.description": "ERNIE iRAG é um modelo de geração aumentada por recuperação de imagens para busca de imagens, recuperação imagem-texto e geração de conteúdo.",
746
+ "jamba-large.description": "Nosso modelo mais poderoso e avançado, projetado para tarefas empresariais complexas com desempenho excepcional.",
747
+ "jamba-mini.description": "O modelo mais eficiente de sua categoria, equilibrando velocidade e qualidade com baixo consumo de recursos.",
748
+ "jina-deepsearch-v1.description": "DeepSearch combina busca na web, leitura e raciocínio para investigações aprofundadas. Pense nele como um agente que assume sua tarefa de pesquisa, realiza buscas amplas com múltiplas iterações e só então produz uma resposta. O processo envolve pesquisa contínua, raciocínio e resolução de problemas sob múltiplas perspectivas, diferindo fundamentalmente dos LLMs padrão que respondem com base em dados pré-treinados ou sistemas RAG tradicionais que dependem de buscas superficiais pontuais.",
725
749
  "meta.llama3-8b-instruct-v1:0.description": "O Meta Llama 3 é um modelo de linguagem aberto para desenvolvedores, pesquisadores e empresas, projetado para ajudá-los a construir, experimentar e escalar ideias de IA generativa de forma responsável. Como parte da base para a inovação da comunidade global, é ideal para ambientes com recursos computacionais limitados, dispositivos de borda e tempos de treinamento mais rápidos.",
726
750
  "mistral-large-latest.description": "Mistral Large é o modelo principal, com excelente desempenho em tarefas multilíngues, raciocínio complexo e geração de código — ideal para aplicações de alto nível.",
727
751
  "mistral-large.description": "Mixtral Large é o modelo principal da Mistral, combinando geração de código, matemática e raciocínio com uma janela de contexto de 128K.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
30
30
  "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
31
31
  "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
32
- "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
33
32
  "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
34
33
  "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
35
34
  "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",
@@ -36,7 +36,11 @@
36
36
  "agentCronJobs.noExecutionResults": "Nenhum resultado de execução",
37
37
  "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
38
38
  "agentCronJobs.save": "Salvar",
39
+ "agentCronJobs.saveAsNew": "Salvar como novo",
39
40
  "agentCronJobs.schedule": "Agendar",
41
+ "agentCronJobs.scheduleType.daily": "Diariamente",
42
+ "agentCronJobs.scheduleType.hourly": "De hora em hora",
43
+ "agentCronJobs.scheduleType.weekly": "Semanalmente",
40
44
  "agentCronJobs.status.depleted": "Esgotado",
41
45
  "agentCronJobs.status.disabled": "Desativado",
42
46
  "agentCronJobs.status.enabled": "Ativado",
@@ -45,6 +49,20 @@
45
49
  "agentCronJobs.unlimited": "Ilimitado",
46
50
  "agentCronJobs.unnamedTask": "Tarefa sem nome",
47
51
  "agentCronJobs.updateSuccess": "Tarefa agendada atualizada com sucesso",
52
+ "agentCronJobs.weekday.friday": "Sexta-feira",
53
+ "agentCronJobs.weekday.monday": "Segunda-feira",
54
+ "agentCronJobs.weekday.saturday": "Sábado",
55
+ "agentCronJobs.weekday.short.friday": "Sex",
56
+ "agentCronJobs.weekday.short.monday": "Seg",
57
+ "agentCronJobs.weekday.short.saturday": "Sáb",
58
+ "agentCronJobs.weekday.short.sunday": "Dom",
59
+ "agentCronJobs.weekday.short.thursday": "Qui",
60
+ "agentCronJobs.weekday.short.tuesday": "Ter",
61
+ "agentCronJobs.weekday.short.wednesday": "Qua",
62
+ "agentCronJobs.weekday.sunday": "Domingo",
63
+ "agentCronJobs.weekday.thursday": "Quinta-feira",
64
+ "agentCronJobs.weekday.tuesday": "Terça-feira",
65
+ "agentCronJobs.weekday.wednesday": "Quarta-feira",
48
66
  "agentCronJobs.weekdays": "Dias da Semana",
49
67
  "agentInfoDescription.basic.avatar": "Avatar",
50
68
  "agentInfoDescription.basic.description": "Descrição",
@@ -553,6 +571,7 @@
553
571
  "tab.about": "Sobre",
554
572
  "tab.addCustomSkill": "Adicionar habilidade personalizada",
555
573
  "tab.agent": "Serviço de Agente",
574
+ "tab.all": "Todos",
556
575
  "tab.apikey": "Gerenciamento de Chaves API",
557
576
  "tab.chatAppearance": "Aparência do Chat",
558
577
  "tab.common": "Aparência",
@@ -191,7 +191,7 @@
191
191
  "profile.usernameRule": "Имя пользователя может содержать только буквы, цифры или подчёркивания",
192
192
  "profile.usernameUpdateFailed": "Не удалось обновить имя пользователя, попробуйте позже",
193
193
  "signin.subtitle": "Зарегистрируйтесь или войдите в аккаунт {{appName}}",
194
- "signin.title": "Для сотрудничества с агентами",
194
+ "signin.title": "Команды агентов, растущие вместе с вами",
195
195
  "signout": "Выйти",
196
196
  "signup": "Зарегистрироваться",
197
197
  "stats.aiheatmaps": "Индекс активности",
@@ -73,6 +73,7 @@
73
73
  "screen5.badge": "Вход",
74
74
  "screen5.description": "Войдите, чтобы синхронизировать Агентов, Группы, настройки и Контекст на всех устройствах.",
75
75
  "screen5.errors.desktopOnlyOidc": "Авторизация OIDC доступна только в настольной версии приложения.",
76
+ "screen5.legacyLocalDb.link": "Перенести устаревшую локальную базу данных",
76
77
  "screen5.methods.cloud.description": "Войдите с помощью аккаунта LobeHub Cloud для бесшовной синхронизации",
77
78
  "screen5.methods.cloud.name": "LobeHub Cloud",
78
79
  "screen5.methods.selfhost.description": "Подключитесь к собственной инстанции сервера LobeHub",
@@ -1,8 +1,8 @@
1
1
  {
2
2
  "changelog.description": "Будьте в курсе новых функций и улучшений {{appName}}",
3
3
  "changelog.title": "Журнал изменений",
4
- "chat.description": "{{appName}} предлагает лучший пользовательский интерфейс для ChatGPT, Claude, Gemini и OLLaMA.",
5
- "chat.title": "{{appName}} · Для совместных агентов",
4
+ "chat.description": "{{appName}} это пространство для работы и жизни, где можно найти, создать и сотрудничать с командами агентов, которые развиваются вместе с вами.",
5
+ "chat.title": "{{appName}} · Команды агентов, растущие вместе с вами",
6
6
  "discover.assistants.description": "Контент, вопросы и ответы, изображения, видео, голос, рабочие процессы — просматривайте и добавляйте агентов из сообщества.",
7
7
  "discover.assistants.title": "Сообщество агентов",
8
8
  "discover.description": "Исследуйте агентов, навыки, провайдеров, модели и MCP-серверы.",