@lobehub/lobehub 2.0.0-next.339 → 2.0.0-next.340

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (180) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/docs/self-hosting/advanced/auth/clerk-to-betterauth.mdx +366 -0
  4. package/docs/self-hosting/advanced/auth/clerk-to-betterauth.zh-CN.mdx +360 -0
  5. package/docs/self-hosting/advanced/auth/legacy.mdx +4 -0
  6. package/docs/self-hosting/advanced/auth/legacy.zh-CN.mdx +4 -0
  7. package/docs/self-hosting/advanced/auth.mdx +55 -30
  8. package/docs/self-hosting/advanced/auth.zh-CN.mdx +55 -30
  9. package/locales/ar/auth.json +1 -1
  10. package/locales/ar/desktop-onboarding.json +1 -0
  11. package/locales/ar/metadata.json +2 -2
  12. package/locales/ar/models.json +23 -5
  13. package/locales/ar/providers.json +0 -1
  14. package/locales/ar/setting.json +19 -0
  15. package/locales/bg-BG/auth.json +1 -1
  16. package/locales/bg-BG/desktop-onboarding.json +1 -0
  17. package/locales/bg-BG/metadata.json +2 -2
  18. package/locales/bg-BG/models.json +5 -5
  19. package/locales/bg-BG/providers.json +0 -1
  20. package/locales/bg-BG/setting.json +19 -0
  21. package/locales/de-DE/auth.json +1 -1
  22. package/locales/de-DE/desktop-onboarding.json +1 -0
  23. package/locales/de-DE/metadata.json +2 -2
  24. package/locales/de-DE/models.json +31 -10
  25. package/locales/de-DE/providers.json +0 -1
  26. package/locales/de-DE/setting.json +19 -0
  27. package/locales/en-US/auth.json +3 -2
  28. package/locales/en-US/metadata.json +2 -2
  29. package/locales/en-US/models.json +10 -11
  30. package/locales/en-US/providers.json +0 -1
  31. package/locales/es-ES/auth.json +1 -1
  32. package/locales/es-ES/desktop-onboarding.json +1 -0
  33. package/locales/es-ES/metadata.json +2 -2
  34. package/locales/es-ES/models.json +32 -5
  35. package/locales/es-ES/providers.json +0 -1
  36. package/locales/es-ES/setting.json +19 -0
  37. package/locales/fa-IR/auth.json +1 -1
  38. package/locales/fa-IR/desktop-onboarding.json +1 -0
  39. package/locales/fa-IR/metadata.json +2 -2
  40. package/locales/fa-IR/models.json +35 -5
  41. package/locales/fa-IR/providers.json +0 -1
  42. package/locales/fa-IR/setting.json +19 -0
  43. package/locales/fr-FR/auth.json +1 -1
  44. package/locales/fr-FR/desktop-onboarding.json +1 -0
  45. package/locales/fr-FR/metadata.json +2 -2
  46. package/locales/fr-FR/models.json +33 -5
  47. package/locales/fr-FR/providers.json +0 -1
  48. package/locales/fr-FR/setting.json +19 -0
  49. package/locales/it-IT/auth.json +1 -1
  50. package/locales/it-IT/desktop-onboarding.json +1 -0
  51. package/locales/it-IT/metadata.json +2 -2
  52. package/locales/it-IT/models.json +3 -8
  53. package/locales/it-IT/providers.json +0 -1
  54. package/locales/it-IT/setting.json +19 -0
  55. package/locales/ja-JP/auth.json +1 -1
  56. package/locales/ja-JP/desktop-onboarding.json +1 -0
  57. package/locales/ja-JP/metadata.json +2 -2
  58. package/locales/ja-JP/models.json +32 -5
  59. package/locales/ja-JP/providers.json +0 -1
  60. package/locales/ja-JP/setting.json +19 -0
  61. package/locales/ko-KR/auth.json +1 -1
  62. package/locales/ko-KR/desktop-onboarding.json +1 -0
  63. package/locales/ko-KR/metadata.json +2 -2
  64. package/locales/ko-KR/models.json +3 -8
  65. package/locales/ko-KR/providers.json +0 -1
  66. package/locales/ko-KR/setting.json +19 -0
  67. package/locales/nl-NL/auth.json +1 -1
  68. package/locales/nl-NL/desktop-onboarding.json +1 -0
  69. package/locales/nl-NL/metadata.json +2 -2
  70. package/locales/nl-NL/models.json +45 -4
  71. package/locales/nl-NL/providers.json +0 -1
  72. package/locales/nl-NL/setting.json +19 -0
  73. package/locales/pl-PL/auth.json +1 -1
  74. package/locales/pl-PL/desktop-onboarding.json +1 -0
  75. package/locales/pl-PL/metadata.json +2 -2
  76. package/locales/pl-PL/models.json +37 -5
  77. package/locales/pl-PL/providers.json +0 -1
  78. package/locales/pl-PL/setting.json +19 -0
  79. package/locales/pt-BR/auth.json +1 -1
  80. package/locales/pt-BR/desktop-onboarding.json +1 -0
  81. package/locales/pt-BR/metadata.json +2 -2
  82. package/locales/pt-BR/models.json +28 -4
  83. package/locales/pt-BR/providers.json +0 -1
  84. package/locales/pt-BR/setting.json +19 -0
  85. package/locales/ru-RU/auth.json +1 -1
  86. package/locales/ru-RU/desktop-onboarding.json +1 -0
  87. package/locales/ru-RU/metadata.json +2 -2
  88. package/locales/ru-RU/models.json +3 -8
  89. package/locales/ru-RU/providers.json +0 -1
  90. package/locales/ru-RU/setting.json +19 -0
  91. package/locales/tr-TR/auth.json +1 -1
  92. package/locales/tr-TR/desktop-onboarding.json +1 -0
  93. package/locales/tr-TR/metadata.json +2 -2
  94. package/locales/tr-TR/models.json +26 -7
  95. package/locales/tr-TR/providers.json +0 -1
  96. package/locales/tr-TR/setting.json +19 -0
  97. package/locales/vi-VN/auth.json +1 -1
  98. package/locales/vi-VN/desktop-onboarding.json +1 -0
  99. package/locales/vi-VN/metadata.json +2 -2
  100. package/locales/vi-VN/models.json +3 -5
  101. package/locales/vi-VN/providers.json +0 -1
  102. package/locales/vi-VN/setting.json +19 -0
  103. package/locales/zh-CN/auth.json +3 -3
  104. package/locales/zh-CN/metadata.json +2 -2
  105. package/locales/zh-CN/models.json +46 -6
  106. package/locales/zh-CN/providers.json +0 -1
  107. package/locales/zh-TW/auth.json +1 -1
  108. package/locales/zh-TW/desktop-onboarding.json +1 -0
  109. package/locales/zh-TW/metadata.json +2 -2
  110. package/locales/zh-TW/models.json +39 -6
  111. package/locales/zh-TW/providers.json +0 -1
  112. package/locales/zh-TW/setting.json +19 -0
  113. package/package.json +1 -1
  114. package/packages/const/src/url.ts +1 -1
  115. package/public/og/agent-og.webp +0 -0
  116. package/public/og/mcp-og.webp +0 -0
  117. package/public/og/og.webp +0 -0
  118. package/scripts/clerk-to-betterauth/__tests__/parseCsvLine.test.ts +21 -0
  119. package/scripts/clerk-to-betterauth/_internal/config.ts +55 -0
  120. package/scripts/clerk-to-betterauth/_internal/db.ts +32 -0
  121. package/scripts/clerk-to-betterauth/_internal/env.ts +6 -0
  122. package/scripts/clerk-to-betterauth/_internal/load-data-from-files.ts +74 -0
  123. package/scripts/clerk-to-betterauth/_internal/types.ts +45 -0
  124. package/scripts/clerk-to-betterauth/_internal/utils.ts +36 -0
  125. package/scripts/clerk-to-betterauth/export-clerk-users-with-api.ts +211 -0
  126. package/scripts/clerk-to-betterauth/index.ts +314 -0
  127. package/scripts/clerk-to-betterauth/prod/put_clerk_exported_users_csv_here.txt +0 -0
  128. package/scripts/clerk-to-betterauth/test/put_clerk_exported_users_csv_here.txt +0 -0
  129. package/scripts/clerk-to-betterauth/verify.ts +275 -0
  130. package/src/app/[variants]/(auth)/signin/SignInEmailStep.tsx +30 -2
  131. package/src/app/[variants]/(auth)/signin/SignInPasswordStep.tsx +1 -1
  132. package/src/app/[variants]/(auth)/signin/page.tsx +3 -0
  133. package/src/app/[variants]/(auth)/signin/useSignIn.ts +6 -2
  134. package/src/app/[variants]/(main)/home/features/RecentResource/Item.tsx +2 -2
  135. package/src/app/[variants]/(main)/home/features/index.tsx +1 -2
  136. package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +0 -2
  137. package/src/app/[variants]/(main)/settings/skill/features/Actions.tsx +8 -7
  138. package/src/app/[variants]/(main)/settings/skill/features/McpSkillItem.tsx +9 -11
  139. package/src/app/manifest.ts +4 -4
  140. package/src/features/AuthCard/index.tsx +1 -1
  141. package/src/features/SkillStore/CommunityList/Item.tsx +3 -2
  142. package/src/features/SkillStore/Search/index.tsx +0 -1
  143. package/src/locales/default/auth.ts +3 -2
  144. package/src/locales/default/metadata.ts +2 -2
  145. package/src/server/ld.ts +4 -3
  146. package/src/styles/global.ts +0 -6
  147. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.mdx +0 -0
  148. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.zh-CN.mdx +0 -0
  149. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.mdx +0 -0
  150. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.zh-CN.mdx +0 -0
  151. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.mdx +0 -0
  152. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.zh-CN.mdx +0 -0
  153. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.mdx +0 -0
  154. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.zh-CN.mdx +0 -0
  155. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.mdx +0 -0
  156. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.zh-CN.mdx +0 -0
  157. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.mdx +0 -0
  158. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.zh-CN.mdx +0 -0
  159. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.mdx +0 -0
  160. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.zh-CN.mdx +0 -0
  161. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.mdx +0 -0
  162. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.zh-CN.mdx +0 -0
  163. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.mdx +0 -0
  164. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.zh-CN.mdx +0 -0
  165. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.mdx +0 -0
  166. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.zh-CN.mdx +0 -0
  167. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.mdx +0 -0
  168. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.zh-CN.mdx +0 -0
  169. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.mdx +0 -0
  170. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.zh-CN.mdx +0 -0
  171. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.mdx +0 -0
  172. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.zh-CN.mdx +0 -0
  173. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.mdx +0 -0
  174. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.zh-CN.mdx +0 -0
  175. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.mdx +0 -0
  176. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.zh-CN.mdx +0 -0
  177. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.mdx +0 -0
  178. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.zh-CN.mdx +0 -0
  179. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.mdx +0 -0
  180. /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.zh-CN.mdx +0 -0
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
272
272
  "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
273
273
  "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
276
- "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
358
- "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
358
+ "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
382
382
  "deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@@ -472,8 +472,7 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
474
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
475
- "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
476
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
477
476
  "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
478
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
479
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@@ -481,8 +480,8 @@
481
480
  "fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
482
481
  "fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
483
482
  "fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
484
- "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
485
- "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
483
+ "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
484
+ "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
486
485
  "flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
487
486
  "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
488
487
  "flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
30
30
  "jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
31
31
  "lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
32
- "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
33
32
  "minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
34
33
  "mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
35
34
  "modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
@@ -191,7 +191,7 @@
191
191
  "profile.usernameRule": "El nombre de usuario solo puede contener letras, números o guiones bajos",
192
192
  "profile.usernameUpdateFailed": "Error al actualizar el nombre de usuario, intente más tarde",
193
193
  "signin.subtitle": "Regístrese o inicie sesión en su cuenta de {{appName}}",
194
- "signin.title": "Para colaboración en Agents",
194
+ "signin.title": "Equipos de agentes que crecen contigo",
195
195
  "signout": "Cerrar sesión",
196
196
  "signup": "Registrarse",
197
197
  "stats.aiheatmaps": "Índice de actividad",
@@ -73,6 +73,7 @@
73
73
  "screen5.badge": "Iniciar sesión",
74
74
  "screen5.description": "Inicia sesión para sincronizar Agentes, Grupos, configuración y Contexto en todos tus dispositivos.",
75
75
  "screen5.errors.desktopOnlyOidc": "La autorización OIDC solo está disponible en la aplicación de escritorio.",
76
+ "screen5.legacyLocalDb.link": "Migrar base de datos local heredada",
76
77
  "screen5.methods.cloud.description": "Inicia sesión con tu cuenta de LobeHub Cloud para sincronizar todo sin problemas",
77
78
  "screen5.methods.cloud.name": "LobeHub Cloud",
78
79
  "screen5.methods.selfhost.description": "Conéctate a tu propia instancia del servidor LobeHub",
@@ -1,8 +1,8 @@
1
1
  {
2
2
  "changelog.description": "Mantente al día con las nuevas funciones y mejoras de {{appName}}",
3
3
  "changelog.title": "Registro de cambios",
4
- "chat.description": "{{appName}} te ofrece la mejor experiencia de usuario con ChatGPT, Claude, Gemini y OLLaMA.",
5
- "chat.title": "{{appName}} · Para Agentes Colaborativos",
4
+ "chat.description": "{{appName}} es un espacio para el trabajo y el estilo de vida donde puedes encontrar, crear y colaborar con equipos de agentes que crecen contigo.",
5
+ "chat.title": "{{appName}} · Equipos de agentes que crecen contigo",
6
6
  "discover.assistants.description": "Contenido, preguntas y respuestas, imágenes, video, voz, flujos de trabajo: explora y añade Agentes de la Comunidad.",
7
7
  "discover.assistants.title": "Comunidad de Agentes",
8
8
  "discover.description": "Explora Agentes, Habilidades, Proveedores, modelos y Servidores MCP.",
@@ -271,9 +271,9 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
273
273
  "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión por computadora y tareas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
358
- "deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
358
+ "deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@@ -472,7 +472,7 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
474
474
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con una generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
476
476
  "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
477
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
478
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@@ -481,7 +481,7 @@
481
481
  "fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
482
482
  "fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
483
483
  "fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que permite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
484
- "fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y una amplia variedad de estilos visuales.",
484
+ "fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con impresionante renderizado de texto en chino y estilos visuales diversos.",
485
485
  "flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
486
486
  "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
487
487
  "flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
@@ -715,6 +715,33 @@
715
715
  "hunyuan-turbos-vision.description": "Modelo insignia visión-lenguaje de próxima generación basado en el último TurboS, centrado en tareas de comprensión imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
716
716
  "hunyuan-vision-1.5-instruct.description": "Modelo de pensamiento rápido para generación de texto a partir de imágenes basado en TurboS, con mejoras notables respecto a la versión anterior en reconocimiento básico de imágenes y razonamiento visual.",
717
717
  "hunyuan-vision.description": "Último modelo multimodal que admite entrada de imagen + texto para generar texto.",
718
+ "image-01-live.description": "Un modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen y estilos predefinidos controlables.",
719
+ "image-01.description": "Un nuevo modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen e imagen a imagen.",
720
+ "imagen-4.0-fast-generate-001.description": "Versión rápida de la serie de modelos de texto a imagen de cuarta generación de Imagen.",
721
+ "imagen-4.0-generate-001.description": "Serie de modelos de texto a imagen de cuarta generación de Imagen.",
722
+ "imagen-4.0-generate-preview-06-06.description": "Familia de modelos de texto a imagen de cuarta generación de Imagen.",
723
+ "imagen-4.0-ultra-generate-001.description": "Versión Ultra de la serie de modelos de texto a imagen de cuarta generación de Imagen.",
724
+ "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra de la cuarta generación de modelos de texto a imagen de Imagen.",
725
+ "inception/mercury-coder-small.description": "Mercury Coder Small es ideal para generación de código, depuración y refactorización con latencia mínima.",
726
+ "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 es el tercer modelo de arquitectura Ling 2.0 del equipo Bailing de Ant Group. Es un modelo MoE con 100 mil millones de parámetros totales pero solo 6.1 mil millones activos por token (4.8 mil millones sin incluir embeddings). A pesar de su configuración ligera, iguala o supera a modelos densos de 40 mil millones y modelos MoE aún más grandes en múltiples pruebas, explorando alta eficiencia mediante arquitectura y estrategia de entrenamiento.",
727
+ "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 es un modelo MoE pequeño y de alto rendimiento con 16 mil millones de parámetros totales y solo 1.4 mil millones activos por token (789 millones sin embeddings), ofreciendo generación muy rápida. Con un diseño MoE eficiente y grandes datos de entrenamiento de alta calidad, logra un rendimiento de primer nivel comparable a modelos densos de menos de 10 mil millones y modelos MoE más grandes.",
728
+ "inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 es un modelo de razonamiento de alto rendimiento optimizado a partir de Ling-flash-2.0-base. Utiliza una arquitectura MoE con 100 mil millones de parámetros totales y solo 6.1 mil millones activos por inferencia. Su algoritmo icepop estabiliza el entrenamiento por refuerzo en modelos MoE, permitiendo avances continuos en razonamiento complejo. Logra grandes avances en pruebas difíciles (concursos de matemáticas, generación de código, razonamiento lógico), superando a los mejores modelos densos de menos de 40 mil millones y rivalizando con modelos MoE abiertos más grandes y modelos cerrados de razonamiento. También se desempeña bien en escritura creativa, y su arquitectura eficiente permite inferencia rápida con menor costo de implementación para alta concurrencia.",
729
+ "inclusionai/ling-1t.description": "Ling-1T es el modelo MoE de 1T de inclusionAI, optimizado para tareas de razonamiento de alta intensidad y cargas de trabajo de gran contexto.",
730
+ "inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 es el modelo MoE de inclusionAI optimizado para eficiencia y rendimiento en razonamiento, adecuado para tareas de tamaño medio a grande.",
731
+ "inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 es el modelo MoE ligero de inclusionAI, que reduce significativamente los costos manteniendo la capacidad de razonamiento.",
732
+ "inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview es el modelo multimodal de inclusionAI, compatible con entradas de voz, imagen y video, con mejoras en renderizado de imágenes y reconocimiento de voz.",
733
+ "inclusionai/ring-1t.description": "Ring-1T es el modelo de razonamiento MoE de un billón de parámetros de inclusionAI, adecuado para tareas de razonamiento a gran escala e investigación.",
734
+ "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 es una variante del modelo Ring de inclusionAI para escenarios de alto rendimiento, con énfasis en velocidad y eficiencia de costos.",
735
+ "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 es el modelo MoE ligero de alto rendimiento de inclusionAI, diseñado para concurrencia.",
736
+ "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat es un modelo de chat de código abierto basado en la arquitectura InternLM2. El modelo de 7B se enfoca en la generación de diálogos con soporte en chino e inglés, utilizando entrenamiento moderno para conversaciones fluidas e inteligentes. Es adecuado para muchos escenarios de chat como atención al cliente y asistentes personales.",
737
+ "internlm2.5-latest.description": "Modelos heredados aún mantenidos con excelente y estable rendimiento tras muchas iteraciones. Disponibles en tamaños de 7B y 20B, con soporte para contexto de 1M y mejor seguimiento de instrucciones y uso de herramientas. Por defecto se usa la última serie InternLM2.5 (actualmente internlm2.5-20b-chat).",
738
+ "internlm3-latest.description": "Nuestra última serie de modelos con excelente rendimiento en razonamiento, liderando entre los modelos abiertos de su clase. Por defecto se usa la última serie InternLM3 (actualmente internlm3-8b-instruct).",
739
+ "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO es un modelo multimodal preentrenado para razonamiento complejo imagen-texto.",
740
+ "internvl2.5-latest.description": "InternVL2.5 sigue siendo mantenido con un rendimiento fuerte y estable. Por defecto se usa la última serie InternVL2.5 (actualmente internvl2.5-78b).",
741
+ "internvl3-14b.description": "InternVL3 14B es un modelo multimodal de tamaño medio que equilibra rendimiento y costo.",
742
+ "internvl3-1b.description": "InternVL3 1B es un modelo multimodal ligero para implementaciones con recursos limitados.",
743
+ "internvl3-38b.description": "InternVL3 38B es un modelo multimodal de código abierto de gran tamaño para comprensión imagen-texto de alta precisión.",
744
+ "internvl3-latest.description": "Nuestro modelo multimodal más reciente con mejor comprensión imagen-texto y comprensión de imágenes de secuencia larga, comparable a los mejores modelos cerrados. Por defecto se usa la última serie InternVL (actualmente internvl3-78b).",
718
745
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
719
746
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
720
747
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
30
30
  "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
31
31
  "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
32
- "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
33
32
  "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
34
33
  "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
35
34
  "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
@@ -36,7 +36,11 @@
36
36
  "agentCronJobs.noExecutionResults": "Sin resultados de ejecución",
37
37
  "agentCronJobs.remainingExecutions": "Restantes: {{count}}",
38
38
  "agentCronJobs.save": "Guardar",
39
+ "agentCronJobs.saveAsNew": "Guardar como nuevo",
39
40
  "agentCronJobs.schedule": "Programar",
41
+ "agentCronJobs.scheduleType.daily": "Diario",
42
+ "agentCronJobs.scheduleType.hourly": "Cada hora",
43
+ "agentCronJobs.scheduleType.weekly": "Semanal",
40
44
  "agentCronJobs.status.depleted": "Agotado",
41
45
  "agentCronJobs.status.disabled": "Desactivado",
42
46
  "agentCronJobs.status.enabled": "Activado",
@@ -45,6 +49,20 @@
45
49
  "agentCronJobs.unlimited": "Ilimitado",
46
50
  "agentCronJobs.unnamedTask": "Tarea sin nombre",
47
51
  "agentCronJobs.updateSuccess": "Tarea programada actualizada con éxito",
52
+ "agentCronJobs.weekday.friday": "Viernes",
53
+ "agentCronJobs.weekday.monday": "Lunes",
54
+ "agentCronJobs.weekday.saturday": "Sábado",
55
+ "agentCronJobs.weekday.short.friday": "Vie",
56
+ "agentCronJobs.weekday.short.monday": "Lun",
57
+ "agentCronJobs.weekday.short.saturday": "Sáb",
58
+ "agentCronJobs.weekday.short.sunday": "Dom",
59
+ "agentCronJobs.weekday.short.thursday": "Jue",
60
+ "agentCronJobs.weekday.short.tuesday": "Mar",
61
+ "agentCronJobs.weekday.short.wednesday": "Mié",
62
+ "agentCronJobs.weekday.sunday": "Domingo",
63
+ "agentCronJobs.weekday.thursday": "Jueves",
64
+ "agentCronJobs.weekday.tuesday": "Martes",
65
+ "agentCronJobs.weekday.wednesday": "Miércoles",
48
66
  "agentCronJobs.weekdays": "Días laborables",
49
67
  "agentInfoDescription.basic.avatar": "Avatar",
50
68
  "agentInfoDescription.basic.description": "Descripción",
@@ -553,6 +571,7 @@
553
571
  "tab.about": "Acerca de",
554
572
  "tab.addCustomSkill": "Agregar habilidad personalizada",
555
573
  "tab.agent": "Servicio de Agente",
574
+ "tab.all": "Todos",
556
575
  "tab.apikey": "Gestión de Claves API",
557
576
  "tab.chatAppearance": "Apariencia del Chat",
558
577
  "tab.common": "Apariencia",
@@ -191,7 +191,7 @@
191
191
  "profile.usernameRule": "نام کاربری فقط می‌تواند شامل حروف، اعداد یا زیرخط باشد",
192
192
  "profile.usernameUpdateFailed": "به‌روزرسانی نام کاربری ناموفق بود، لطفاً بعداً دوباره تلاش کنید",
193
193
  "signin.subtitle": "برای ورود یا ثبت‌نام در حساب {{appName}}",
194
- "signin.title": "برای همکاری با ایجنت‌ها",
194
+ "signin.title": "تیم‌های نمایندگی که همراه با شما رشد می‌کنند",
195
195
  "signout": "خروج",
196
196
  "signup": "ثبت‌نام",
197
197
  "stats.aiheatmaps": "شاخص فعالیت",
@@ -73,6 +73,7 @@
73
73
  "screen5.badge": "ورود",
74
74
  "screen5.description": "برای همگام‌سازی عوامل، گروه‌ها، تنظیمات و زمینه‌ها در تمام دستگاه‌ها وارد شوید.",
75
75
  "screen5.errors.desktopOnlyOidc": "احراز هویت OIDC فقط در نسخه دسکتاپ در دسترس است.",
76
+ "screen5.legacyLocalDb.link": "انتقال پایگاه داده محلی قدیمی",
76
77
  "screen5.methods.cloud.description": "با حساب LobeHub Cloud خود وارد شوید تا همه چیز به‌صورت یکپارچه همگام‌سازی شود",
77
78
  "screen5.methods.cloud.name": "LobeHub Cloud",
78
79
  "screen5.methods.selfhost.description": "به نمونه سرور LobeHub خود متصل شوید",
@@ -1,8 +1,8 @@
1
1
  {
2
2
  "changelog.description": "با ویژگی‌ها و بهبودهای جدید {{appName}} به‌روز بمانید",
3
3
  "changelog.title": "تغییرات نسخه",
4
- "chat.description": "{{appName}} بهترین تجربه کاربری را برای ChatGPT، Claude، Gemini و OLLaMA به شما ارائه می‌دهد.",
5
- "chat.title": "{{appName}} · برای عامل‌های همکار",
4
+ "chat.description": "{{appName}} یک فضای کاری و سبک زندگی است برای یافتن، ساختن و همکاری با تیم‌های عاملی که همراه با شما رشد می‌کنند.",
5
+ "chat.title": "{{appName}} · تیم‌های عاملی که همراه با شما رشد می‌کنند",
6
6
  "discover.assistants.description": "محتوا، پرسش و پاسخ، تصاویر، ویدیو، صدا، جریان‌های کاری—عامل‌ها را از جامعه انتخاب و اضافه کنید.",
7
7
  "discover.assistants.title": "جامعه عامل‌ها",
8
8
  "discover.description": "عامل‌ها، مهارت‌ها، ارائه‌دهندگان، مدل‌ها و سرورهای MCP را کاوش کنید.",
@@ -271,9 +271,9 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، مهارت‌های بیشتری را بهبود می‌بخشد و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام گسترده‌ای تولید کند که کاربران می‌توانند آن را مشاهده کنند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام طولانی ارائه دهد که کاربران می‌توانند آن را مشاهده کنند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
@@ -284,7 +284,7 @@
284
284
  "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترده‌ای با فرآیند قابل مشاهده تولید کند.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
- "deepseek-chat.description": "مدلی متن‌باز جدید که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت برنامه‌نویسی مدل کدنویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
358
+ "deepseek-chat.description": "مدلی متن‌باز و جدید که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت برنامه‌نویسی مدل کدنویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@@ -472,7 +472,7 @@
472
472
  "ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
473
473
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
474
474
  "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
475
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
475
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
476
476
  "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
477
477
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
478
478
  "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@@ -715,6 +715,36 @@
715
715
  "hunyuan-turbos-vision.description": "مدل پرچم‌دار نسل جدید بینایی-زبان مبتنی بر TurboS جدید، متمرکز بر درک وظایف تصویر-متن مانند شناسایی موجودیت‌ها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل تصویری.",
716
716
  "hunyuan-vision-1.5-instruct.description": "مدلی برای تولید متن از تصویر با تفکر سریع، مبتنی بر پایه TurboS متنی، که نسبت به نسخه قبلی در شناسایی پایه‌ای تصویر و استدلال تحلیلی تصویری بهبود قابل‌توجهی دارد.",
717
717
  "hunyuan-vision.description": "جدیدترین مدل چندوجهی با پشتیبانی از ورودی تصویر + متن برای تولید متن.",
718
+ "image-01-live.description": "مدل تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تنظیمات سبک قابل کنترل.",
719
+ "image-01.description": "مدل جدید تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تصویر به تصویر.",
720
+ "imagen-4.0-fast-generate-001.description": "نسخه سریع از سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen",
721
+ "imagen-4.0-generate-001.description": "سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen",
722
+ "imagen-4.0-generate-preview-06-06.description": "خانواده مدل‌های تبدیل متن به تصویر نسل چهارم Imagen.",
723
+ "imagen-4.0-ultra-generate-001.description": "نسخه Ultra از سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen",
724
+ "imagen-4.0-ultra-generate-preview-06-06.description": "گونه Ultra از مدل‌های تبدیل متن به تصویر نسل چهارم Imagen.",
725
+ "inception/mercury-coder-small.description": "Mercury Coder Small برای تولید کد، اشکال‌زدایی و بازسازی کد با کمترین تأخیر ایده‌آل است.",
726
+ "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 سومین مدل معماری Ling 2.0 از تیم Bailing گروه Ant است. این مدل MoE با ۱۰۰ میلیارد پارامتر کل و تنها ۶.۱ میلیارد فعال در هر توکن (۴.۸ میلیارد بدون جاسازی) است. با وجود پیکربندی سبک، عملکردی برابر یا بهتر از مدل‌های چگال ۴۰B و حتی MoEهای بزرگ‌تر در چندین معیار دارد و کارایی بالا را از طریق معماری و استراتژی آموزش بررسی می‌کند.",
727
+ "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 یک مدل MoE کوچک و با عملکرد بالا با ۱۶ میلیارد پارامتر کل و تنها ۱.۴ میلیارد فعال در هر توکن (۷۸۹ میلیون بدون جاسازی) است که تولید بسیار سریعی دارد. با طراحی کارآمد MoE و داده‌های آموزشی با کیفیت بالا، عملکردی در سطح بالا ارائه می‌دهد که با مدل‌های چگال زیر ۱۰B و MoEهای بزرگ‌تر قابل مقایسه است.",
728
+ "inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 یک مدل تفکر با عملکرد بالا است که از Ling-flash-2.0-base بهینه‌سازی شده است. از معماری MoE با ۱۰۰ میلیارد پارامتر کل و تنها ۶.۱ میلیارد فعال در هر استنتاج استفاده می‌کند. الگوریتم icepop آموزش RL را برای مدل‌های MoE پایدار می‌سازد و امکان پیشرفت در استدلال پیچیده را فراهم می‌کند. در معیارهای دشوار (مسابقات ریاضی، تولید کد، استدلال منطقی) پیشرفت‌های بزرگی دارد و از مدل‌های چگال برتر زیر ۴۰B پیشی می‌گیرد و با مدل‌های MoE باز و بسته بزرگ‌تر رقابت می‌کند. همچنین در نوشتن خلاقانه عملکرد خوبی دارد و معماری کارآمد آن استنتاج سریع با هزینه کمتر برای هم‌زمانی بالا را ارائه می‌دهد.",
729
+ "inclusionai/ling-1t.description": "Ling-1T مدل MoE با ۱ تریلیون پارامتر از inclusionAI است که برای وظایف استدلال شدید و بارهای کاری با زمینه بزرگ بهینه شده است.",
730
+ "inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 مدل MoE از inclusionAI است که برای کارایی و عملکرد استدلال بهینه شده و برای وظایف متوسط تا بزرگ مناسب است.",
731
+ "inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 مدل MoE سبک از inclusionAI است که هزینه را به‌طور قابل توجهی کاهش می‌دهد در حالی که توانایی استدلال را حفظ می‌کند.",
732
+ "inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview مدل چندوجهی inclusionAI است که از ورودی‌های صوتی، تصویری و ویدیویی پشتیبانی می‌کند و رندر تصویر و تشخیص گفتار را بهبود می‌بخشد.",
733
+ "inclusionai/ring-1t.description": "Ring-1T مدل MoE با یک تریلیون پارامتر از inclusionAI برای وظایف استدلال در مقیاس بزرگ و تحقیقات مناسب است.",
734
+ "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 گونه‌ای از مدل Ring از inclusionAI برای سناریوهای با توان بالا است که بر سرعت و کارایی هزینه تأکید دارد.",
735
+ "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 مدل MoE سبک و با توان بالا از inclusionAI است که برای هم‌زمانی طراحی شده است.",
736
+ "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat یک مدل چت متن‌باز بر پایه معماری InternLM2 است. این مدل ۷B بر تولید گفت‌وگو تمرکز دارد و از زبان‌های چینی و انگلیسی پشتیبانی می‌کند و با آموزش مدرن، گفت‌وگویی روان و هوشمند ارائه می‌دهد. برای بسیاری از سناریوهای چت مانند پشتیبانی مشتری و دستیار شخصی مناسب است.",
737
+ "internlm2.5-latest.description": "مدل‌های قدیمی که همچنان با عملکرد عالی و پایدار پس از چندین تکرار نگهداری می‌شوند. در اندازه‌های ۷B و ۲۰B موجود هستند، از زمینه ۱M پشتیبانی می‌کنند و در پیروی از دستورالعمل و استفاده از ابزار قوی‌تر هستند. به‌طور پیش‌فرض به جدیدترین سری InternLM2.5 (در حال حاضر internlm2.5-20b-chat) اشاره دارد.",
738
+ "internlm3-latest.description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی که در کلاس اندازه خود در میان مدل‌های متن‌باز پیشرو هستند. به‌طور پیش‌فرض به جدیدترین سری InternLM3 (در حال حاضر internlm3-8b-instruct) اشاره دارد.",
739
+ "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO یک مدل پیش‌آموزش چندوجهی برای استدلال پیچیده تصویر-متن است.",
740
+ "internvl2.5-latest.description": "InternVL2.5 همچنان با عملکرد قوی و پایدار نگهداری می‌شود. به‌طور پیش‌فرض به جدیدترین سری InternVL2.5 (در حال حاضر internvl2.5-78b) اشاره دارد.",
741
+ "internvl3-14b.description": "InternVL3 14B یک مدل چندوجهی با اندازه متوسط است که بین عملکرد و هزینه تعادل برقرار می‌کند.",
742
+ "internvl3-1b.description": "InternVL3 1B یک مدل چندوجهی سبک برای استقرار در محیط‌های با منابع محدود است.",
743
+ "internvl3-38b.description": "InternVL3 38B یک مدل چندوجهی متن‌باز بزرگ برای درک دقیق تصویر-متن است.",
744
+ "internvl3-latest.description": "جدیدترین مدل چندوجهی ما با درک قوی‌تر تصویر-متن و درک توالی‌های تصویری بلند، قابل مقایسه با مدل‌های بسته برتر. به‌طور پیش‌فرض به جدیدترین سری InternVL (در حال حاضر internvl3-78b) اشاره دارد.",
745
+ "irag-1.0.description": "ERNIE iRAG یک مدل تولید تقویت‌شده با بازیابی تصویر برای جستجوی تصویر، بازیابی تصویر-متن و تولید محتوا است.",
746
+ "jamba-large.description": "پیشرفته‌ترین و قدرتمندترین مدل ما، طراحی‌شده برای وظایف پیچیده سازمانی با عملکرد برجسته.",
747
+ "jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچک‌تر.",
718
748
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
719
749
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
720
750
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -29,7 +29,6 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
- "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
33
32
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
34
33
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
35
34
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -36,7 +36,11 @@
36
36
  "agentCronJobs.noExecutionResults": "نتیجه‌ای از اجرا موجود نیست",
37
37
  "agentCronJobs.remainingExecutions": "باقی‌مانده: {{count}}",
38
38
  "agentCronJobs.save": "ذخیره",
39
+ "agentCronJobs.saveAsNew": "ذخیره به‌عنوان جدید",
39
40
  "agentCronJobs.schedule": "زمان‌بندی",
41
+ "agentCronJobs.scheduleType.daily": "روزانه",
42
+ "agentCronJobs.scheduleType.hourly": "ساعتی",
43
+ "agentCronJobs.scheduleType.weekly": "هفتگی",
40
44
  "agentCronJobs.status.depleted": "پایان‌یافته",
41
45
  "agentCronJobs.status.disabled": "غیرفعال",
42
46
  "agentCronJobs.status.enabled": "فعال",
@@ -45,6 +49,20 @@
45
49
  "agentCronJobs.unlimited": "نامحدود",
46
50
  "agentCronJobs.unnamedTask": "وظیفه بدون نام",
47
51
  "agentCronJobs.updateSuccess": "وظیفه زمان‌بندی‌شده با موفقیت به‌روزرسانی شد",
52
+ "agentCronJobs.weekday.friday": "جمعه",
53
+ "agentCronJobs.weekday.monday": "دوشنبه",
54
+ "agentCronJobs.weekday.saturday": "شنبه",
55
+ "agentCronJobs.weekday.short.friday": "جمعه",
56
+ "agentCronJobs.weekday.short.monday": "دوشنبه",
57
+ "agentCronJobs.weekday.short.saturday": "شنبه",
58
+ "agentCronJobs.weekday.short.sunday": "یکشنبه",
59
+ "agentCronJobs.weekday.short.thursday": "پنج‌شنبه",
60
+ "agentCronJobs.weekday.short.tuesday": "سه‌شنبه",
61
+ "agentCronJobs.weekday.short.wednesday": "چهارشنبه",
62
+ "agentCronJobs.weekday.sunday": "یکشنبه",
63
+ "agentCronJobs.weekday.thursday": "پنج‌شنبه",
64
+ "agentCronJobs.weekday.tuesday": "سه‌شنبه",
65
+ "agentCronJobs.weekday.wednesday": "چهارشنبه",
48
66
  "agentCronJobs.weekdays": "روزهای هفته",
49
67
  "agentInfoDescription.basic.avatar": "آواتار",
50
68
  "agentInfoDescription.basic.description": "توضیحات",
@@ -553,6 +571,7 @@
553
571
  "tab.about": "درباره",
554
572
  "tab.addCustomSkill": "افزودن مهارت سفارشی",
555
573
  "tab.agent": "سرویس عامل",
574
+ "tab.all": "همه",
556
575
  "tab.apikey": "مدیریت کلید API",
557
576
  "tab.chatAppearance": "ظاهر گفتگو",
558
577
  "tab.common": "ظاهر",
@@ -191,7 +191,7 @@
191
191
  "profile.usernameRule": "Le nom d'utilisateur ne peut contenir que des lettres, chiffres ou tirets bas",
192
192
  "profile.usernameUpdateFailed": "Échec de la mise à jour du nom d'utilisateur, veuillez réessayer plus tard",
193
193
  "signin.subtitle": "Inscrivez-vous ou connectez-vous à votre compte {{appName}}",
194
- "signin.title": "Pour la collaboration avec Agents",
194
+ "signin.title": "Des équipes d’agents qui évoluent avec vous",
195
195
  "signout": "Déconnexion",
196
196
  "signup": "Inscription",
197
197
  "stats.aiheatmaps": "Indice d'activité",
@@ -73,6 +73,7 @@
73
73
  "screen5.badge": "Connexion",
74
74
  "screen5.description": "Connectez-vous pour synchroniser Agents, Groupes, paramètres et Contexte sur tous vos appareils.",
75
75
  "screen5.errors.desktopOnlyOidc": "L'autorisation OIDC est uniquement disponible dans l'application de bureau.",
76
+ "screen5.legacyLocalDb.link": "Migrer l’ancienne base de données locale",
76
77
  "screen5.methods.cloud.description": "Connectez-vous avec votre compte LobeHub Cloud pour tout synchroniser facilement",
77
78
  "screen5.methods.cloud.name": "LobeHub Cloud",
78
79
  "screen5.methods.selfhost.description": "Connectez-vous à votre propre instance de serveur LobeHub",
@@ -1,8 +1,8 @@
1
1
  {
2
2
  "changelog.description": "Restez informé des nouvelles fonctionnalités et améliorations de {{appName}}",
3
3
  "changelog.title": "Journal des modifications",
4
- "chat.description": "{{appName}} vous offre la meilleure expérience utilisateur pour ChatGPT, Claude, Gemini et OLLaMA.",
5
- "chat.title": "{{appName}} · Pour des Agents Collaboratifs",
4
+ "chat.description": "{{appName}} est un espace de travail et de vie conçu pour trouver, créer et collaborer avec des équipes d’agents qui évoluent avec vous.",
5
+ "chat.title": "{{appName}} · Des équipes d’agents qui évoluent avec vous",
6
6
  "discover.assistants.description": "Contenu, questions-réponses, images, vidéos, voix, flux de travail — explorez et ajoutez des Agents depuis la Communauté.",
7
7
  "discover.assistants.title": "Communauté d’Agents",
8
8
  "discover.description": "Explorez les Agents, Compétences, Fournisseurs, modèles et serveurs MCP.",
@@ -271,9 +271,9 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et surpasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux tests d’intelligence.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et dépasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux tests d’intelligence.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d’agents.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet est particulièrement performant en programmation, science des données, vision et tâches d’agents.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
@@ -281,10 +281,10 @@
281
281
  "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
289
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -480,7 +480,7 @@
480
480
  "fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
481
481
  "fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
482
482
  "fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
483
- "fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois et en anglais, ainsi que des retouches de haute qualité comme le transfert de style et la rotation d’objets.",
483
+ "fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois et en anglais, et des retouches de haute qualité comme le transfert de style et la rotation d’objets.",
484
484
  "fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen, avec un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
485
485
  "flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
486
486
  "flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
@@ -649,6 +649,34 @@
649
649
  "gpt-5-mini.description": "Une variante GPT-5 plus rapide et plus économique pour les tâches bien définies, offrant des réponses rapides tout en maintenant la qualité.",
650
650
  "gpt-5-nano.description": "La variante GPT-5 la plus rapide et la plus économique, idéale pour les applications sensibles à la latence et au coût.",
651
651
  "gpt-5-pro.description": "GPT-5 pro utilise davantage de ressources pour réfléchir plus en profondeur et fournir des réponses de meilleure qualité de manière constante.",
652
+ "gpt-5.1-chat-latest.description": "GPT-5.1 Chat : la variante ChatGPT de GPT-5.1, conçue pour les scénarios de conversation.",
653
+ "gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini : une variante Codex plus petite et économique, optimisée pour les tâches de codage agentique.",
654
+ "gpt-5.1-codex.description": "GPT-5.1 Codex : une variante de GPT-5.1 optimisée pour les flux de travail complexes de codage/agents dans l’API Responses.",
655
+ "gpt-5.1.description": "GPT-5.1 — un modèle phare optimisé pour le codage et les tâches d’agents, avec un effort de raisonnement configurable et un contexte étendu.",
656
+ "gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest) pour découvrir les dernières améliorations conversationnelles.",
657
+ "gpt-5.2-pro.description": "GPT-5.2 Pro : une variante plus intelligente et plus précise de GPT-5.2 (uniquement via l’API Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
658
+ "gpt-5.2.description": "GPT-5.2 est un modèle phare pour les flux de travail de codage et d’agents, avec un raisonnement renforcé et des performances sur de longs contextes.",
659
+ "gpt-5.description": "Le meilleur modèle pour le codage inter-domaines et les tâches d’agents. GPT-5 marque un bond en précision, vitesse, raisonnement, compréhension du contexte, pensée structurée et résolution de problèmes.",
660
+ "gpt-audio.description": "GPT Audio est un modèle de chat général prenant en charge les entrées/sorties audio, disponible via l’API Chat Completions.",
661
+ "gpt-image-1-mini.description": "Une variante économique de GPT Image 1 avec entrées texte et image natives et sortie image.",
662
+ "gpt-image-1.5.description": "Une version améliorée de GPT Image 1 avec une génération 4× plus rapide, une édition plus précise et un meilleur rendu du texte.",
663
+ "gpt-image-1.description": "Modèle natif de génération d’images multimodales de ChatGPT.",
664
+ "gpt-oss-120b.description": "L’accès nécessite une demande. GPT-OSS-120B est un grand modèle de langage open source d’OpenAI avec de fortes capacités de génération de texte.",
665
+ "gpt-oss-20b.description": "L’accès nécessite une demande. GPT-OSS-20B est un modèle de langage open source de taille moyenne d’OpenAI, efficace pour la génération de texte.",
666
+ "gpt-oss:120b.description": "GPT-OSS 120B est le grand LLM open source d’OpenAI utilisant la quantification MXFP4, positionné comme modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haut de gamme et offre d’excellentes performances en raisonnement complexe, génération de code et traitement multilingue, avec des appels de fonctions avancés et une intégration d’outils.",
667
+ "gpt-oss:20b.description": "GPT-OSS 20B est un LLM open source d’OpenAI utilisant la quantification MXFP4, adapté aux GPU grand public haut de gamme ou aux Mac Apple Silicon. Il est performant en génération de dialogue, codage et tâches de raisonnement, avec prise en charge des appels de fonctions et de l’utilisation d’outils.",
668
+ "gpt-realtime.description": "Un modèle général en temps réel prenant en charge les entrées/sorties texte et audio en temps réel, ainsi que les entrées image.",
669
+ "grok-2-image-1212.description": "Notre dernier modèle de génération d’images crée des visuels réalistes et vivants à partir d’invites, idéal pour le marketing, les réseaux sociaux et le divertissement.",
670
+ "grok-2-vision-1212.description": "Précision améliorée, meilleur suivi des instructions et capacités multilingues renforcées.",
671
+ "grok-3-mini.description": "Un modèle léger qui réfléchit avant de répondre. Rapide et intelligent pour les tâches logiques ne nécessitant pas de connaissances spécialisées, avec accès aux traces de raisonnement brutes.",
672
+ "grok-3.description": "Un modèle phare performant pour les cas d’usage en entreprise comme l’extraction de données, le codage et la synthèse, avec une expertise approfondie en finance, santé, droit et science.",
673
+ "grok-4-0709.description": "Grok 4 de xAI avec de solides capacités de raisonnement.",
674
+ "grok-4-1-fast-non-reasoning.description": "Un modèle multimodal de pointe optimisé pour une utilisation performante des outils d’agents.",
675
+ "grok-4-1-fast-reasoning.description": "Un modèle multimodal de pointe optimisé pour une utilisation performante des outils d’agents.",
676
+ "grok-4-fast-non-reasoning.description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée en matière de modèles de raisonnement économiques.",
677
+ "grok-4-fast-reasoning.description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée en matière de modèles de raisonnement économiques.",
678
+ "grok-4.description": "Notre tout dernier modèle phare, excellent en traitement du langage naturel, mathématiques et raisonnement — un modèle polyvalent idéal.",
679
+ "grok-code-fast-1.description": "Nous sommes ravis de lancer grok-code-fast-1, un modèle de raisonnement rapide et économique, excellent pour le codage agentique.",
652
680
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
653
681
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
654
682
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",