@lobehub/lobehub 2.0.0-next.339 → 2.0.0-next.340
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/docs/self-hosting/advanced/auth/clerk-to-betterauth.mdx +366 -0
- package/docs/self-hosting/advanced/auth/clerk-to-betterauth.zh-CN.mdx +360 -0
- package/docs/self-hosting/advanced/auth/legacy.mdx +4 -0
- package/docs/self-hosting/advanced/auth/legacy.zh-CN.mdx +4 -0
- package/docs/self-hosting/advanced/auth.mdx +55 -30
- package/docs/self-hosting/advanced/auth.zh-CN.mdx +55 -30
- package/locales/ar/auth.json +1 -1
- package/locales/ar/desktop-onboarding.json +1 -0
- package/locales/ar/metadata.json +2 -2
- package/locales/ar/models.json +23 -5
- package/locales/ar/providers.json +0 -1
- package/locales/ar/setting.json +19 -0
- package/locales/bg-BG/auth.json +1 -1
- package/locales/bg-BG/desktop-onboarding.json +1 -0
- package/locales/bg-BG/metadata.json +2 -2
- package/locales/bg-BG/models.json +5 -5
- package/locales/bg-BG/providers.json +0 -1
- package/locales/bg-BG/setting.json +19 -0
- package/locales/de-DE/auth.json +1 -1
- package/locales/de-DE/desktop-onboarding.json +1 -0
- package/locales/de-DE/metadata.json +2 -2
- package/locales/de-DE/models.json +31 -10
- package/locales/de-DE/providers.json +0 -1
- package/locales/de-DE/setting.json +19 -0
- package/locales/en-US/auth.json +3 -2
- package/locales/en-US/metadata.json +2 -2
- package/locales/en-US/models.json +10 -11
- package/locales/en-US/providers.json +0 -1
- package/locales/es-ES/auth.json +1 -1
- package/locales/es-ES/desktop-onboarding.json +1 -0
- package/locales/es-ES/metadata.json +2 -2
- package/locales/es-ES/models.json +32 -5
- package/locales/es-ES/providers.json +0 -1
- package/locales/es-ES/setting.json +19 -0
- package/locales/fa-IR/auth.json +1 -1
- package/locales/fa-IR/desktop-onboarding.json +1 -0
- package/locales/fa-IR/metadata.json +2 -2
- package/locales/fa-IR/models.json +35 -5
- package/locales/fa-IR/providers.json +0 -1
- package/locales/fa-IR/setting.json +19 -0
- package/locales/fr-FR/auth.json +1 -1
- package/locales/fr-FR/desktop-onboarding.json +1 -0
- package/locales/fr-FR/metadata.json +2 -2
- package/locales/fr-FR/models.json +33 -5
- package/locales/fr-FR/providers.json +0 -1
- package/locales/fr-FR/setting.json +19 -0
- package/locales/it-IT/auth.json +1 -1
- package/locales/it-IT/desktop-onboarding.json +1 -0
- package/locales/it-IT/metadata.json +2 -2
- package/locales/it-IT/models.json +3 -8
- package/locales/it-IT/providers.json +0 -1
- package/locales/it-IT/setting.json +19 -0
- package/locales/ja-JP/auth.json +1 -1
- package/locales/ja-JP/desktop-onboarding.json +1 -0
- package/locales/ja-JP/metadata.json +2 -2
- package/locales/ja-JP/models.json +32 -5
- package/locales/ja-JP/providers.json +0 -1
- package/locales/ja-JP/setting.json +19 -0
- package/locales/ko-KR/auth.json +1 -1
- package/locales/ko-KR/desktop-onboarding.json +1 -0
- package/locales/ko-KR/metadata.json +2 -2
- package/locales/ko-KR/models.json +3 -8
- package/locales/ko-KR/providers.json +0 -1
- package/locales/ko-KR/setting.json +19 -0
- package/locales/nl-NL/auth.json +1 -1
- package/locales/nl-NL/desktop-onboarding.json +1 -0
- package/locales/nl-NL/metadata.json +2 -2
- package/locales/nl-NL/models.json +45 -4
- package/locales/nl-NL/providers.json +0 -1
- package/locales/nl-NL/setting.json +19 -0
- package/locales/pl-PL/auth.json +1 -1
- package/locales/pl-PL/desktop-onboarding.json +1 -0
- package/locales/pl-PL/metadata.json +2 -2
- package/locales/pl-PL/models.json +37 -5
- package/locales/pl-PL/providers.json +0 -1
- package/locales/pl-PL/setting.json +19 -0
- package/locales/pt-BR/auth.json +1 -1
- package/locales/pt-BR/desktop-onboarding.json +1 -0
- package/locales/pt-BR/metadata.json +2 -2
- package/locales/pt-BR/models.json +28 -4
- package/locales/pt-BR/providers.json +0 -1
- package/locales/pt-BR/setting.json +19 -0
- package/locales/ru-RU/auth.json +1 -1
- package/locales/ru-RU/desktop-onboarding.json +1 -0
- package/locales/ru-RU/metadata.json +2 -2
- package/locales/ru-RU/models.json +3 -8
- package/locales/ru-RU/providers.json +0 -1
- package/locales/ru-RU/setting.json +19 -0
- package/locales/tr-TR/auth.json +1 -1
- package/locales/tr-TR/desktop-onboarding.json +1 -0
- package/locales/tr-TR/metadata.json +2 -2
- package/locales/tr-TR/models.json +26 -7
- package/locales/tr-TR/providers.json +0 -1
- package/locales/tr-TR/setting.json +19 -0
- package/locales/vi-VN/auth.json +1 -1
- package/locales/vi-VN/desktop-onboarding.json +1 -0
- package/locales/vi-VN/metadata.json +2 -2
- package/locales/vi-VN/models.json +3 -5
- package/locales/vi-VN/providers.json +0 -1
- package/locales/vi-VN/setting.json +19 -0
- package/locales/zh-CN/auth.json +3 -3
- package/locales/zh-CN/metadata.json +2 -2
- package/locales/zh-CN/models.json +46 -6
- package/locales/zh-CN/providers.json +0 -1
- package/locales/zh-TW/auth.json +1 -1
- package/locales/zh-TW/desktop-onboarding.json +1 -0
- package/locales/zh-TW/metadata.json +2 -2
- package/locales/zh-TW/models.json +39 -6
- package/locales/zh-TW/providers.json +0 -1
- package/locales/zh-TW/setting.json +19 -0
- package/package.json +1 -1
- package/packages/const/src/url.ts +1 -1
- package/public/og/agent-og.webp +0 -0
- package/public/og/mcp-og.webp +0 -0
- package/public/og/og.webp +0 -0
- package/scripts/clerk-to-betterauth/__tests__/parseCsvLine.test.ts +21 -0
- package/scripts/clerk-to-betterauth/_internal/config.ts +55 -0
- package/scripts/clerk-to-betterauth/_internal/db.ts +32 -0
- package/scripts/clerk-to-betterauth/_internal/env.ts +6 -0
- package/scripts/clerk-to-betterauth/_internal/load-data-from-files.ts +74 -0
- package/scripts/clerk-to-betterauth/_internal/types.ts +45 -0
- package/scripts/clerk-to-betterauth/_internal/utils.ts +36 -0
- package/scripts/clerk-to-betterauth/export-clerk-users-with-api.ts +211 -0
- package/scripts/clerk-to-betterauth/index.ts +314 -0
- package/scripts/clerk-to-betterauth/prod/put_clerk_exported_users_csv_here.txt +0 -0
- package/scripts/clerk-to-betterauth/test/put_clerk_exported_users_csv_here.txt +0 -0
- package/scripts/clerk-to-betterauth/verify.ts +275 -0
- package/src/app/[variants]/(auth)/signin/SignInEmailStep.tsx +30 -2
- package/src/app/[variants]/(auth)/signin/SignInPasswordStep.tsx +1 -1
- package/src/app/[variants]/(auth)/signin/page.tsx +3 -0
- package/src/app/[variants]/(auth)/signin/useSignIn.ts +6 -2
- package/src/app/[variants]/(main)/home/features/RecentResource/Item.tsx +2 -2
- package/src/app/[variants]/(main)/home/features/index.tsx +1 -2
- package/src/app/[variants]/(main)/settings/provider/features/ProviderConfig/index.tsx +0 -2
- package/src/app/[variants]/(main)/settings/skill/features/Actions.tsx +8 -7
- package/src/app/[variants]/(main)/settings/skill/features/McpSkillItem.tsx +9 -11
- package/src/app/manifest.ts +4 -4
- package/src/features/AuthCard/index.tsx +1 -1
- package/src/features/SkillStore/CommunityList/Item.tsx +3 -2
- package/src/features/SkillStore/Search/index.tsx +0 -1
- package/src/locales/default/auth.ts +3 -2
- package/src/locales/default/metadata.ts +2 -2
- package/src/server/ld.ts +4 -3
- package/src/styles/global.ts +0 -6
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/apple.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/auth0.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authelia.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/authentik.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/casdoor.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cloudflare-zero-trust.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/cognito.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/feishu.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/generic-oidc.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/github.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/google.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/keycloak.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/logto.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/microsoft.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/okta.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/wechat.zh-CN.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.mdx +0 -0
- /package/docs/self-hosting/advanced/auth/{better-auth → providers}/zitadel.zh-CN.mdx +0 -0
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model,
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
|
|
@@ -472,8 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.
|
|
476
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
|
|
477
476
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
|
|
478
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
|
|
479
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
|
|
@@ -481,8 +480,8 @@
|
|
|
481
480
|
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
|
|
482
481
|
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
|
|
483
482
|
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
|
|
484
|
-
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team
|
|
485
|
-
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
|
|
484
|
+
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
|
|
486
485
|
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
|
|
487
486
|
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
|
|
488
487
|
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
|
|
30
30
|
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
|
31
31
|
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
|
33
32
|
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
|
|
35
34
|
"modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
|
package/locales/es-ES/auth.json
CHANGED
|
@@ -191,7 +191,7 @@
|
|
|
191
191
|
"profile.usernameRule": "El nombre de usuario solo puede contener letras, números o guiones bajos",
|
|
192
192
|
"profile.usernameUpdateFailed": "Error al actualizar el nombre de usuario, intente más tarde",
|
|
193
193
|
"signin.subtitle": "Regístrese o inicie sesión en su cuenta de {{appName}}",
|
|
194
|
-
"signin.title": "
|
|
194
|
+
"signin.title": "Equipos de agentes que crecen contigo",
|
|
195
195
|
"signout": "Cerrar sesión",
|
|
196
196
|
"signup": "Registrarse",
|
|
197
197
|
"stats.aiheatmaps": "Índice de actividad",
|
|
@@ -73,6 +73,7 @@
|
|
|
73
73
|
"screen5.badge": "Iniciar sesión",
|
|
74
74
|
"screen5.description": "Inicia sesión para sincronizar Agentes, Grupos, configuración y Contexto en todos tus dispositivos.",
|
|
75
75
|
"screen5.errors.desktopOnlyOidc": "La autorización OIDC solo está disponible en la aplicación de escritorio.",
|
|
76
|
+
"screen5.legacyLocalDb.link": "Migrar base de datos local heredada",
|
|
76
77
|
"screen5.methods.cloud.description": "Inicia sesión con tu cuenta de LobeHub Cloud para sincronizar todo sin problemas",
|
|
77
78
|
"screen5.methods.cloud.name": "LobeHub Cloud",
|
|
78
79
|
"screen5.methods.selfhost.description": "Conéctate a tu propia instancia del servidor LobeHub",
|
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
{
|
|
2
2
|
"changelog.description": "Mantente al día con las nuevas funciones y mejoras de {{appName}}",
|
|
3
3
|
"changelog.title": "Registro de cambios",
|
|
4
|
-
"chat.description": "{{appName}}
|
|
5
|
-
"chat.title": "{{appName}} ·
|
|
4
|
+
"chat.description": "{{appName}} es un espacio para el trabajo y el estilo de vida donde puedes encontrar, crear y colaborar con equipos de agentes que crecen contigo.",
|
|
5
|
+
"chat.title": "{{appName}} · Equipos de agentes que crecen contigo",
|
|
6
6
|
"discover.assistants.description": "Contenido, preguntas y respuestas, imágenes, video, voz, flujos de trabajo: explora y añade Agentes de la Comunidad.",
|
|
7
7
|
"discover.assistants.title": "Comunidad de Agentes",
|
|
8
8
|
"discover.description": "Explora Agentes, Habilidades, Proveedores, modelos y Servidores MCP.",
|
|
@@ -271,9 +271,9 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión por computadora y tareas de agentes.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
|
|
358
|
-
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina
|
|
358
|
+
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
|
|
@@ -472,7 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
|
|
474
474
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
|
|
476
476
|
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
|
|
477
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
|
|
478
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
|
|
@@ -481,7 +481,7 @@
|
|
|
481
481
|
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
|
|
482
482
|
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
|
|
483
483
|
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que permite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
|
|
484
|
-
"fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con
|
|
484
|
+
"fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con impresionante renderizado de texto en chino y estilos visuales diversos.",
|
|
485
485
|
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
|
|
486
486
|
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
|
|
487
487
|
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
|
@@ -715,6 +715,33 @@
|
|
|
715
715
|
"hunyuan-turbos-vision.description": "Modelo insignia visión-lenguaje de próxima generación basado en el último TurboS, centrado en tareas de comprensión imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
|
|
716
716
|
"hunyuan-vision-1.5-instruct.description": "Modelo de pensamiento rápido para generación de texto a partir de imágenes basado en TurboS, con mejoras notables respecto a la versión anterior en reconocimiento básico de imágenes y razonamiento visual.",
|
|
717
717
|
"hunyuan-vision.description": "Último modelo multimodal que admite entrada de imagen + texto para generar texto.",
|
|
718
|
+
"image-01-live.description": "Un modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen y estilos predefinidos controlables.",
|
|
719
|
+
"image-01.description": "Un nuevo modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen e imagen a imagen.",
|
|
720
|
+
"imagen-4.0-fast-generate-001.description": "Versión rápida de la serie de modelos de texto a imagen de cuarta generación de Imagen.",
|
|
721
|
+
"imagen-4.0-generate-001.description": "Serie de modelos de texto a imagen de cuarta generación de Imagen.",
|
|
722
|
+
"imagen-4.0-generate-preview-06-06.description": "Familia de modelos de texto a imagen de cuarta generación de Imagen.",
|
|
723
|
+
"imagen-4.0-ultra-generate-001.description": "Versión Ultra de la serie de modelos de texto a imagen de cuarta generación de Imagen.",
|
|
724
|
+
"imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra de la cuarta generación de modelos de texto a imagen de Imagen.",
|
|
725
|
+
"inception/mercury-coder-small.description": "Mercury Coder Small es ideal para generación de código, depuración y refactorización con latencia mínima.",
|
|
726
|
+
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 es el tercer modelo de arquitectura Ling 2.0 del equipo Bailing de Ant Group. Es un modelo MoE con 100 mil millones de parámetros totales pero solo 6.1 mil millones activos por token (4.8 mil millones sin incluir embeddings). A pesar de su configuración ligera, iguala o supera a modelos densos de 40 mil millones y modelos MoE aún más grandes en múltiples pruebas, explorando alta eficiencia mediante arquitectura y estrategia de entrenamiento.",
|
|
727
|
+
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 es un modelo MoE pequeño y de alto rendimiento con 16 mil millones de parámetros totales y solo 1.4 mil millones activos por token (789 millones sin embeddings), ofreciendo generación muy rápida. Con un diseño MoE eficiente y grandes datos de entrenamiento de alta calidad, logra un rendimiento de primer nivel comparable a modelos densos de menos de 10 mil millones y modelos MoE más grandes.",
|
|
728
|
+
"inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 es un modelo de razonamiento de alto rendimiento optimizado a partir de Ling-flash-2.0-base. Utiliza una arquitectura MoE con 100 mil millones de parámetros totales y solo 6.1 mil millones activos por inferencia. Su algoritmo icepop estabiliza el entrenamiento por refuerzo en modelos MoE, permitiendo avances continuos en razonamiento complejo. Logra grandes avances en pruebas difíciles (concursos de matemáticas, generación de código, razonamiento lógico), superando a los mejores modelos densos de menos de 40 mil millones y rivalizando con modelos MoE abiertos más grandes y modelos cerrados de razonamiento. También se desempeña bien en escritura creativa, y su arquitectura eficiente permite inferencia rápida con menor costo de implementación para alta concurrencia.",
|
|
729
|
+
"inclusionai/ling-1t.description": "Ling-1T es el modelo MoE de 1T de inclusionAI, optimizado para tareas de razonamiento de alta intensidad y cargas de trabajo de gran contexto.",
|
|
730
|
+
"inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 es el modelo MoE de inclusionAI optimizado para eficiencia y rendimiento en razonamiento, adecuado para tareas de tamaño medio a grande.",
|
|
731
|
+
"inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 es el modelo MoE ligero de inclusionAI, que reduce significativamente los costos manteniendo la capacidad de razonamiento.",
|
|
732
|
+
"inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview es el modelo multimodal de inclusionAI, compatible con entradas de voz, imagen y video, con mejoras en renderizado de imágenes y reconocimiento de voz.",
|
|
733
|
+
"inclusionai/ring-1t.description": "Ring-1T es el modelo de razonamiento MoE de un billón de parámetros de inclusionAI, adecuado para tareas de razonamiento a gran escala e investigación.",
|
|
734
|
+
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 es una variante del modelo Ring de inclusionAI para escenarios de alto rendimiento, con énfasis en velocidad y eficiencia de costos.",
|
|
735
|
+
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 es el modelo MoE ligero de alto rendimiento de inclusionAI, diseñado para concurrencia.",
|
|
736
|
+
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat es un modelo de chat de código abierto basado en la arquitectura InternLM2. El modelo de 7B se enfoca en la generación de diálogos con soporte en chino e inglés, utilizando entrenamiento moderno para conversaciones fluidas e inteligentes. Es adecuado para muchos escenarios de chat como atención al cliente y asistentes personales.",
|
|
737
|
+
"internlm2.5-latest.description": "Modelos heredados aún mantenidos con excelente y estable rendimiento tras muchas iteraciones. Disponibles en tamaños de 7B y 20B, con soporte para contexto de 1M y mejor seguimiento de instrucciones y uso de herramientas. Por defecto se usa la última serie InternLM2.5 (actualmente internlm2.5-20b-chat).",
|
|
738
|
+
"internlm3-latest.description": "Nuestra última serie de modelos con excelente rendimiento en razonamiento, liderando entre los modelos abiertos de su clase. Por defecto se usa la última serie InternLM3 (actualmente internlm3-8b-instruct).",
|
|
739
|
+
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO es un modelo multimodal preentrenado para razonamiento complejo imagen-texto.",
|
|
740
|
+
"internvl2.5-latest.description": "InternVL2.5 sigue siendo mantenido con un rendimiento fuerte y estable. Por defecto se usa la última serie InternVL2.5 (actualmente internvl2.5-78b).",
|
|
741
|
+
"internvl3-14b.description": "InternVL3 14B es un modelo multimodal de tamaño medio que equilibra rendimiento y costo.",
|
|
742
|
+
"internvl3-1b.description": "InternVL3 1B es un modelo multimodal ligero para implementaciones con recursos limitados.",
|
|
743
|
+
"internvl3-38b.description": "InternVL3 38B es un modelo multimodal de código abierto de gran tamaño para comprensión imagen-texto de alta precisión.",
|
|
744
|
+
"internvl3-latest.description": "Nuestro modelo multimodal más reciente con mejor comprensión imagen-texto y comprensión de imágenes de secuencia larga, comparable a los mejores modelos cerrados. Por defecto se usa la última serie InternVL (actualmente internvl3-78b).",
|
|
718
745
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
719
746
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
720
747
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
|
|
30
30
|
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
|
|
31
31
|
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
|
|
33
32
|
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
|
|
34
33
|
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
|
|
35
34
|
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
|
|
@@ -36,7 +36,11 @@
|
|
|
36
36
|
"agentCronJobs.noExecutionResults": "Sin resultados de ejecución",
|
|
37
37
|
"agentCronJobs.remainingExecutions": "Restantes: {{count}}",
|
|
38
38
|
"agentCronJobs.save": "Guardar",
|
|
39
|
+
"agentCronJobs.saveAsNew": "Guardar como nuevo",
|
|
39
40
|
"agentCronJobs.schedule": "Programar",
|
|
41
|
+
"agentCronJobs.scheduleType.daily": "Diario",
|
|
42
|
+
"agentCronJobs.scheduleType.hourly": "Cada hora",
|
|
43
|
+
"agentCronJobs.scheduleType.weekly": "Semanal",
|
|
40
44
|
"agentCronJobs.status.depleted": "Agotado",
|
|
41
45
|
"agentCronJobs.status.disabled": "Desactivado",
|
|
42
46
|
"agentCronJobs.status.enabled": "Activado",
|
|
@@ -45,6 +49,20 @@
|
|
|
45
49
|
"agentCronJobs.unlimited": "Ilimitado",
|
|
46
50
|
"agentCronJobs.unnamedTask": "Tarea sin nombre",
|
|
47
51
|
"agentCronJobs.updateSuccess": "Tarea programada actualizada con éxito",
|
|
52
|
+
"agentCronJobs.weekday.friday": "Viernes",
|
|
53
|
+
"agentCronJobs.weekday.monday": "Lunes",
|
|
54
|
+
"agentCronJobs.weekday.saturday": "Sábado",
|
|
55
|
+
"agentCronJobs.weekday.short.friday": "Vie",
|
|
56
|
+
"agentCronJobs.weekday.short.monday": "Lun",
|
|
57
|
+
"agentCronJobs.weekday.short.saturday": "Sáb",
|
|
58
|
+
"agentCronJobs.weekday.short.sunday": "Dom",
|
|
59
|
+
"agentCronJobs.weekday.short.thursday": "Jue",
|
|
60
|
+
"agentCronJobs.weekday.short.tuesday": "Mar",
|
|
61
|
+
"agentCronJobs.weekday.short.wednesday": "Mié",
|
|
62
|
+
"agentCronJobs.weekday.sunday": "Domingo",
|
|
63
|
+
"agentCronJobs.weekday.thursday": "Jueves",
|
|
64
|
+
"agentCronJobs.weekday.tuesday": "Martes",
|
|
65
|
+
"agentCronJobs.weekday.wednesday": "Miércoles",
|
|
48
66
|
"agentCronJobs.weekdays": "Días laborables",
|
|
49
67
|
"agentInfoDescription.basic.avatar": "Avatar",
|
|
50
68
|
"agentInfoDescription.basic.description": "Descripción",
|
|
@@ -553,6 +571,7 @@
|
|
|
553
571
|
"tab.about": "Acerca de",
|
|
554
572
|
"tab.addCustomSkill": "Agregar habilidad personalizada",
|
|
555
573
|
"tab.agent": "Servicio de Agente",
|
|
574
|
+
"tab.all": "Todos",
|
|
556
575
|
"tab.apikey": "Gestión de Claves API",
|
|
557
576
|
"tab.chatAppearance": "Apariencia del Chat",
|
|
558
577
|
"tab.common": "Apariencia",
|
package/locales/fa-IR/auth.json
CHANGED
|
@@ -191,7 +191,7 @@
|
|
|
191
191
|
"profile.usernameRule": "نام کاربری فقط میتواند شامل حروف، اعداد یا زیرخط باشد",
|
|
192
192
|
"profile.usernameUpdateFailed": "بهروزرسانی نام کاربری ناموفق بود، لطفاً بعداً دوباره تلاش کنید",
|
|
193
193
|
"signin.subtitle": "برای ورود یا ثبتنام در حساب {{appName}}",
|
|
194
|
-
"signin.title": "
|
|
194
|
+
"signin.title": "تیمهای نمایندگی که همراه با شما رشد میکنند",
|
|
195
195
|
"signout": "خروج",
|
|
196
196
|
"signup": "ثبتنام",
|
|
197
197
|
"stats.aiheatmaps": "شاخص فعالیت",
|
|
@@ -73,6 +73,7 @@
|
|
|
73
73
|
"screen5.badge": "ورود",
|
|
74
74
|
"screen5.description": "برای همگامسازی عوامل، گروهها، تنظیمات و زمینهها در تمام دستگاهها وارد شوید.",
|
|
75
75
|
"screen5.errors.desktopOnlyOidc": "احراز هویت OIDC فقط در نسخه دسکتاپ در دسترس است.",
|
|
76
|
+
"screen5.legacyLocalDb.link": "انتقال پایگاه داده محلی قدیمی",
|
|
76
77
|
"screen5.methods.cloud.description": "با حساب LobeHub Cloud خود وارد شوید تا همه چیز بهصورت یکپارچه همگامسازی شود",
|
|
77
78
|
"screen5.methods.cloud.name": "LobeHub Cloud",
|
|
78
79
|
"screen5.methods.selfhost.description": "به نمونه سرور LobeHub خود متصل شوید",
|
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
{
|
|
2
2
|
"changelog.description": "با ویژگیها و بهبودهای جدید {{appName}} بهروز بمانید",
|
|
3
3
|
"changelog.title": "تغییرات نسخه",
|
|
4
|
-
"chat.description": "{{appName}}
|
|
5
|
-
"chat.title": "{{appName}} ·
|
|
4
|
+
"chat.description": "{{appName}} یک فضای کاری و سبک زندگی است برای یافتن، ساختن و همکاری با تیمهای عاملی که همراه با شما رشد میکنند.",
|
|
5
|
+
"chat.title": "{{appName}} · تیمهای عاملی که همراه با شما رشد میکنند",
|
|
6
6
|
"discover.assistants.description": "محتوا، پرسش و پاسخ، تصاویر، ویدیو، صدا، جریانهای کاری—عاملها را از جامعه انتخاب و اضافه کنید.",
|
|
7
7
|
"discover.assistants.title": "جامعه عاملها",
|
|
8
8
|
"discover.description": "عاملها، مهارتها، ارائهدهندگان، مدلها و سرورهای MCP را کاوش کنید.",
|
|
@@ -271,9 +271,9 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku،
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، مهارتهای بیشتری را بهبود میبخشد و در بسیاری از معیارهای هوش از مدل بزرگتر قبلی، Claude 3 Opus، پیشی میگیرد.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخهای سریع برای وظایف سبک ارائه میدهد.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل میتواند پاسخهای تقریباً فوری یا استدلال گامبهگام
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل میتواند پاسخهای تقریباً فوری یا استدلال گامبهگام طولانی ارائه دهد که کاربران میتوانند آن را مشاهده کنند. Sonnet بهویژه در برنامهنویسی، علم داده، بینایی رایانهای و وظایف عاملها بسیار قدرتمند است.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
@@ -284,7 +284,7 @@
|
|
|
284
284
|
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام با فرآیند قابل مشاهده تولید کند.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامهنویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی میکند تا بهرهوری توسعهدهندگان را افزایش دهد.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی میکند و طیف گستردهای از سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای کد زیر ۱۰ میلیارد پارامتر است.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعالسازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قویای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایهگذاری بصری عملکرد درخشانی دارد.",
|
|
358
|
-
"deepseek-chat.description": "مدلی متنباز جدید که تواناییهای عمومی و برنامهنویسی را ترکیب میکند. این مدل گفتوگوی عمومی مدل چت و قدرت برنامهنویسی مدل کدنویس را حفظ کرده و با همراستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعملها بهبود یافته است.",
|
|
358
|
+
"deepseek-chat.description": "مدلی متنباز و جدید که تواناییهای عمومی و برنامهنویسی را ترکیب میکند. این مدل گفتوگوی عمومی مدل چت و قدرت برنامهنویسی مدل کدنویس را حفظ کرده و با همراستایی ترجیحی بهتر همراه است. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعملها بهبود یافته است.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
@@ -472,7 +472,7 @@
|
|
|
472
472
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوقسبک برای پرسشوپاسخ ساده، طبقهبندی و استنتاج کمهزینه است.",
|
|
473
473
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفتوگوی چندمرحلهای است.",
|
|
474
474
|
"ernie-x1.1-preview.description": "پیشنمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
|
|
475
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متنی و تصویری پشتیبانی میکند و تولید
|
|
475
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودیهای متنی و تصویری پشتیبانی میکند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه میدهد. این مدل تصاویر را از دستورات متنی تولید میکند.",
|
|
476
476
|
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودیهای متنی و تصویری پشتیبانی میکند.",
|
|
477
477
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودیهای متنی و تصاویر مرجع را میپذیرد و امکان ویرایشهای محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم میکند.",
|
|
478
478
|
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیباییشناسی به تصاویر طبیعی و واقعگرایانهتر است.",
|
|
@@ -715,6 +715,36 @@
|
|
|
715
715
|
"hunyuan-turbos-vision.description": "مدل پرچمدار نسل جدید بینایی-زبان مبتنی بر TurboS جدید، متمرکز بر درک وظایف تصویر-متن مانند شناسایی موجودیتها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل تصویری.",
|
|
716
716
|
"hunyuan-vision-1.5-instruct.description": "مدلی برای تولید متن از تصویر با تفکر سریع، مبتنی بر پایه TurboS متنی، که نسبت به نسخه قبلی در شناسایی پایهای تصویر و استدلال تحلیلی تصویری بهبود قابلتوجهی دارد.",
|
|
717
717
|
"hunyuan-vision.description": "جدیدترین مدل چندوجهی با پشتیبانی از ورودی تصویر + متن برای تولید متن.",
|
|
718
|
+
"image-01-live.description": "مدل تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تنظیمات سبک قابل کنترل.",
|
|
719
|
+
"image-01.description": "مدل جدید تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تصویر به تصویر.",
|
|
720
|
+
"imagen-4.0-fast-generate-001.description": "نسخه سریع از سری مدلهای تبدیل متن به تصویر نسل چهارم Imagen",
|
|
721
|
+
"imagen-4.0-generate-001.description": "سری مدلهای تبدیل متن به تصویر نسل چهارم Imagen",
|
|
722
|
+
"imagen-4.0-generate-preview-06-06.description": "خانواده مدلهای تبدیل متن به تصویر نسل چهارم Imagen.",
|
|
723
|
+
"imagen-4.0-ultra-generate-001.description": "نسخه Ultra از سری مدلهای تبدیل متن به تصویر نسل چهارم Imagen",
|
|
724
|
+
"imagen-4.0-ultra-generate-preview-06-06.description": "گونه Ultra از مدلهای تبدیل متن به تصویر نسل چهارم Imagen.",
|
|
725
|
+
"inception/mercury-coder-small.description": "Mercury Coder Small برای تولید کد، اشکالزدایی و بازسازی کد با کمترین تأخیر ایدهآل است.",
|
|
726
|
+
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 سومین مدل معماری Ling 2.0 از تیم Bailing گروه Ant است. این مدل MoE با ۱۰۰ میلیارد پارامتر کل و تنها ۶.۱ میلیارد فعال در هر توکن (۴.۸ میلیارد بدون جاسازی) است. با وجود پیکربندی سبک، عملکردی برابر یا بهتر از مدلهای چگال ۴۰B و حتی MoEهای بزرگتر در چندین معیار دارد و کارایی بالا را از طریق معماری و استراتژی آموزش بررسی میکند.",
|
|
727
|
+
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 یک مدل MoE کوچک و با عملکرد بالا با ۱۶ میلیارد پارامتر کل و تنها ۱.۴ میلیارد فعال در هر توکن (۷۸۹ میلیون بدون جاسازی) است که تولید بسیار سریعی دارد. با طراحی کارآمد MoE و دادههای آموزشی با کیفیت بالا، عملکردی در سطح بالا ارائه میدهد که با مدلهای چگال زیر ۱۰B و MoEهای بزرگتر قابل مقایسه است.",
|
|
728
|
+
"inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 یک مدل تفکر با عملکرد بالا است که از Ling-flash-2.0-base بهینهسازی شده است. از معماری MoE با ۱۰۰ میلیارد پارامتر کل و تنها ۶.۱ میلیارد فعال در هر استنتاج استفاده میکند. الگوریتم icepop آموزش RL را برای مدلهای MoE پایدار میسازد و امکان پیشرفت در استدلال پیچیده را فراهم میکند. در معیارهای دشوار (مسابقات ریاضی، تولید کد، استدلال منطقی) پیشرفتهای بزرگی دارد و از مدلهای چگال برتر زیر ۴۰B پیشی میگیرد و با مدلهای MoE باز و بسته بزرگتر رقابت میکند. همچنین در نوشتن خلاقانه عملکرد خوبی دارد و معماری کارآمد آن استنتاج سریع با هزینه کمتر برای همزمانی بالا را ارائه میدهد.",
|
|
729
|
+
"inclusionai/ling-1t.description": "Ling-1T مدل MoE با ۱ تریلیون پارامتر از inclusionAI است که برای وظایف استدلال شدید و بارهای کاری با زمینه بزرگ بهینه شده است.",
|
|
730
|
+
"inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 مدل MoE از inclusionAI است که برای کارایی و عملکرد استدلال بهینه شده و برای وظایف متوسط تا بزرگ مناسب است.",
|
|
731
|
+
"inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 مدل MoE سبک از inclusionAI است که هزینه را بهطور قابل توجهی کاهش میدهد در حالی که توانایی استدلال را حفظ میکند.",
|
|
732
|
+
"inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview مدل چندوجهی inclusionAI است که از ورودیهای صوتی، تصویری و ویدیویی پشتیبانی میکند و رندر تصویر و تشخیص گفتار را بهبود میبخشد.",
|
|
733
|
+
"inclusionai/ring-1t.description": "Ring-1T مدل MoE با یک تریلیون پارامتر از inclusionAI برای وظایف استدلال در مقیاس بزرگ و تحقیقات مناسب است.",
|
|
734
|
+
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 گونهای از مدل Ring از inclusionAI برای سناریوهای با توان بالا است که بر سرعت و کارایی هزینه تأکید دارد.",
|
|
735
|
+
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 مدل MoE سبک و با توان بالا از inclusionAI است که برای همزمانی طراحی شده است.",
|
|
736
|
+
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat یک مدل چت متنباز بر پایه معماری InternLM2 است. این مدل ۷B بر تولید گفتوگو تمرکز دارد و از زبانهای چینی و انگلیسی پشتیبانی میکند و با آموزش مدرن، گفتوگویی روان و هوشمند ارائه میدهد. برای بسیاری از سناریوهای چت مانند پشتیبانی مشتری و دستیار شخصی مناسب است.",
|
|
737
|
+
"internlm2.5-latest.description": "مدلهای قدیمی که همچنان با عملکرد عالی و پایدار پس از چندین تکرار نگهداری میشوند. در اندازههای ۷B و ۲۰B موجود هستند، از زمینه ۱M پشتیبانی میکنند و در پیروی از دستورالعمل و استفاده از ابزار قویتر هستند. بهطور پیشفرض به جدیدترین سری InternLM2.5 (در حال حاضر internlm2.5-20b-chat) اشاره دارد.",
|
|
738
|
+
"internlm3-latest.description": "جدیدترین سری مدلهای ما با عملکرد استدلال عالی که در کلاس اندازه خود در میان مدلهای متنباز پیشرو هستند. بهطور پیشفرض به جدیدترین سری InternLM3 (در حال حاضر internlm3-8b-instruct) اشاره دارد.",
|
|
739
|
+
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO یک مدل پیشآموزش چندوجهی برای استدلال پیچیده تصویر-متن است.",
|
|
740
|
+
"internvl2.5-latest.description": "InternVL2.5 همچنان با عملکرد قوی و پایدار نگهداری میشود. بهطور پیشفرض به جدیدترین سری InternVL2.5 (در حال حاضر internvl2.5-78b) اشاره دارد.",
|
|
741
|
+
"internvl3-14b.description": "InternVL3 14B یک مدل چندوجهی با اندازه متوسط است که بین عملکرد و هزینه تعادل برقرار میکند.",
|
|
742
|
+
"internvl3-1b.description": "InternVL3 1B یک مدل چندوجهی سبک برای استقرار در محیطهای با منابع محدود است.",
|
|
743
|
+
"internvl3-38b.description": "InternVL3 38B یک مدل چندوجهی متنباز بزرگ برای درک دقیق تصویر-متن است.",
|
|
744
|
+
"internvl3-latest.description": "جدیدترین مدل چندوجهی ما با درک قویتر تصویر-متن و درک توالیهای تصویری بلند، قابل مقایسه با مدلهای بسته برتر. بهطور پیشفرض به جدیدترین سری InternVL (در حال حاضر internvl3-78b) اشاره دارد.",
|
|
745
|
+
"irag-1.0.description": "ERNIE iRAG یک مدل تولید تقویتشده با بازیابی تصویر برای جستجوی تصویر، بازیابی تصویر-متن و تولید محتوا است.",
|
|
746
|
+
"jamba-large.description": "پیشرفتهترین و قدرتمندترین مدل ما، طراحیشده برای وظایف پیچیده سازمانی با عملکرد برجسته.",
|
|
747
|
+
"jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچکتر.",
|
|
718
748
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
719
749
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
720
750
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -29,7 +29,6 @@
|
|
|
29
29
|
"internlm.description": "یک سازمان متنباز متمرکز بر تحقیقات مدلهای بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه میدهد تا مدلها و الگوریتمهای پیشرفته را در دسترس قرار دهد.",
|
|
30
30
|
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
|
31
31
|
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
|
32
|
-
"lobehub.description": "LobeHub Cloud از رابطهای برنامهنویسی رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل وابستهاند، اندازهگیری میکند.",
|
|
33
32
|
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
|
34
33
|
"mistral.description": "Mistral مدلهای عمومی، تخصصی و تحقیقاتی پیشرفتهای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه میدهد و از فراخوانی توابع برای یکپارچهسازی سفارشی پشتیبانی میکند.",
|
|
35
34
|
"modelscope.description": "ModelScope پلتفرم مدل بهعنوانسرویس Alibaba Cloud است که مجموعهای گسترده از مدلهای هوش مصنوعی و خدمات استنتاج را ارائه میدهد.",
|
|
@@ -36,7 +36,11 @@
|
|
|
36
36
|
"agentCronJobs.noExecutionResults": "نتیجهای از اجرا موجود نیست",
|
|
37
37
|
"agentCronJobs.remainingExecutions": "باقیمانده: {{count}}",
|
|
38
38
|
"agentCronJobs.save": "ذخیره",
|
|
39
|
+
"agentCronJobs.saveAsNew": "ذخیره بهعنوان جدید",
|
|
39
40
|
"agentCronJobs.schedule": "زمانبندی",
|
|
41
|
+
"agentCronJobs.scheduleType.daily": "روزانه",
|
|
42
|
+
"agentCronJobs.scheduleType.hourly": "ساعتی",
|
|
43
|
+
"agentCronJobs.scheduleType.weekly": "هفتگی",
|
|
40
44
|
"agentCronJobs.status.depleted": "پایانیافته",
|
|
41
45
|
"agentCronJobs.status.disabled": "غیرفعال",
|
|
42
46
|
"agentCronJobs.status.enabled": "فعال",
|
|
@@ -45,6 +49,20 @@
|
|
|
45
49
|
"agentCronJobs.unlimited": "نامحدود",
|
|
46
50
|
"agentCronJobs.unnamedTask": "وظیفه بدون نام",
|
|
47
51
|
"agentCronJobs.updateSuccess": "وظیفه زمانبندیشده با موفقیت بهروزرسانی شد",
|
|
52
|
+
"agentCronJobs.weekday.friday": "جمعه",
|
|
53
|
+
"agentCronJobs.weekday.monday": "دوشنبه",
|
|
54
|
+
"agentCronJobs.weekday.saturday": "شنبه",
|
|
55
|
+
"agentCronJobs.weekday.short.friday": "جمعه",
|
|
56
|
+
"agentCronJobs.weekday.short.monday": "دوشنبه",
|
|
57
|
+
"agentCronJobs.weekday.short.saturday": "شنبه",
|
|
58
|
+
"agentCronJobs.weekday.short.sunday": "یکشنبه",
|
|
59
|
+
"agentCronJobs.weekday.short.thursday": "پنجشنبه",
|
|
60
|
+
"agentCronJobs.weekday.short.tuesday": "سهشنبه",
|
|
61
|
+
"agentCronJobs.weekday.short.wednesday": "چهارشنبه",
|
|
62
|
+
"agentCronJobs.weekday.sunday": "یکشنبه",
|
|
63
|
+
"agentCronJobs.weekday.thursday": "پنجشنبه",
|
|
64
|
+
"agentCronJobs.weekday.tuesday": "سهشنبه",
|
|
65
|
+
"agentCronJobs.weekday.wednesday": "چهارشنبه",
|
|
48
66
|
"agentCronJobs.weekdays": "روزهای هفته",
|
|
49
67
|
"agentInfoDescription.basic.avatar": "آواتار",
|
|
50
68
|
"agentInfoDescription.basic.description": "توضیحات",
|
|
@@ -553,6 +571,7 @@
|
|
|
553
571
|
"tab.about": "درباره",
|
|
554
572
|
"tab.addCustomSkill": "افزودن مهارت سفارشی",
|
|
555
573
|
"tab.agent": "سرویس عامل",
|
|
574
|
+
"tab.all": "همه",
|
|
556
575
|
"tab.apikey": "مدیریت کلید API",
|
|
557
576
|
"tab.chatAppearance": "ظاهر گفتگو",
|
|
558
577
|
"tab.common": "ظاهر",
|
package/locales/fr-FR/auth.json
CHANGED
|
@@ -191,7 +191,7 @@
|
|
|
191
191
|
"profile.usernameRule": "Le nom d'utilisateur ne peut contenir que des lettres, chiffres ou tirets bas",
|
|
192
192
|
"profile.usernameUpdateFailed": "Échec de la mise à jour du nom d'utilisateur, veuillez réessayer plus tard",
|
|
193
193
|
"signin.subtitle": "Inscrivez-vous ou connectez-vous à votre compte {{appName}}",
|
|
194
|
-
"signin.title": "
|
|
194
|
+
"signin.title": "Des équipes d’agents qui évoluent avec vous",
|
|
195
195
|
"signout": "Déconnexion",
|
|
196
196
|
"signup": "Inscription",
|
|
197
197
|
"stats.aiheatmaps": "Indice d'activité",
|
|
@@ -73,6 +73,7 @@
|
|
|
73
73
|
"screen5.badge": "Connexion",
|
|
74
74
|
"screen5.description": "Connectez-vous pour synchroniser Agents, Groupes, paramètres et Contexte sur tous vos appareils.",
|
|
75
75
|
"screen5.errors.desktopOnlyOidc": "L'autorisation OIDC est uniquement disponible dans l'application de bureau.",
|
|
76
|
+
"screen5.legacyLocalDb.link": "Migrer l’ancienne base de données locale",
|
|
76
77
|
"screen5.methods.cloud.description": "Connectez-vous avec votre compte LobeHub Cloud pour tout synchroniser facilement",
|
|
77
78
|
"screen5.methods.cloud.name": "LobeHub Cloud",
|
|
78
79
|
"screen5.methods.selfhost.description": "Connectez-vous à votre propre instance de serveur LobeHub",
|
|
@@ -1,8 +1,8 @@
|
|
|
1
1
|
{
|
|
2
2
|
"changelog.description": "Restez informé des nouvelles fonctionnalités et améliorations de {{appName}}",
|
|
3
3
|
"changelog.title": "Journal des modifications",
|
|
4
|
-
"chat.description": "{{appName}}
|
|
5
|
-
"chat.title": "{{appName}} ·
|
|
4
|
+
"chat.description": "{{appName}} est un espace de travail et de vie conçu pour trouver, créer et collaborer avec des équipes d’agents qui évoluent avec vous.",
|
|
5
|
+
"chat.title": "{{appName}} · Des équipes d’agents qui évoluent avec vous",
|
|
6
6
|
"discover.assistants.description": "Contenu, questions-réponses, images, vidéos, voix, flux de travail — explorez et ajoutez des Agents depuis la Communauté.",
|
|
7
7
|
"discover.assistants.title": "Communauté d’Agents",
|
|
8
8
|
"discover.description": "Explorez les Agents, Compétences, Fournisseurs, modèles et serveurs MCP.",
|
|
@@ -271,9 +271,9 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d’Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et dépasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux tests d’intelligence.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d’Anthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l’utilisateur. Sonnet est particulièrement performant en programmation, science des données, vision et tâches d’agents.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
@@ -281,10 +281,10 @@
|
|
|
281
281
|
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d’Anthropic, alliant vitesse fulgurante et raisonnement approfondi.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d’Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
|
|
@@ -480,7 +480,7 @@
|
|
|
480
480
|
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.",
|
|
481
481
|
"fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.",
|
|
482
482
|
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.",
|
|
483
|
-
"fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois et en anglais,
|
|
483
|
+
"fal-ai/qwen-image-edit.description": "Un modèle professionnel d’édition d’images de l’équipe Qwen, prenant en charge les modifications sémantiques et d’apparence, l’édition précise de texte en chinois et en anglais, et des retouches de haute qualité comme le transfert de style et la rotation d’objets.",
|
|
484
484
|
"fal-ai/qwen-image.description": "Un puissant modèle de génération d’images de l’équipe Qwen, avec un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
|
|
485
485
|
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
|
|
486
486
|
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
|
|
@@ -649,6 +649,34 @@
|
|
|
649
649
|
"gpt-5-mini.description": "Une variante GPT-5 plus rapide et plus économique pour les tâches bien définies, offrant des réponses rapides tout en maintenant la qualité.",
|
|
650
650
|
"gpt-5-nano.description": "La variante GPT-5 la plus rapide et la plus économique, idéale pour les applications sensibles à la latence et au coût.",
|
|
651
651
|
"gpt-5-pro.description": "GPT-5 pro utilise davantage de ressources pour réfléchir plus en profondeur et fournir des réponses de meilleure qualité de manière constante.",
|
|
652
|
+
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat : la variante ChatGPT de GPT-5.1, conçue pour les scénarios de conversation.",
|
|
653
|
+
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini : une variante Codex plus petite et économique, optimisée pour les tâches de codage agentique.",
|
|
654
|
+
"gpt-5.1-codex.description": "GPT-5.1 Codex : une variante de GPT-5.1 optimisée pour les flux de travail complexes de codage/agents dans l’API Responses.",
|
|
655
|
+
"gpt-5.1.description": "GPT-5.1 — un modèle phare optimisé pour le codage et les tâches d’agents, avec un effort de raisonnement configurable et un contexte étendu.",
|
|
656
|
+
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest) pour découvrir les dernières améliorations conversationnelles.",
|
|
657
|
+
"gpt-5.2-pro.description": "GPT-5.2 Pro : une variante plus intelligente et plus précise de GPT-5.2 (uniquement via l’API Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
|
|
658
|
+
"gpt-5.2.description": "GPT-5.2 est un modèle phare pour les flux de travail de codage et d’agents, avec un raisonnement renforcé et des performances sur de longs contextes.",
|
|
659
|
+
"gpt-5.description": "Le meilleur modèle pour le codage inter-domaines et les tâches d’agents. GPT-5 marque un bond en précision, vitesse, raisonnement, compréhension du contexte, pensée structurée et résolution de problèmes.",
|
|
660
|
+
"gpt-audio.description": "GPT Audio est un modèle de chat général prenant en charge les entrées/sorties audio, disponible via l’API Chat Completions.",
|
|
661
|
+
"gpt-image-1-mini.description": "Une variante économique de GPT Image 1 avec entrées texte et image natives et sortie image.",
|
|
662
|
+
"gpt-image-1.5.description": "Une version améliorée de GPT Image 1 avec une génération 4× plus rapide, une édition plus précise et un meilleur rendu du texte.",
|
|
663
|
+
"gpt-image-1.description": "Modèle natif de génération d’images multimodales de ChatGPT.",
|
|
664
|
+
"gpt-oss-120b.description": "L’accès nécessite une demande. GPT-OSS-120B est un grand modèle de langage open source d’OpenAI avec de fortes capacités de génération de texte.",
|
|
665
|
+
"gpt-oss-20b.description": "L’accès nécessite une demande. GPT-OSS-20B est un modèle de langage open source de taille moyenne d’OpenAI, efficace pour la génération de texte.",
|
|
666
|
+
"gpt-oss:120b.description": "GPT-OSS 120B est le grand LLM open source d’OpenAI utilisant la quantification MXFP4, positionné comme modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haut de gamme et offre d’excellentes performances en raisonnement complexe, génération de code et traitement multilingue, avec des appels de fonctions avancés et une intégration d’outils.",
|
|
667
|
+
"gpt-oss:20b.description": "GPT-OSS 20B est un LLM open source d’OpenAI utilisant la quantification MXFP4, adapté aux GPU grand public haut de gamme ou aux Mac Apple Silicon. Il est performant en génération de dialogue, codage et tâches de raisonnement, avec prise en charge des appels de fonctions et de l’utilisation d’outils.",
|
|
668
|
+
"gpt-realtime.description": "Un modèle général en temps réel prenant en charge les entrées/sorties texte et audio en temps réel, ainsi que les entrées image.",
|
|
669
|
+
"grok-2-image-1212.description": "Notre dernier modèle de génération d’images crée des visuels réalistes et vivants à partir d’invites, idéal pour le marketing, les réseaux sociaux et le divertissement.",
|
|
670
|
+
"grok-2-vision-1212.description": "Précision améliorée, meilleur suivi des instructions et capacités multilingues renforcées.",
|
|
671
|
+
"grok-3-mini.description": "Un modèle léger qui réfléchit avant de répondre. Rapide et intelligent pour les tâches logiques ne nécessitant pas de connaissances spécialisées, avec accès aux traces de raisonnement brutes.",
|
|
672
|
+
"grok-3.description": "Un modèle phare performant pour les cas d’usage en entreprise comme l’extraction de données, le codage et la synthèse, avec une expertise approfondie en finance, santé, droit et science.",
|
|
673
|
+
"grok-4-0709.description": "Grok 4 de xAI avec de solides capacités de raisonnement.",
|
|
674
|
+
"grok-4-1-fast-non-reasoning.description": "Un modèle multimodal de pointe optimisé pour une utilisation performante des outils d’agents.",
|
|
675
|
+
"grok-4-1-fast-reasoning.description": "Un modèle multimodal de pointe optimisé pour une utilisation performante des outils d’agents.",
|
|
676
|
+
"grok-4-fast-non-reasoning.description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée en matière de modèles de raisonnement économiques.",
|
|
677
|
+
"grok-4-fast-reasoning.description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée en matière de modèles de raisonnement économiques.",
|
|
678
|
+
"grok-4.description": "Notre tout dernier modèle phare, excellent en traitement du langage naturel, mathématiques et raisonnement — un modèle polyvalent idéal.",
|
|
679
|
+
"grok-code-fast-1.description": "Nous sommes ravis de lancer grok-code-fast-1, un modèle de raisonnement rapide et économique, excellent pour le codage agentique.",
|
|
652
680
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
|
|
653
681
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
|
|
654
682
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",
|