@lobehub/lobehub 2.0.0-next.240 → 2.0.0-next.242

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (123) hide show
  1. package/.github/workflows/test.yml +13 -5
  2. package/CHANGELOG.md +50 -0
  3. package/apps/desktop/build/Icon-beta.Assets.car +0 -0
  4. package/apps/desktop/build/Icon-beta.icns +0 -0
  5. package/apps/desktop/build/icon-beta.ico +0 -0
  6. package/apps/desktop/build/icon-beta.png +0 -0
  7. package/apps/desktop/resources/locales/ar/menu.json +5 -1
  8. package/apps/desktop/resources/locales/bg-BG/menu.json +5 -1
  9. package/apps/desktop/resources/locales/de-DE/menu.json +5 -1
  10. package/apps/desktop/resources/locales/es-ES/menu.json +5 -1
  11. package/apps/desktop/resources/locales/fa-IR/menu.json +5 -1
  12. package/apps/desktop/resources/locales/fr-FR/menu.json +5 -1
  13. package/apps/desktop/resources/locales/it-IT/menu.json +5 -1
  14. package/apps/desktop/resources/locales/ja-JP/menu.json +5 -1
  15. package/apps/desktop/resources/locales/ko-KR/menu.json +5 -1
  16. package/apps/desktop/resources/locales/nl-NL/menu.json +5 -1
  17. package/apps/desktop/resources/locales/pl-PL/menu.json +5 -1
  18. package/apps/desktop/resources/locales/pt-BR/menu.json +5 -1
  19. package/apps/desktop/resources/locales/ru-RU/menu.json +5 -1
  20. package/apps/desktop/resources/locales/tr-TR/menu.json +5 -1
  21. package/apps/desktop/resources/locales/vi-VN/menu.json +5 -1
  22. package/apps/desktop/resources/locales/zh-CN/menu.json +5 -1
  23. package/apps/desktop/resources/locales/zh-TW/menu.json +5 -1
  24. package/apps/desktop/src/main/locales/default/menu.ts +5 -1
  25. package/apps/desktop/src/main/menus/impls/linux.ts +30 -0
  26. package/apps/desktop/src/main/menus/impls/macOS.test.ts +17 -0
  27. package/apps/desktop/src/main/menus/impls/macOS.ts +33 -0
  28. package/apps/desktop/src/main/menus/impls/windows.ts +30 -0
  29. package/changelog/v1.json +10 -0
  30. package/locales/ar/electron.json +24 -0
  31. package/locales/ar/models.json +48 -7
  32. package/locales/ar/plugin.json +9 -0
  33. package/locales/ar/providers.json +1 -0
  34. package/locales/bg-BG/electron.json +24 -0
  35. package/locales/bg-BG/models.json +35 -7
  36. package/locales/bg-BG/plugin.json +9 -0
  37. package/locales/bg-BG/providers.json +1 -0
  38. package/locales/de-DE/electron.json +24 -0
  39. package/locales/de-DE/models.json +26 -6
  40. package/locales/de-DE/plugin.json +9 -0
  41. package/locales/de-DE/providers.json +1 -0
  42. package/locales/en-US/electron.json +24 -0
  43. package/locales/en-US/models.json +10 -10
  44. package/locales/en-US/oauth.json +0 -1
  45. package/locales/en-US/providers.json +1 -0
  46. package/locales/en-US/subscription.json +2 -2
  47. package/locales/es-ES/electron.json +24 -0
  48. package/locales/es-ES/models.json +42 -7
  49. package/locales/es-ES/plugin.json +9 -0
  50. package/locales/es-ES/providers.json +1 -0
  51. package/locales/fa-IR/electron.json +24 -0
  52. package/locales/fa-IR/models.json +52 -10
  53. package/locales/fa-IR/plugin.json +9 -0
  54. package/locales/fa-IR/providers.json +1 -0
  55. package/locales/fr-FR/electron.json +24 -0
  56. package/locales/fr-FR/models.json +36 -7
  57. package/locales/fr-FR/plugin.json +9 -0
  58. package/locales/fr-FR/providers.json +1 -0
  59. package/locales/it-IT/electron.json +24 -0
  60. package/locales/it-IT/models.json +42 -7
  61. package/locales/it-IT/plugin.json +9 -0
  62. package/locales/it-IT/providers.json +1 -0
  63. package/locales/ja-JP/electron.json +24 -0
  64. package/locales/ja-JP/models.json +35 -6
  65. package/locales/ja-JP/plugin.json +9 -0
  66. package/locales/ja-JP/providers.json +1 -0
  67. package/locales/ko-KR/electron.json +24 -0
  68. package/locales/ko-KR/models.json +28 -7
  69. package/locales/ko-KR/plugin.json +9 -0
  70. package/locales/ko-KR/providers.json +1 -0
  71. package/locales/nl-NL/electron.json +24 -0
  72. package/locales/nl-NL/models.json +35 -6
  73. package/locales/nl-NL/plugin.json +9 -0
  74. package/locales/nl-NL/providers.json +1 -0
  75. package/locales/pl-PL/electron.json +24 -0
  76. package/locales/pl-PL/models.json +36 -7
  77. package/locales/pl-PL/plugin.json +9 -0
  78. package/locales/pl-PL/providers.json +1 -0
  79. package/locales/pt-BR/electron.json +24 -0
  80. package/locales/pt-BR/models.json +35 -6
  81. package/locales/pt-BR/plugin.json +9 -0
  82. package/locales/pt-BR/providers.json +1 -0
  83. package/locales/ru-RU/electron.json +24 -0
  84. package/locales/ru-RU/models.json +35 -7
  85. package/locales/ru-RU/plugin.json +9 -0
  86. package/locales/ru-RU/providers.json +1 -0
  87. package/locales/tr-TR/electron.json +24 -0
  88. package/locales/tr-TR/models.json +5 -7
  89. package/locales/tr-TR/plugin.json +9 -0
  90. package/locales/tr-TR/providers.json +1 -0
  91. package/locales/vi-VN/electron.json +24 -0
  92. package/locales/vi-VN/models.json +5 -5
  93. package/locales/vi-VN/plugin.json +9 -0
  94. package/locales/vi-VN/providers.json +1 -0
  95. package/locales/zh-CN/electron.json +24 -0
  96. package/locales/zh-CN/models.json +48 -6
  97. package/locales/zh-CN/oauth.json +0 -1
  98. package/locales/zh-CN/providers.json +1 -0
  99. package/locales/zh-CN/subscription.json +1 -1
  100. package/locales/zh-TW/electron.json +24 -0
  101. package/locales/zh-TW/models.json +10 -10
  102. package/locales/zh-TW/plugin.json +9 -0
  103. package/locales/zh-TW/providers.json +1 -0
  104. package/package.json +1 -1
  105. package/packages/electron-client-ipc/src/events/navigation.ts +12 -0
  106. package/src/components/PageTitle/index.tsx +11 -1
  107. package/src/features/ElectronTitlebar/NavigationBar/RecentlyViewed.tsx +137 -0
  108. package/src/features/ElectronTitlebar/NavigationBar/index.tsx +86 -0
  109. package/src/features/ElectronTitlebar/helpers/routeMetadata.ts +214 -0
  110. package/src/features/ElectronTitlebar/hooks/useNavigationHistory.ts +152 -0
  111. package/src/features/ElectronTitlebar/index.tsx +13 -5
  112. package/src/features/NavHeader/index.tsx +4 -2
  113. package/src/features/NavPanel/components/NavPanelDraggable.tsx +174 -0
  114. package/src/features/NavPanel/hooks/useNavPanel.ts +11 -35
  115. package/src/features/NavPanel/index.tsx +2 -126
  116. package/src/hooks/useTypeScriptHappyCallback.ts +7 -0
  117. package/src/locales/default/electron.ts +24 -0
  118. package/src/locales/default/subscription.ts +2 -3
  119. package/src/server/services/memory/userMemory/extract.ts +46 -6
  120. package/src/store/electron/actions/navigationHistory.ts +247 -0
  121. package/src/store/electron/initialState.ts +7 -1
  122. package/src/store/electron/store.ts +9 -2
  123. package/src/store/global/selectors/systemStatus.ts +4 -1
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
272
272
  "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
273
273
  "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
358
- "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
480
480
  "fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
482
- "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
483
- "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
482
+ "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
483
+ "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
484
484
  "flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
485
485
  "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
486
486
  "flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@@ -32,6 +32,5 @@
32
32
  "login.title": "Login to {{clientName}}",
33
33
  "login.userWelcome": "Welcome back, ",
34
34
  "success.subTitle": "You have successfully authorized the application to access your account. You may now close this page.",
35
- "success.subTitleWithCountdown": "Authorization successful. Auto-closing in {{countdown}}s...",
36
35
  "success.title": "Authorization Successful"
37
36
  }
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
30
30
  "jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
31
31
  "lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
32
+ "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
32
33
  "minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
33
34
  "mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
34
35
  "modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
@@ -115,9 +115,9 @@
115
115
  "limitation.limited.advanceFeature": "Upgrade to enjoy premium features:",
116
116
  "limitation.limited.desc": "Your {{plan}} computing credits have been exhausted. Upgrade now to get more credits.",
117
117
  "limitation.limited.descUltimate": "Your {{plan}} computing credits have been exhausted. Please top up credits to continue.",
118
- "limitation.limited.referralTip": "Invite new users to register, and you and your friend will each receive {{reward}}M credits",
118
+ "limitation.limited.referralTip": "Invite friends, both get {{reward}}M",
119
119
  "limitation.limited.title": "Computing Credits Exhausted",
120
- "limitation.limited.topup": "Top Up Credits",
120
+ "limitation.limited.topup": "Top-Up Credits",
121
121
  "limitation.limited.upgrade": "Upgrade to Higher Plan",
122
122
  "limitation.providers.lock.addNew": "Subscribe now to create custom AI providers",
123
123
  "limitation.providers.lock.enableProvider": "Subscribe now to enable this AI provider",
@@ -1,4 +1,28 @@
1
1
  {
2
+ "navigation.chat": "Chat",
3
+ "navigation.discover": "Descubrir",
4
+ "navigation.discoverAssistants": "Descubrir Asistentes",
5
+ "navigation.discoverMcp": "Descubrir MCP",
6
+ "navigation.discoverModels": "Descubrir Modelos",
7
+ "navigation.discoverProviders": "Descubrir Proveedores",
8
+ "navigation.group": "Grupo",
9
+ "navigation.groupChat": "Chat de Grupo",
10
+ "navigation.home": "Inicio",
11
+ "navigation.image": "Imagen",
12
+ "navigation.knowledgeBase": "Base de Conocimiento",
13
+ "navigation.lobehub": "LobeHub",
14
+ "navigation.memory": "Memoria",
15
+ "navigation.memoryContexts": "Memoria - Contextos",
16
+ "navigation.memoryExperiences": "Memoria - Experiencias",
17
+ "navigation.memoryIdentities": "Memoria - Identidades",
18
+ "navigation.memoryPreferences": "Memoria - Preferencias",
19
+ "navigation.onboarding": "Incorporación",
20
+ "navigation.page": "Página",
21
+ "navigation.pages": "Páginas",
22
+ "navigation.provider": "Proveedor",
23
+ "navigation.recentView": "Vistas recientes",
24
+ "navigation.resources": "Recursos",
25
+ "navigation.settings": "Configuración",
2
26
  "notification.finishChatGeneration": "Generación de mensaje por IA completada",
3
27
  "proxy.auth": "Autenticación requerida",
4
28
  "proxy.authDesc": "Si el servidor proxy requiere un nombre de usuario y una contraseña",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
273
273
  "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en muchas evaluaciones.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión por computadora y tareas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, capaz de ofrecer respuestas casi instantáneas o razonamientos prolongados con control detallado.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamientos paso a paso con control detallado para usuarios de API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
289
289
  "codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
358
- "deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo de chat y la sólida codificación del modelo de programación, con mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En evaluaciones públicas alcanza niveles similares a GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
379
379
  "deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
381
- "deepseek-reasoner.description": "El modo de pensamiento de DeepSeek V3.2 genera una cadena de razonamiento antes de la respuesta final para mejorar la precisión.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados destacados en competencias y razonamiento comparable a Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@@ -456,6 +456,41 @@
456
456
  "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview es un modelo multimodal de vista previa para comprensión y generación imagen-texto, adecuado para preguntas visuales y comprensión de contenido.",
457
457
  "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL es un modelo multimodal maduro para comprensión y reconocimiento imagen-texto en producción.",
458
458
  "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B es un modelo multimodal de código abierto para comprensión y razonamiento imagen-texto.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking es un modelo insignia nativo multimodal con modelado unificado de texto, imagen, audio y video. Ofrece mejoras amplias en capacidades para preguntas complejas, creación y escenarios de agentes.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview es un modelo insignia nativo multimodal con modelado unificado de texto, imagen, audio y video. Ofrece mejoras amplias en capacidades para preguntas complejas, creación y escenarios de agentes.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K es un modelo de diálogo con personalidad para la creación de personajes de propiedad intelectual y conversaciones de compañía a largo plazo.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview es un modelo preliminar para la creación de personajes y tramas, diseñado para evaluación y pruebas.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K es un modelo de personajes para novelas y creación de tramas, ideal para generación de historias extensas.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit es un modelo de edición de imágenes que permite borrar, repintar y generar variantes.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K es un modelo general ligero para preguntas y respuestas diarias y generación de contenido con sensibilidad al costo.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas extensas y tramas de propiedad intelectual con narrativas de múltiples personajes.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K es un modelo sin costo de entrada/salida para comprensión de textos largos y pruebas a gran escala.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K es un modelo gratuito y rápido para chat diario y tareas ligeras de texto.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y concurrencia para servicios en línea a gran escala y aplicaciones empresariales.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
475
+ "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] es un modelo de generación de imágenes con 12 mil millones de parámetros, diseñado para una salida rápida y de alta calidad.",
479
+ "fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
480
+ "fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
482
+ "fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen, compatible con ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
483
+ "fal-ai/qwen-image.description": "Modelo potente de generación de imágenes del equipo Qwen con fuerte representación de texto en chino y estilos visuales diversos.",
484
+ "flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
485
+ "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
486
+ "flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
487
+ "flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
488
+ "flux-merged.description": "FLUX.1-merged combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
489
+ "flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
490
+ "flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
491
+ "flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
459
494
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
460
495
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
461
496
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "Sin resultados",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "Sistema Local",
95
+ "builtins.lobe-notebook.actions.copy": "Copiar",
96
+ "builtins.lobe-notebook.actions.creating": "Creando documento...",
97
+ "builtins.lobe-notebook.actions.edit": "Editar",
98
+ "builtins.lobe-notebook.actions.expand": "Expandir",
99
+ "builtins.lobe-notebook.apiName.createDocument": "Crear documento",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "Eliminar documento",
101
+ "builtins.lobe-notebook.apiName.getDocument": "Obtener documento",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "Actualizar documento",
103
+ "builtins.lobe-notebook.title": "Cuaderno",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "Actualizar nodos en lote",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "Comparar capturas",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "Convertir en lista",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
30
30
  "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
31
31
  "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
32
+ "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
32
33
  "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
33
34
  "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
34
35
  "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
@@ -1,4 +1,28 @@
1
1
  {
2
+ "navigation.chat": "چت",
3
+ "navigation.discover": "کشف",
4
+ "navigation.discoverAssistants": "کشف دستیاران",
5
+ "navigation.discoverMcp": "کشف MCP",
6
+ "navigation.discoverModels": "کشف مدل‌ها",
7
+ "navigation.discoverProviders": "کشف ارائه‌دهندگان",
8
+ "navigation.group": "گروه",
9
+ "navigation.groupChat": "چت گروهی",
10
+ "navigation.home": "خانه",
11
+ "navigation.image": "تصویر",
12
+ "navigation.knowledgeBase": "پایگاه دانش",
13
+ "navigation.lobehub": "LobeHub",
14
+ "navigation.memory": "حافظه",
15
+ "navigation.memoryContexts": "حافظه - زمینه‌ها",
16
+ "navigation.memoryExperiences": "حافظه - تجربیات",
17
+ "navigation.memoryIdentities": "حافظه - هویت‌ها",
18
+ "navigation.memoryPreferences": "حافظه - ترجیحات",
19
+ "navigation.onboarding": "راه‌اندازی",
20
+ "navigation.page": "صفحه",
21
+ "navigation.pages": "صفحات",
22
+ "navigation.provider": "ارائه‌دهنده",
23
+ "navigation.recentView": "مشاهدات اخیر",
24
+ "navigation.resources": "منابع",
25
+ "navigation.settings": "تنظیمات",
2
26
  "notification.finishChatGeneration": "تولید پیام توسط هوش مصنوعی به پایان رسید",
3
27
  "proxy.auth": "احراز هویت لازم است",
4
28
  "proxy.authDesc": "در صورتی که سرور پروکسی نیاز به نام کاربری و رمز عبور داشته باشد",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی Claude 3 Opus پیشی می‌گیرد.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های بهبودیافته‌ای دارد و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی می‌گیرد.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام گسترده‌ای تولید کند که کاربران می‌توانند آن را مشاهده کنند. Sonnet در زمینه‌های برنامه‌نویسی، علم داده، بینایی و وظایف عامل‌ها بسیار قدرتمند است.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته با کنترل دقیق را پشتیبانی می‌کند.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته ارائه می‌شود.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر گسترده ارائه می‌شود.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترده‌ای با فرآیند قابل مشاهده تولید کند.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته با کنترل دقیق برای کاربران API ارائه می‌دهد.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
- "deepseek-chat.description": "مدلی متن‌باز و نوین که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت کدنویسی مدل برنامه‌نویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر ارائه می‌دهد. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام می‌کند و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
379
379
  "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
381
- "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی، زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking مدلی برای استدلال عمیق است که پیش از تولید خروجی، زنجیره‌ای از تفکر ایجاد می‌کند تا دقت را افزایش دهد. این مدل در رقابت‌های برتر نتایج عالی کسب کرده و استدلالی هم‌تراز با Gemini-3.0-Pro دارد.",
382
382
  "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
473
473
  "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته شده توسط تیم Seed در ByteDance، ورودی‌های متنی و تصویری را برای تولید تصاویر باکیفیت و قابل کنترل از طریق دستورات پشتیبانی می‌کند.",
475
475
  "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
480
480
  "fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
482
- "fal-ai/qwen-image-edit.description": "یک مدل حرفه‌ای ویرایش تصویر از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
483
- "fal-ai/qwen-image.description": "یک مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متن چینی و سبک‌های بصری متنوع.",
482
+ "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که ویرایش‌های معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر را پشتیبانی می‌کند.",
483
+ "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر قوی متن چینی و سبک‌های بصری متنوع.",
484
484
  "flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
485
485
  "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
486
486
  "flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@@ -512,6 +512,48 @@
512
512
  "gemini-2.0-flash-lite-001.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
513
513
  "gemini-2.0-flash-lite.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
514
514
  "gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگی‌های نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه می‌دهد.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیش‌نمایش Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro پرچم‌دار مدل‌های استدلالی گوگل است که از زمینه‌های طولانی برای انجام وظایف پیچیده پشتیبانی می‌کند.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحی‌شده برای سرعت است که هوش پیشرفته را با جستجوی عالی ترکیب می‌کند.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.",
533
+ "gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "آخرین نسخه منتشرشده از Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B برای وظایف کوچک تا متوسط مقرون‌به‌صرفه است.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B برای وظایف خاص و یکپارچه‌سازی ابزارها بهینه‌سازی شده است.",
538
+ "gemma2.description": "Gemma 2 مدل کارآمد گوگل است که از برنامه‌های کوچک تا پردازش داده‌های پیچیده را پوشش می‌دهد.",
539
+ "gemma2:27b.description": "Gemma 2 مدل کارآمد گوگل است که از برنامه‌های کوچک تا پردازش داده‌های پیچیده را پوشش می‌دهد.",
540
+ "gemma2:2b.description": "Gemma 2 مدل کارآمد گوگل است که از برنامه‌های کوچک تا پردازش داده‌های پیچیده را پوشش می‌دهد.",
541
+ "generalv3.5.description": "Spark Max کامل‌ترین نسخه است که از جستجوی وب و افزونه‌های داخلی متعددی پشتیبانی می‌کند. قابلیت‌های اصلی آن بهینه‌سازی شده‌اند و نقش‌های سیستمی و فراخوانی توابع عملکردی عالی در سناریوهای پیچیده ارائه می‌دهند.",
542
+ "generalv3.description": "Spark Pro یک مدل LLM با عملکرد بالا است که برای حوزه‌های حرفه‌ای بهینه‌سازی شده و بر ریاضی، برنامه‌نویسی، سلامت و آموزش تمرکز دارد. این مدل از جستجوی وب و افزونه‌های داخلی مانند آب‌وهوا و تاریخ پشتیبانی می‌کند و در پرسش‌وپاسخ دانش پیچیده، درک زبان و تولید متن پیشرفته عملکرد قوی و کارآمدی دارد و گزینه‌ای ایده‌آل برای کاربردهای حرفه‌ای است.",
543
+ "glm-4-0520.description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع با عملکرد عالی طراحی شده است.",
544
+ "glm-4-32b-0414.description": "GLM-4 32B 0414 یک مدل عمومی GLM است که از تولید و درک متن چندوظیفه‌ای پشتیبانی می‌کند.",
545
+ "glm-4-9b-chat.description": "GLM-4-9B-Chat در حوزه‌های معناشناسی، ریاضی، استدلال، کدنویسی و دانش عملکرد قوی دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متن‌های طولانی پشتیبانی می‌کند و از ۲۶ زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌کند.",
546
+ "glm-4-air-250414.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
547
+ "glm-4-air.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
548
+ "glm-4-airx.description": "GLM-4-AirX نسخه‌ای کارآمدتر از GLM-4-Air است که تا ۲.۶ برابر استدلال سریع‌تری دارد.",
549
+ "glm-4-alltools.description": "GLM-4-AllTools یک مدل عامل چندمنظوره است که برای برنامه‌ریزی دستورالعمل‌های پیچیده و استفاده از ابزارهایی مانند مرور وب، توضیح کد و تولید متن بهینه‌سازی شده و برای اجرای چندوظیفه‌ای مناسب است.",
550
+ "glm-4-flash-250414.description": "GLM-4-Flash برای وظایف ساده ایده‌آل است: سریع‌ترین و رایگان.",
551
+ "glm-4-flash.description": "GLM-4-Flash برای وظایف ساده ایده‌آل است: سریع‌ترین و رایگان.",
552
+ "glm-4-flashx.description": "GLM-4-FlashX نسخه پیشرفته Flash با استدلال فوق‌العاده سریع است.",
553
+ "glm-4-long.description": "GLM-4-Long از ورودی‌های بسیار طولانی برای وظایف حافظه‌محور و پردازش اسناد در مقیاس بزرگ پشتیبانی می‌کند.",
554
+ "glm-4-plus.description": "GLM-4-Plus پرچم‌دار با هوش بالا است که در مدیریت متن‌های طولانی و وظایف پیچیده قوی عمل می‌کند و عملکرد کلی ارتقاء یافته‌ای دارد.",
555
+ "glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
556
+ "glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
515
557
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
516
558
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
517
559
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -92,6 +92,15 @@
92
92
  "builtins.lobe-local-system.inspector.noResults": "نتیجه‌ای یافت نشد",
93
93
  "builtins.lobe-local-system.inspector.rename.result": "<old>{{oldName}}</old> → <new>{{newName}}</new>",
94
94
  "builtins.lobe-local-system.title": "سیستم محلی",
95
+ "builtins.lobe-notebook.actions.copy": "کپی",
96
+ "builtins.lobe-notebook.actions.creating": "در حال ایجاد سند...",
97
+ "builtins.lobe-notebook.actions.edit": "ویرایش",
98
+ "builtins.lobe-notebook.actions.expand": "گسترش",
99
+ "builtins.lobe-notebook.apiName.createDocument": "ایجاد سند",
100
+ "builtins.lobe-notebook.apiName.deleteDocument": "حذف سند",
101
+ "builtins.lobe-notebook.apiName.getDocument": "دریافت سند",
102
+ "builtins.lobe-notebook.apiName.updateDocument": "به‌روزرسانی سند",
103
+ "builtins.lobe-notebook.title": "دفترچه یادداشت",
95
104
  "builtins.lobe-page-agent.apiName.batchUpdate": "به‌روزرسانی دسته‌ای گره‌ها",
96
105
  "builtins.lobe-page-agent.apiName.compareSnapshots": "مقایسه نسخه‌ها",
97
106
  "builtins.lobe-page-agent.apiName.convertToList": "تبدیل به فهرست",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
+ "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
32
33
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
33
34
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
34
35
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -1,4 +1,28 @@
1
1
  {
2
+ "navigation.chat": "Chat",
3
+ "navigation.discover": "Découvrir",
4
+ "navigation.discoverAssistants": "Découvrir les Assistants",
5
+ "navigation.discoverMcp": "Découvrir MCP",
6
+ "navigation.discoverModels": "Découvrir les Modèles",
7
+ "navigation.discoverProviders": "Découvrir les Fournisseurs",
8
+ "navigation.group": "Groupe",
9
+ "navigation.groupChat": "Chat de Groupe",
10
+ "navigation.home": "Accueil",
11
+ "navigation.image": "Image",
12
+ "navigation.knowledgeBase": "Base de Connaissances",
13
+ "navigation.lobehub": "LobeHub",
14
+ "navigation.memory": "Mémoire",
15
+ "navigation.memoryContexts": "Mémoire - Contextes",
16
+ "navigation.memoryExperiences": "Mémoire - Expériences",
17
+ "navigation.memoryIdentities": "Mémoire - Identités",
18
+ "navigation.memoryPreferences": "Mémoire - Préférences",
19
+ "navigation.onboarding": "Intégration",
20
+ "navigation.page": "Page",
21
+ "navigation.pages": "Pages",
22
+ "navigation.provider": "Fournisseur",
23
+ "navigation.recentView": "Vues récentes",
24
+ "navigation.resources": "Ressources",
25
+ "navigation.settings": "Paramètres",
2
26
  "notification.finishChatGeneration": "Génération du message par l'IA terminée",
3
27
  "proxy.auth": "Authentification requise",
4
28
  "proxy.authDesc": "Si le serveur proxy nécessite un nom d'utilisateur et un mot de passe",