@lobehub/lobehub 2.0.0-next.201 → 2.0.0-next.202

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (129) hide show
  1. package/CHANGELOG.md +25 -0
  2. package/changelog/v1.json +9 -0
  3. package/locales/ar/chat.json +2 -0
  4. package/locales/ar/models.json +64 -7
  5. package/locales/ar/plugin.json +2 -1
  6. package/locales/ar/providers.json +1 -0
  7. package/locales/bg-BG/chat.json +2 -0
  8. package/locales/bg-BG/models.json +49 -5
  9. package/locales/bg-BG/plugin.json +2 -1
  10. package/locales/bg-BG/providers.json +1 -0
  11. package/locales/de-DE/chat.json +2 -0
  12. package/locales/de-DE/models.json +36 -7
  13. package/locales/de-DE/plugin.json +2 -1
  14. package/locales/de-DE/providers.json +1 -0
  15. package/locales/en-US/chat.json +2 -0
  16. package/locales/en-US/models.json +10 -10
  17. package/locales/en-US/plugin.json +2 -1
  18. package/locales/en-US/providers.json +1 -0
  19. package/locales/es-ES/chat.json +2 -0
  20. package/locales/es-ES/models.json +106 -7
  21. package/locales/es-ES/plugin.json +2 -1
  22. package/locales/es-ES/providers.json +1 -0
  23. package/locales/fa-IR/chat.json +2 -0
  24. package/locales/fa-IR/models.json +83 -5
  25. package/locales/fa-IR/plugin.json +2 -1
  26. package/locales/fa-IR/providers.json +1 -0
  27. package/locales/fr-FR/chat.json +2 -0
  28. package/locales/fr-FR/models.json +38 -7
  29. package/locales/fr-FR/plugin.json +2 -1
  30. package/locales/fr-FR/providers.json +1 -0
  31. package/locales/it-IT/chat.json +2 -0
  32. package/locales/it-IT/models.json +40 -5
  33. package/locales/it-IT/plugin.json +2 -1
  34. package/locales/it-IT/providers.json +1 -0
  35. package/locales/ja-JP/chat.json +2 -0
  36. package/locales/ja-JP/models.json +84 -7
  37. package/locales/ja-JP/plugin.json +2 -1
  38. package/locales/ja-JP/providers.json +1 -0
  39. package/locales/ko-KR/chat.json +2 -0
  40. package/locales/ko-KR/models.json +65 -7
  41. package/locales/ko-KR/plugin.json +2 -1
  42. package/locales/ko-KR/providers.json +1 -0
  43. package/locales/nl-NL/chat.json +2 -0
  44. package/locales/nl-NL/models.json +62 -5
  45. package/locales/nl-NL/plugin.json +2 -1
  46. package/locales/nl-NL/providers.json +1 -0
  47. package/locales/pl-PL/chat.json +2 -0
  48. package/locales/pl-PL/models.json +85 -0
  49. package/locales/pl-PL/plugin.json +2 -1
  50. package/locales/pl-PL/providers.json +1 -0
  51. package/locales/pt-BR/chat.json +2 -0
  52. package/locales/pt-BR/models.json +37 -6
  53. package/locales/pt-BR/plugin.json +2 -1
  54. package/locales/pt-BR/providers.json +1 -0
  55. package/locales/ru-RU/chat.json +2 -0
  56. package/locales/ru-RU/models.json +36 -7
  57. package/locales/ru-RU/plugin.json +2 -1
  58. package/locales/ru-RU/providers.json +1 -0
  59. package/locales/tr-TR/chat.json +2 -0
  60. package/locales/tr-TR/models.json +28 -7
  61. package/locales/tr-TR/plugin.json +2 -1
  62. package/locales/tr-TR/providers.json +1 -0
  63. package/locales/vi-VN/chat.json +2 -0
  64. package/locales/vi-VN/models.json +62 -5
  65. package/locales/vi-VN/plugin.json +2 -1
  66. package/locales/vi-VN/providers.json +1 -0
  67. package/locales/zh-CN/chat.json +2 -0
  68. package/locales/zh-CN/models.json +87 -6
  69. package/locales/zh-CN/plugin.json +2 -1
  70. package/locales/zh-CN/providers.json +1 -0
  71. package/locales/zh-TW/chat.json +2 -0
  72. package/locales/zh-TW/models.json +71 -7
  73. package/locales/zh-TW/plugin.json +2 -1
  74. package/locales/zh-TW/providers.json +1 -0
  75. package/package.json +1 -1
  76. package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
  77. package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
  78. package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
  79. package/packages/types/src/aiChat.ts +0 -1
  80. package/packages/types/src/message/ui/chat.ts +1 -1
  81. package/src/app/(backend)/middleware/auth/index.ts +16 -2
  82. package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
  83. package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
  84. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
  85. package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
  86. package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
  87. package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
  88. package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
  89. package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
  90. package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
  91. package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
  92. package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
  93. package/src/features/User/DataStatistics.tsx +4 -4
  94. package/src/hooks/useQueryParam.ts +0 -2
  95. package/src/libs/trpc/async/asyncAuth.ts +0 -2
  96. package/src/libs/trpc/async/context.ts +3 -11
  97. package/src/locales/default/chat.ts +2 -0
  98. package/src/locales/default/plugin.ts +2 -1
  99. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
  100. package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
  101. package/src/server/modules/AgentRuntime/factory.ts +39 -20
  102. package/src/server/modules/ModelRuntime/index.ts +138 -1
  103. package/src/server/routers/async/__tests__/caller.test.ts +22 -27
  104. package/src/server/routers/async/caller.ts +4 -6
  105. package/src/server/routers/async/file.ts +10 -5
  106. package/src/server/routers/async/image.ts +5 -4
  107. package/src/server/routers/async/ragEval.ts +7 -5
  108. package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
  109. package/src/server/routers/lambda/aiChat.ts +5 -21
  110. package/src/server/routers/lambda/chunk.ts +9 -28
  111. package/src/server/routers/lambda/image.ts +1 -7
  112. package/src/server/routers/lambda/ragEval.ts +1 -1
  113. package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
  114. package/src/server/routers/lambda/userMemories/search.ts +7 -7
  115. package/src/server/routers/lambda/userMemories/shared.ts +8 -10
  116. package/src/server/routers/lambda/userMemories/tools.ts +140 -118
  117. package/src/server/routers/lambda/userMemories.test.ts +3 -7
  118. package/src/server/routers/lambda/userMemories.ts +44 -29
  119. package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
  120. package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
  121. package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
  122. package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
  123. package/src/server/services/chunk/index.ts +6 -5
  124. package/src/server/services/toolExecution/types.ts +1 -2
  125. package/src/services/__tests__/_url.test.ts +0 -1
  126. package/src/services/_url.ts +0 -3
  127. package/src/services/aiChat.ts +5 -12
  128. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
  129. package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
272
272
  "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
273
273
  "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
289
289
  "codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
358
- "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
379
379
  "deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
381
- "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@@ -471,7 +471,7 @@
471
471
  "ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
472
472
  "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
473
473
  "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
474
- "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
475
475
  "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
476
476
  "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
477
477
  "fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@@ -479,8 +479,8 @@
479
479
  "fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
480
480
  "fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
481
481
  "fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
482
- "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
483
- "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
482
+ "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
483
+ "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
484
484
  "flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
485
485
  "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
486
486
  "flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Create plan: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Create todos",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Execute task",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Execute: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Task created: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Creating task: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Execute tasks",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Delete todos",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Update plan",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
30
30
  "jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
31
31
  "lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
32
+ "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
32
33
  "minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
33
34
  "mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
34
35
  "modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} subtareas en lote",
296
296
  "task.metrics.stepsShort": "pasos",
297
297
  "task.metrics.toolCallsShort": "usos de herramientas",
298
+ "task.status.cancelled": "Tarea cancelada",
299
+ "task.status.failed": "Tarea fallida",
298
300
  "task.status.initializing": "Inicializando tarea...",
299
301
  "task.subtask": "Subtarea",
300
302
  "thread.divider": "Subtema",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
273
273
  "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en numerosos indicadores.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso visibles para el usuario. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, capaz de ofrecer respuestas casi instantáneas o razonamientos prolongados con control detallado.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamientos paso a paso con control detallado para usuarios de API.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
289
289
  "codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento en tareas de análisis profundo.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento en tareas de análisis profundo.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
358
- "deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo de chat y la sólida programación del modelo coder, con mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles de GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para programación entrenado con 2T tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que rinde fuertemente en tareas de programación, comparable a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que rinde fuertemente en tareas de programación, comparable a GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
379
379
  "deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y rinde de forma comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
381
- "deepseek-reasoner.description": "El modo de pensamiento de DeepSeek V3.2 genera una cadena de razonamiento antes de la respuesta final para mejorar la precisión.",
381
+ "deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados destacados en competencias y razonamiento comparable a Gemini-3.0-Pro.",
382
382
  "deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671B parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@@ -413,6 +413,105 @@
413
413
  "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B es una versión destilada de Llama-3.3-70B-Instruct. Como parte de la serie DeepSeek-R1, está ajustado con muestras generadas por DeepSeek-R1 y ofrece un rendimiento sólido en matemáticas, programación y razonamiento.",
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B es una versión destilada de Qwen2.5-14B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, ofreciendo un razonamiento sólido.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B es una versión destilada de Qwen2.5-32B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, destacando en matemáticas, programación y razonamiento.",
416
+ "devstral-2:123b.description": "Devstral 2 123B sobresale en el uso de herramientas para explorar bases de código, editar múltiples archivos y asistir a agentes de ingeniería de software.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite es un nuevo modelo ligero con respuesta ultrarrápida, ofreciendo calidad de primer nivel y baja latencia.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k es una mejora integral de Doubao-1.5-Pro, con un aumento del 10% en el rendimiento general. Soporta una ventana de contexto de 256k y hasta 12k tokens de salida, ofreciendo mayor rendimiento, mayor contexto y gran valor para casos de uso amplios.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro es un modelo insignia de nueva generación con mejoras en todas las áreas, destacando en conocimiento, programación y razonamiento.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo (la versión m incluye razonamiento multimodal nativo) que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Soporta una ventana de contexto de 128k y salida de hasta 16k tokens.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Soporta una ventana de contexto de 128k y salida de hasta 16k tokens.",
422
+ "doubao-1.5-thinking-vision-pro.description": "Un nuevo modelo visual de razonamiento profundo con mayor comprensión y razonamiento multimodal, logrando resultados SOTA en 37 de 59 benchmarks públicos.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS es un modelo de agente enfocado en interfaces gráficas que interactúa fluidamente con interfaces mediante percepción, razonamiento y acción similares a los humanos.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones. Soporta una ventana de contexto de 128k y hasta 16k tokens de salida.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
427
+ "doubao-lite-128k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 128k.",
428
+ "doubao-lite-32k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 32k.",
429
+ "doubao-lite-4k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 4k.",
430
+ "doubao-pro-256k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con resultados sólidos en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Soporta razonamiento y ajuste fino con una ventana de contexto de 256k.",
431
+ "doubao-pro-32k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con resultados sólidos en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Soporta razonamiento y ajuste fino con una ventana de contexto de 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash es un modelo multimodal de razonamiento profundo ultrarrápido con TPOT de hasta 10ms. Soporta texto e imagen, supera al modelo lite anterior en comprensión textual y se equipara a modelos pro en visión. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de razonamiento profundo con esfuerzo de razonamiento ajustable (Mínimo, Bajo, Medio, Alto), ofreciendo mejor valor y una opción sólida para tareas comunes, con una ventana de contexto de hasta 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 refuerza significativamente el razonamiento, mejorando aún más las habilidades clave en programación, matemáticas y lógica respecto a Doubao-1.5-thinking-pro, además de añadir comprensión visual. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision es un modelo visual de razonamiento profundo que ofrece mayor comprensión y razonamiento multimodal para educación, revisión de imágenes, inspección/seguridad y preguntas y respuestas con búsqueda por IA. Soporta una ventana de contexto de 256k y hasta 64k tokens de salida.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 es un nuevo modelo multimodal de razonamiento profundo con modos automático, con razonamiento y sin razonamiento. En modo sin razonamiento, supera significativamente a Doubao-1.5-pro/250115. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 ofrece una comprensión multimodal y capacidades de agente aún más potentes, admitiendo entrada de texto/imagen/video y almacenamiento en caché de contexto, con un rendimiento superior en tareas complejas.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code está profundamente optimizado para programación con agentes, admite entradas multimodales (texto/imagen/video) y una ventana de contexto de 256k, es compatible con la API de Anthropic y se adapta a flujos de trabajo de programación, comprensión visual y agentes.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "El modelo de imagen Doubao de ByteDance Seed admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Soporta edición de imágenes guiada por texto, con tamaños de salida entre 512 y 1536 en el lado largo.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
444
+ "emohaa.description": "Emohaa es un modelo de salud mental con capacidades profesionales de asesoramiento para ayudar a los usuarios a comprender sus problemas emocionales.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B es un modelo ligero de código abierto para implementación local y personalizada.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B es un modelo de código abierto con gran número de parámetros y mejor capacidad de comprensión y generación.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B es el modelo MoE ultra grande de Baidu ERNIE con excelente razonamiento.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview es un modelo de vista previa con contexto de 8K para evaluar ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Vista previa de ERNIE 4.5 Turbo 128K con capacidades de nivel de lanzamiento, adecuado para integración y pruebas canarias.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K es un modelo general de alto rendimiento con aumento de búsqueda y llamadas a herramientas para preguntas y respuestas, programación y escenarios de agentes.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K es una versión de contexto medio para preguntas y respuestas, recuperación de bases de conocimiento y diálogo de múltiples turnos.",
452
+ "ernie-4.5-turbo-latest.description": "Última versión de ERNIE 4.5 Turbo con rendimiento general optimizado, ideal como modelo principal de producción.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview es una vista previa multimodal de 32K para evaluar la capacidad de visión de contexto largo.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K es una versión multimodal de contexto medio-largo para comprensión combinada de documentos largos e imágenes.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest es la versión multimodal más reciente con mejor comprensión y razonamiento imagen-texto.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview es un modelo multimodal de vista previa para comprensión y generación imagen-texto, adecuado para preguntas visuales y comprensión de contenido.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL es un modelo multimodal maduro para comprensión y reconocimiento imagen-texto en producción.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B es un modelo multimodal de código abierto para comprensión y razonamiento imagen-texto.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking es un modelo insignia nativo de modalidad completa con modelado unificado de texto, imagen, audio y video. Ofrece mejoras significativas en capacidades para preguntas complejas, creación y escenarios de agentes.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview es un modelo insignia nativo de modalidad completa con modelado unificado de texto, imagen, audio y video. Proporciona mejoras amplias en capacidades para preguntas complejas, creación y escenarios de agentes.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K es un modelo de diálogo con personalidad diseñado para la construcción de personajes de propiedad intelectual y conversaciones de compañía a largo plazo.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview es un modelo preliminar para la creación de personajes y tramas, destinado a evaluación y pruebas de funcionalidades.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K es un modelo de personalidad para novelas y creación de tramas, ideal para la generación de historias de formato largo.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit es un modelo de edición de imágenes que permite borrar, repintar y generar variantes.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K es un modelo general ligero para preguntas frecuentes y generación de contenido con sensibilidad al costo.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas de formato largo y tramas de propiedad intelectual con narrativas de múltiples personajes.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K es un modelo sin tarifas de entrada/salida para comprensión de textos largos y pruebas a gran escala.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K es un modelo gratuito y rápido para conversaciones diarias y tareas ligeras de texto.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y alta concurrencia para servicios en línea a gran escala y aplicaciones empresariales.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y conversaciones de múltiples turnos.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes de alta calidad y altamente controlable a partir de indicaciones.",
475
+ "fal-ai/flux-kontext/dev.description": "FLUX.1 es un modelo centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escena.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] es un modelo de generación de imágenes con 12 mil millones de parámetros, diseñado para producir resultados rápidos y de alta calidad.",
479
+ "fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
480
+ "fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite la generación y edición de imágenes mediante conversación.",
482
+ "fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen, compatible con ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
483
+ "fal-ai/qwen-image.description": "Potente modelo de generación de imágenes del equipo Qwen con excelente renderizado de texto en chino y estilos visuales diversos.",
484
+ "flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se publica bajo Apache-2.0 para uso personal, de investigación y comercial.",
485
+ "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen cercana a nivel profesional y seguimiento de instrucciones, funcionando de manera más eficiente que modelos estándar del mismo tamaño.",
486
+ "flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
487
+ "flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
488
+ "flux-merged.description": "FLUX.1-merged combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
489
+ "flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
490
+ "flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
491
+ "flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) ofrece un rendimiento estable y ajustable para tareas complejas.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) proporciona un sólido soporte multimodal para tareas complejas.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google diseñado para escalar tareas de forma amplia.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 es el modelo experimental más reciente con mejoras notables en casos de uso de texto y multimodales.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 ofrece procesamiento multimodal optimizado para tareas complejas.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash es el modelo de IA multimodal más reciente de Google con procesamiento rápido, compatible con entradas de texto, imagen y video para escalar tareas de manera eficiente.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 es una solución de IA multimodal escalable para tareas complejas.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 es el modelo más reciente listo para producción con salidas de mayor calidad, especialmente en matemáticas, contexto largo y tareas visuales.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 ofrece un procesamiento multimodal sólido con mayor flexibilidad para el desarrollo de aplicaciones.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 aplica las últimas optimizaciones para un procesamiento multimodal más eficiente.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro admite hasta 2 millones de tokens, siendo un modelo multimodal de tamaño medio ideal para tareas complejas.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece funciones de próxima generación, incluyendo velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash con soporte para generación de imágenes.",
511
+ "gemini-2.0-flash-exp.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
512
+ "gemini-2.0-flash-lite-001.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
513
+ "gemini-2.0-flash-lite.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash ofrece funciones de próxima generación, incluyendo velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
416
515
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
417
516
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
418
517
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Plan creado: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Crear tareas",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Ejecutar tarea",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Ejecutar: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Tarea creada: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Creando tarea: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Ejecutar tareas",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Eliminar tareas",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Actualizar plan",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
30
30
  "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
31
31
  "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
32
+ "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
32
33
  "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
33
34
  "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
34
35
  "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} زیرکار گروهی",
296
296
  "task.metrics.stepsShort": "گام",
297
297
  "task.metrics.toolCallsShort": "استفاده از ابزار",
298
+ "task.status.cancelled": "وظیفه لغو شد",
299
+ "task.status.failed": "وظیفه ناموفق بود",
298
300
  "task.status.initializing": "در حال آغاز وظیفه...",
299
301
  "task.subtask": "زیرکار",
300
302
  "thread.divider": "زیرموضوع",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های متعددی را بهبود داده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام و قابل مشاهده تولید کند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته را با کنترل دقیق ارائه می‌دهد.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته ارائه می‌شود.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر عمیق ارائه می‌شود.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته را با کنترل دقیق برای کاربران API ارائه می‌دهد.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -335,6 +335,84 @@
335
335
  "computer-use-preview.description": "computer-use-preview یک مدل تخصصی برای ابزار «استفاده از رایانه» است که برای درک و اجرای وظایف مرتبط با رایانه آموزش دیده است.",
336
336
  "dall-e-2.description": "مدل نسل دوم DALL·E با تولید تصاویر واقع‌گرایانه‌تر، دقیق‌تر و وضوحی ۴ برابر بیشتر از نسل اول.",
337
337
  "dall-e-3.description": "جدیدترین مدل DALL·E که در نوامبر ۲۰۲۳ منتشر شد و از تولید تصاویر واقع‌گرایانه‌تر، دقیق‌تر و با جزئیات قوی‌تر پشتیبانی می‌کند.",
338
+ "databricks/dbrx-instruct.description": "DBRX Instruct مدیریت دستورالعمل‌ها را با قابلیت اطمینان بالا در صنایع مختلف ارائه می‌دهد.",
339
+ "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR یک مدل بینایی-زبانی از DeepSeek AI است که بر OCR و «فشرده‌سازی نوری متنی» تمرکز دارد. این مدل با فشرده‌سازی اطلاعات متنی از تصاویر، اسناد را به‌طور کارآمد پردازش کرده و به متن ساختاریافته (مانند Markdown) تبدیل می‌کند. این مدل در شناسایی دقیق متن در تصاویر عملکرد بالایی دارد و برای دیجیتالی‌سازی اسناد، استخراج متن و پردازش ساختاریافته مناسب است.",
340
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B زنجیره تفکر را از DeepSeek-R1-0528 به Qwen3 8B Base منتقل می‌کند. این مدل در میان مدل‌های متن‌باز به SOTA رسیده، در AIME 2024 نسبت به Qwen3 8B ده درصد بهتر عمل کرده و عملکردی هم‌سطح با Qwen3-235B-thinking دارد. در استدلال ریاضی، برنامه‌نویسی و منطق عمومی عملکرد درخشانی دارد. معماری آن مشابه Qwen3-8B است اما از توکنایزر DeepSeek-R1-0528 استفاده می‌کند.",
341
+ "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 با استفاده از منابع محاسباتی بیشتر و بهینه‌سازی‌های الگوریتمی پس از آموزش، توانایی استدلال را تعمیق می‌بخشد. این مدل در معیارهای ریاضی، برنامه‌نویسی و منطق عمومی عملکرد قوی دارد و به سطح مدل‌های پیشرو مانند o3 و Gemini 2.5 Pro نزدیک می‌شود.",
342
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "مدل‌های تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت می‌کنند.",
343
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "مدل‌های تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت می‌کنند.",
344
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "مدل‌های تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت می‌کنند.",
345
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B از Qwen2.5-32B تقطیر شده و با ۸۰۰ هزار نمونه انتخاب‌شده از DeepSeek-R1 آموزش دیده است. این مدل در ریاضی، برنامه‌نویسی و استدلال عملکرد درخشانی دارد و نتایج قوی‌ای در AIME 2024، MATH-500 (با دقت ۹۴.۳٪) و GPQA Diamond کسب کرده است.",
346
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B از Qwen2.5-Math-7B تقطیر شده و با ۸۰۰ هزار نمونه انتخاب‌شده از DeepSeek-R1 آموزش دیده است. این مدل عملکرد قوی‌ای دارد: ۹۲.۸٪ در MATH-500، ۵۵.۵٪ در AIME 2024 و امتیاز ۱۱۸۹ در CodeForces برای یک مدل ۷B.",
347
+ "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 با استفاده از داده‌های شروع سرد پیش از یادگیری تقویتی، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت کرده و از OpenAI-o1-mini پیشی گرفته است.",
348
+ "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 نسخه ارتقاءیافته DeepSeek-V2-Chat و DeepSeek-Coder-V2-Instruct است که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته و در معیارهایی مانند AlpacaEval 2.0، ArenaHard، AlignBench و MT-Bench پیشرفت چشمگیری نشان داده است.",
349
+ "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus نسخه به‌روزشده مدل V3.1 است که به‌عنوان یک عامل ترکیبی LLM طراحی شده است. این مدل مشکلات گزارش‌شده کاربران را رفع کرده، ثبات و سازگاری زبانی را بهبود بخشیده و نویسه‌های غیرعادی و ترکیب چینی/انگلیسی را کاهش داده است. این مدل حالت‌های تفکر و غیرتفکر را با قالب‌های چت ترکیب کرده و امکان جابجایی انعطاف‌پذیر را فراهم می‌کند. همچنین عملکرد عامل کدنویسی و جستجو را برای استفاده مطمئن‌تر از ابزارها و انجام وظایف چندمرحله‌ای بهبود داده است.",
350
+ "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 از معماری استدلال ترکیبی استفاده می‌کند و از هر دو حالت تفکر و غیرتفکر پشتیبانی می‌کند.",
351
+ "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که به معماری بعدی پل می‌زند. این مدل با افزودن DeepSeek Sparse Attention (DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینه‌های طولانی را بهبود می‌بخشد و برای استفاده از ابزارها، درک اسناد طولانی و استدلال چندمرحله‌ای بهینه شده است. این مدل برای بررسی بهره‌وری بالاتر در استدلال با بودجه متنی بزرگ ایده‌آل است.",
352
+ "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای آموزش و استنتاج کارآمد استفاده می‌کند. این مدل با استفاده از ۱۴.۸ تریلیون توکن با کیفیت بالا و آموزش با SFT و RL، از سایر مدل‌های متن‌باز پیشی گرفته و به مدل‌های بسته پیشرو نزدیک شده است.",
353
+ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.",
354
+ "deepseek-ai/deepseek-r1.description": "یک مدل LLM کارآمد و پیشرفته با توانایی بالا در استدلال، ریاضی و برنامه‌نویسی.",
355
+ "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
+ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
+ "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
+ "deepseek-chat.description": "DeepSeek V3.2 تعادل بین استدلال و طول خروجی را برای پرسش‌وپاسخ روزمره و وظایف عامل حفظ می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام کرده و در ارزیابی‌های عامل متن‌باز پیشتاز است.",
359
+ "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
360
+ "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
+ "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
362
+ "deepseek-ocr.description": "DeepSeek-OCR یک مدل بینایی-زبانی از DeepSeek AI است که بر OCR و «فشرده‌سازی نوری متنی» تمرکز دارد. این مدل با فشرده‌سازی اطلاعات متنی از تصاویر، اسناد را به‌طور کارآمد پردازش کرده و به فرمت‌های متنی ساختاریافته مانند Markdown تبدیل می‌کند. این مدل در شناسایی دقیق متن در تصاویر عملکرد بالایی دارد و برای دیجیتالی‌سازی اسناد، استخراج متن و پردازش ساختاریافته مناسب است.",
363
+ "deepseek-r1-0528.description": "مدل کامل ۶۸۵ میلیارد پارامتری منتشرشده در ۲۸ مه ۲۰۲۵. DeepSeek-R1 از یادگیری تقویتی در مقیاس بزرگ در مرحله پس‌آموزش استفاده می‌کند که توانایی استدلال را با حداقل داده‌های برچسب‌خورده به‌طور چشمگیری بهبود می‌بخشد و در ریاضی، کدنویسی و استدلال زبان طبیعی عملکرد قوی‌ای دارد.",
364
+ "deepseek-r1-250528.description": "DeepSeek R1 250528 نسخه کامل مدل استدلال DeepSeek-R1 برای وظایف سخت ریاضی و منطقی است.",
365
+ "deepseek-r1-70b-fast-online.description": "نسخه سریع DeepSeek R1 70B با جستجوی وب در زمان واقعی که پاسخ‌های سریع‌تری را با حفظ عملکرد ارائه می‌دهد.",
366
+ "deepseek-r1-70b-online.description": "نسخه استاندارد DeepSeek R1 70B با جستجوی وب در زمان واقعی، مناسب برای چت و وظایف متنی به‌روز.",
367
+ "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B ترکیبی از استدلال R1 با اکوسیستم Llama است.",
368
+ "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B از Llama-3.1-8B با استفاده از خروجی‌های DeepSeek R1 تقطیر شده است.",
369
+ "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama از DeepSeek-R1 بر پایه Llama تقطیر شده است.",
370
+ "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B یک مدل تقطیر R1 بر پایه Qianfan-70B با ارزش بالا است.",
371
+ "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B یک مدل تقطیر R1 بر پایه Qianfan-8B برای برنامه‌های کوچک و متوسط است.",
372
+ "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B یک مدل تقطیر R1 بر پایه Llama-70B است.",
373
+ "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B یک مدل تقطیر فوق‌سبک برای محیط‌های بسیار کم‌منبع است.",
374
+ "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B یک مدل تقطیر میان‌رده برای استقرار در سناریوهای چندگانه است.",
375
+ "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B یک مدل تقطیر R1 بر پایه Qwen-32B است که بین عملکرد و هزینه تعادل برقرار می‌کند.",
376
+ "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B یک مدل تقطیر سبک برای محیط‌های لبه‌ای و سازمانی خصوصی است.",
377
+ "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen از DeepSeek-R1 بر پایه Qwen تقطیر شده است.",
378
+ "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
379
+ "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
380
+ "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
381
+ "deepseek-reasoner.description": "مدل DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از ارائه پاسخ، زنجیره‌ای از افکار تولید می‌کند تا دقت را افزایش دهد. این مدل نتایج رقابتی بالایی دارد و توانایی استدلال آن با Gemini-3.0-Pro قابل مقایسه است.",
382
+ "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
383
+ "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
384
+ "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus یک مدل زبان بزرگ بهینه‌شده برای دستگاه‌های ترمینال است که توسط DeepSeek توسعه یافته است.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 نسخه تفکر عمیق مدل Terminus است که برای استدلال با عملکرد بالا طراحی شده است.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از هر دو حالت تفکر و بدون تفکر پشتیبانی می‌کند و بهره‌وری تفکر بالاتری نسبت به DeepSeek-R1-0528 دارد. بهینه‌سازی‌های پس از آموزش، استفاده از ابزارها و عملکرد وظایف نماینده را به‌طور قابل توجهی بهبود می‌بخشد. این مدل از پنجره متنی ۱۲۸ هزار توکن و خروجی تا ۶۴ هزار توکن پشتیبانی می‌کند.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره‌ای بهبود یافته است که برای وظایف نیازمند تحلیل عمیق مناسب است.",
389
+ "deepseek-v3.2-exp.description": "مدل deepseek-v3.2-exp با معرفی توجه پراکنده، کارایی آموزش و استنتاج در متون بلند را بهبود می‌بخشد و نسبت به deepseek-v3.1 قیمت پایین‌تری دارد.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think یک مدل تفکر عمیق کامل است که توانایی استدلال زنجیره‌ای بلندتری دارد.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 نخستین مدل استدلال ترکیبی DeepSeek است که تفکر را با استفاده از ابزارها ترکیب می‌کند. این مدل با معماری کارآمد، مصرف محاسباتی را کاهش داده، با یادگیری تقویتی در مقیاس بزرگ توانایی را افزایش داده و با داده‌های مصنوعی گسترده، تعمیم‌پذیری را تقویت کرده است. عملکرد آن با GPT-5-High قابل مقایسه است، طول خروجی به‌طور چشمگیری کاهش یافته و زمان انتظار و هزینه محاسباتی کاربران را به‌طور قابل توجهی کاهش داده است.",
392
+ "deepseek-v3.description": "DeepSeek-V3 یک مدل MoE قدرتمند با ۶۷۱ میلیارد پارامتر کل و ۳۷ میلیارد پارامتر فعال در هر توکن است.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small نسخه چندوجهی سبک‌وزن برای استفاده در شرایط محدود منابع و هم‌زمانی بالا است.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 یک مدل چندوجهی برای درک تصویر-متن و پاسخ‌گویی دقیق بصری است.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 یک مدل MoE با ۶۸۵ میلیارد پارامتر است و جدیدترین نسخه از سری چت پرچم‌دار DeepSeek محسوب می‌شود.\n\nاین مدل بر پایه [DeepSeek V3](/deepseek/deepseek-chat-v3) ساخته شده و در انجام وظایف مختلف عملکرد قوی دارد.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 یک مدل MoE با ۶۸۵ میلیارد پارامتر است و جدیدترین نسخه از سری چت پرچم‌دار DeepSeek محسوب می‌شود.\n\nاین مدل بر پایه [DeepSeek V3](/deepseek/deepseek-chat-v3) ساخته شده و در انجام وظایف مختلف عملکرد قوی دارد.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 مدل استدلال ترکیبی با زمینه بلند از DeepSeek است که از حالت‌های تفکر/بدون تفکر و ادغام ابزارها پشتیبانی می‌کند.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 مدل استدلال ترکیبی با عملکرد بالا از DeepSeek برای وظایف پیچیده و ادغام ابزارها است.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 نسخه به‌روزرسانی‌شده‌ای است که بر در دسترس بودن آزاد و استدلال عمیق تمرکز دارد.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 با استفاده از داده‌های برچسب‌خورده حداقلی، توانایی استدلال را به‌طور چشمگیری بهبود می‌بخشد و پیش از پاسخ نهایی، زنجیره‌ای از افکار تولید می‌کند تا دقت را افزایش دهد.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B یک مدل تقطیرشده بر پایه Llama 3.3 70B است که با استفاده از خروجی‌های DeepSeek R1 تنظیم دقیق شده و عملکردی رقابتی با مدل‌های پیشرفته بزرگ دارد.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B یک مدل تقطیرشده بر پایه Llama-3.1-8B-Instruct است که با استفاده از خروجی‌های DeepSeek R1 آموزش دیده است.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B یک مدل تقطیرشده بر پایه Qwen 2.5 14B است که با استفاده از خروجی‌های DeepSeek R1 آموزش دیده است. این مدل در چندین معیار از OpenAI o1-mini پیشی گرفته و در میان مدل‌های متراکم نتایج پیشرفته‌ای ارائه می‌دهد. نکات برجسته:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nرتبه CodeForces: 1481\nتنظیم دقیق با خروجی‌های DeepSeek R1 عملکردی رقابتی با مدل‌های پیشرفته بزرگ ارائه می‌دهد.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B یک مدل تقطیرشده بر پایه Qwen 2.5 32B است که با استفاده از خروجی‌های DeepSeek R1 آموزش دیده است. این مدل در چندین معیار از OpenAI o1-mini پیشی گرفته و در میان مدل‌های متراکم نتایج پیشرفته‌ای ارائه می‌دهد. نکات برجسته:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nرتبه CodeForces: 1691\nتنظیم دقیق با خروجی‌های DeepSeek R1 عملکردی رقابتی با مدل‌های پیشرفته بزرگ ارائه می‌دهد.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 به نسخه DeepSeek-R1-0528 به‌روزرسانی شده است. با استفاده از محاسبات بیشتر و بهینه‌سازی‌های الگوریتمی پس از آموزش، عمق و توانایی استدلال را به‌طور قابل توجهی بهبود می‌بخشد. این مدل در معیارهای ریاضی، برنامه‌نویسی و منطق عمومی عملکرد قوی دارد و به سطح مدل‌هایی مانند o3 و Gemini 2.5 Pro نزدیک می‌شود.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 جدیدترین مدل متن‌باز منتشرشده توسط تیم DeepSeek است که عملکرد استدلالی بسیار قوی، به‌ویژه در ریاضی، کدنویسی و وظایف استدلالی دارد و با OpenAI o1 قابل مقایسه است.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 با استفاده از داده‌های برچسب‌خورده حداقلی، توانایی استدلال را به‌طور چشمگیری بهبود می‌بخشد و پیش از پاسخ نهایی، زنجیره‌ای از افکار تولید می‌کند تا دقت را افزایش دهد.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) مدل آزمایشی استدلالی DeepSeek است که برای وظایف استدلالی با پیچیدگی بالا مناسب است.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base نسخه بهبود یافته مدل DeepSeek V3 است.",
410
+ "deepseek/deepseek-v3.description": "یک مدل زبان بزرگ سریع و عمومی با توانایی استدلال تقویت‌شده.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 پیشرفتی بزرگ در سرعت استدلال نسبت به مدل‌های قبلی ارائه می‌دهد. این مدل در میان مدل‌های متن‌باز رتبه اول را دارد و با مدل‌های بسته پیشرفته رقابت می‌کند. DeepSeek-V3 از معماری Multi-Head Latent Attention (MLA) و DeepSeekMoE استفاده می‌کند که در DeepSeek-V2 به‌طور کامل اعتبارسنجی شده‌اند. همچنین از استراتژی کمکی بدون اتلاف برای تعادل بار و هدف آموزشی پیش‌بینی چندتوکنی برای عملکرد قوی‌تر بهره می‌برد.",
412
+ "deepseek_r1.description": "DeepSeek-R1 یک مدل استدلالی مبتنی بر یادگیری تقویتی است که مشکلات تکرار و خوانایی را برطرف می‌کند. پیش از یادگیری تقویتی، از داده‌های شروع سرد برای بهبود بیشتر عملکرد استدلال استفاده می‌کند. این مدل در وظایف ریاضی، کدنویسی و استدلال با OpenAI-o1 برابری می‌کند و با طراحی دقیق آموزش، نتایج کلی را بهبود می‌بخشد.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B از Llama-3.3-70B-Instruct تقطیر شده است. به‌عنوان بخشی از سری DeepSeek-R1، با استفاده از نمونه‌های تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده و در ریاضی، کدنویسی و استدلال عملکرد قوی دارد.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B از Qwen2.5-14B تقطیر شده و با استفاده از ۸۰۰ هزار نمونه منتخب تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده است و عملکرد استدلالی قوی ارائه می‌دهد.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B از Qwen2.5-32B تقطیر شده و با استفاده از ۸۰۰ هزار نمونه منتخب تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده است و در ریاضی، کدنویسی و استدلال عملکرد برجسته‌ای دارد.",
338
416
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
339
417
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
340
418
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "ایجاد برنامه: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "ایجاد کارها",
65
65
  "builtins.lobe-gtd.apiName.execTask": "اجرای وظیفه",
66
- "builtins.lobe-gtd.apiName.execTask.result": "اجرا: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "وظیفه ایجاد شد: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "در حال ایجاد وظیفه: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "اجرای وظایف",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "حذف کارها",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "به‌روزرسانی برنامه",
@@ -29,6 +29,7 @@
29
29
  "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
30
30
  "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
31
31
  "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
32
+ "lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
32
33
  "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
33
34
  "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
34
35
  "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} sous-tâches groupées",
296
296
  "task.metrics.stepsShort": "étapes",
297
297
  "task.metrics.toolCallsShort": "utilisations d'outil",
298
+ "task.status.cancelled": "Tâche annulée",
299
+ "task.status.failed": "Échec de la tâche",
298
300
  "task.status.initializing": "Initialisation de la tâche...",
299
301
  "task.subtask": "Sous-tâche",
300
302
  "thread.divider": "Sous-sujet",