@lobehub/lobehub 2.0.0-next.200 → 2.0.0-next.202
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/locales/ar/chat.json +2 -0
- package/locales/ar/models.json +64 -7
- package/locales/ar/plugin.json +2 -1
- package/locales/ar/providers.json +1 -0
- package/locales/bg-BG/chat.json +2 -0
- package/locales/bg-BG/models.json +49 -5
- package/locales/bg-BG/plugin.json +2 -1
- package/locales/bg-BG/providers.json +1 -0
- package/locales/de-DE/chat.json +2 -0
- package/locales/de-DE/models.json +36 -7
- package/locales/de-DE/plugin.json +2 -1
- package/locales/de-DE/providers.json +1 -0
- package/locales/en-US/chat.json +2 -0
- package/locales/en-US/models.json +10 -10
- package/locales/en-US/plugin.json +2 -1
- package/locales/en-US/providers.json +1 -0
- package/locales/es-ES/chat.json +2 -0
- package/locales/es-ES/models.json +106 -7
- package/locales/es-ES/plugin.json +2 -1
- package/locales/es-ES/providers.json +1 -0
- package/locales/fa-IR/chat.json +2 -0
- package/locales/fa-IR/models.json +83 -5
- package/locales/fa-IR/plugin.json +2 -1
- package/locales/fa-IR/providers.json +1 -0
- package/locales/fr-FR/chat.json +2 -0
- package/locales/fr-FR/models.json +38 -7
- package/locales/fr-FR/plugin.json +2 -1
- package/locales/fr-FR/providers.json +1 -0
- package/locales/it-IT/chat.json +2 -0
- package/locales/it-IT/models.json +40 -5
- package/locales/it-IT/plugin.json +2 -1
- package/locales/it-IT/providers.json +1 -0
- package/locales/ja-JP/chat.json +2 -0
- package/locales/ja-JP/models.json +84 -7
- package/locales/ja-JP/plugin.json +2 -1
- package/locales/ja-JP/providers.json +1 -0
- package/locales/ko-KR/chat.json +2 -0
- package/locales/ko-KR/models.json +65 -7
- package/locales/ko-KR/plugin.json +2 -1
- package/locales/ko-KR/providers.json +1 -0
- package/locales/nl-NL/chat.json +2 -0
- package/locales/nl-NL/models.json +62 -5
- package/locales/nl-NL/plugin.json +2 -1
- package/locales/nl-NL/providers.json +1 -0
- package/locales/pl-PL/chat.json +2 -0
- package/locales/pl-PL/models.json +85 -0
- package/locales/pl-PL/plugin.json +2 -1
- package/locales/pl-PL/providers.json +1 -0
- package/locales/pt-BR/chat.json +2 -0
- package/locales/pt-BR/models.json +37 -6
- package/locales/pt-BR/plugin.json +2 -1
- package/locales/pt-BR/providers.json +1 -0
- package/locales/ru-RU/chat.json +2 -0
- package/locales/ru-RU/models.json +36 -7
- package/locales/ru-RU/plugin.json +2 -1
- package/locales/ru-RU/providers.json +1 -0
- package/locales/tr-TR/chat.json +2 -0
- package/locales/tr-TR/models.json +28 -7
- package/locales/tr-TR/plugin.json +2 -1
- package/locales/tr-TR/providers.json +1 -0
- package/locales/vi-VN/chat.json +2 -0
- package/locales/vi-VN/models.json +62 -5
- package/locales/vi-VN/plugin.json +2 -1
- package/locales/vi-VN/providers.json +1 -0
- package/locales/zh-CN/chat.json +2 -0
- package/locales/zh-CN/models.json +87 -6
- package/locales/zh-CN/plugin.json +2 -1
- package/locales/zh-CN/providers.json +1 -0
- package/locales/zh-TW/chat.json +2 -0
- package/locales/zh-TW/models.json +71 -7
- package/locales/zh-TW/plugin.json +2 -1
- package/locales/zh-TW/providers.json +1 -0
- package/package.json +2 -2
- package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
- package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
- package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
- package/packages/types/src/aiChat.ts +0 -1
- package/packages/types/src/message/ui/chat.ts +1 -1
- package/src/app/(backend)/middleware/auth/index.ts +16 -2
- package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
- package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
- package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
- package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
- package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
- package/src/app/[variants]/(desktop)/desktop-onboarding/index.tsx +8 -2
- package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
- package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
- package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
- package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
- package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
- package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
- package/src/features/User/DataStatistics.tsx +4 -4
- package/src/hooks/useQueryParam.ts +0 -2
- package/src/libs/trpc/async/asyncAuth.ts +0 -2
- package/src/libs/trpc/async/context.ts +3 -11
- package/src/locales/default/chat.ts +2 -0
- package/src/locales/default/plugin.ts +2 -1
- package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
- package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
- package/src/server/modules/AgentRuntime/factory.ts +39 -20
- package/src/server/modules/ModelRuntime/index.ts +138 -1
- package/src/server/routers/async/__tests__/caller.test.ts +22 -27
- package/src/server/routers/async/caller.ts +4 -6
- package/src/server/routers/async/file.ts +10 -5
- package/src/server/routers/async/image.ts +5 -4
- package/src/server/routers/async/ragEval.ts +7 -5
- package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
- package/src/server/routers/lambda/aiChat.ts +5 -21
- package/src/server/routers/lambda/chunk.ts +9 -28
- package/src/server/routers/lambda/image.ts +1 -7
- package/src/server/routers/lambda/ragEval.ts +1 -1
- package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
- package/src/server/routers/lambda/userMemories/search.ts +7 -7
- package/src/server/routers/lambda/userMemories/shared.ts +8 -10
- package/src/server/routers/lambda/userMemories/tools.ts +140 -118
- package/src/server/routers/lambda/userMemories.test.ts +3 -7
- package/src/server/routers/lambda/userMemories.ts +44 -29
- package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
- package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
- package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
- package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
- package/src/server/services/chunk/index.ts +6 -5
- package/src/server/services/toolExecution/types.ts +1 -2
- package/src/services/__tests__/_url.test.ts +0 -1
- package/src/services/_url.ts +0 -3
- package/src/services/aiChat.ts +5 -12
- package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
- package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic’s most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic’s most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
|
|
379
379
|
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
|
|
381
|
-
"deepseek-reasoner.description": "DeepSeek V3.2
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
|
|
@@ -471,7 +471,7 @@
|
|
|
471
471
|
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
|
|
472
472
|
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
|
|
473
473
|
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
|
|
474
|
-
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
|
|
475
475
|
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
|
|
476
476
|
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
|
|
477
477
|
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
|
|
@@ -479,8 +479,8 @@
|
|
|
479
479
|
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
|
|
480
480
|
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
|
|
481
481
|
"fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
|
|
482
|
-
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team
|
|
483
|
-
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
|
|
483
|
+
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
|
|
484
484
|
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
|
|
485
485
|
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
|
|
486
486
|
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Create plan: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Create todos",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Execute task",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Task created: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Creating task: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Execute tasks",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Delete todos",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Update plan",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
|
|
30
30
|
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
|
|
31
31
|
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
|
|
32
33
|
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
|
|
34
35
|
"modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.",
|
package/locales/es-ES/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} subtareas en lote",
|
|
296
296
|
"task.metrics.stepsShort": "pasos",
|
|
297
297
|
"task.metrics.toolCallsShort": "usos de herramientas",
|
|
298
|
+
"task.status.cancelled": "Tarea cancelada",
|
|
299
|
+
"task.status.failed": "Tarea fallida",
|
|
298
300
|
"task.status.initializing": "Inicializando tarea...",
|
|
299
301
|
"task.subtask": "Subtarea",
|
|
300
302
|
"thread.divider": "Subtema",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en numerosos indicadores.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, capaz de ofrecer respuestas casi instantáneas o razonamientos prolongados con control detallado.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas,
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamientos paso a paso con control detallado para usuarios de API.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
|
|
@@ -355,7 +355,7 @@
|
|
|
355
355
|
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento en tareas de análisis profundo.",
|
|
356
356
|
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento en tareas de análisis profundo.",
|
|
357
357
|
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
|
|
358
|
-
"deepseek-chat.description": "
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles de GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
|
|
359
359
|
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para programación entrenado con 2T tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
|
|
360
360
|
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que rinde fuertemente en tareas de programación, comparable a GPT-4 Turbo.",
|
|
361
361
|
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que rinde fuertemente en tareas de programación, comparable a GPT-4 Turbo.",
|
|
@@ -378,7 +378,7 @@
|
|
|
378
378
|
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
|
|
379
379
|
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
|
|
380
380
|
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y rinde de forma comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
|
|
381
|
-
"deepseek-reasoner.description": "
|
|
381
|
+
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados destacados en competencias y razonamiento comparable a Gemini-3.0-Pro.",
|
|
382
382
|
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
|
|
383
383
|
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
|
|
384
384
|
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671B parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
|
|
@@ -413,6 +413,105 @@
|
|
|
413
413
|
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B es una versión destilada de Llama-3.3-70B-Instruct. Como parte de la serie DeepSeek-R1, está ajustado con muestras generadas por DeepSeek-R1 y ofrece un rendimiento sólido en matemáticas, programación y razonamiento.",
|
|
414
414
|
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B es una versión destilada de Qwen2.5-14B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, ofreciendo un razonamiento sólido.",
|
|
415
415
|
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B es una versión destilada de Qwen2.5-32B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, destacando en matemáticas, programación y razonamiento.",
|
|
416
|
+
"devstral-2:123b.description": "Devstral 2 123B sobresale en el uso de herramientas para explorar bases de código, editar múltiples archivos y asistir a agentes de ingeniería de software.",
|
|
417
|
+
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite es un nuevo modelo ligero con respuesta ultrarrápida, ofreciendo calidad de primer nivel y baja latencia.",
|
|
418
|
+
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k es una mejora integral de Doubao-1.5-Pro, con un aumento del 10% en el rendimiento general. Soporta una ventana de contexto de 256k y hasta 12k tokens de salida, ofreciendo mayor rendimiento, mayor contexto y gran valor para casos de uso amplios.",
|
|
419
|
+
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro es un modelo insignia de nueva generación con mejoras en todas las áreas, destacando en conocimiento, programación y razonamiento.",
|
|
420
|
+
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo (la versión m incluye razonamiento multimodal nativo) que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Soporta una ventana de contexto de 128k y salida de hasta 16k tokens.",
|
|
421
|
+
"doubao-1.5-thinking-pro.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Soporta una ventana de contexto de 128k y salida de hasta 16k tokens.",
|
|
422
|
+
"doubao-1.5-thinking-vision-pro.description": "Un nuevo modelo visual de razonamiento profundo con mayor comprensión y razonamiento multimodal, logrando resultados SOTA en 37 de 59 benchmarks públicos.",
|
|
423
|
+
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS es un modelo de agente enfocado en interfaces gráficas que interactúa fluidamente con interfaces mediante percepción, razonamiento y acción similares a los humanos.",
|
|
424
|
+
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones. Soporta una ventana de contexto de 128k y hasta 16k tokens de salida.",
|
|
425
|
+
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
|
|
426
|
+
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
|
|
427
|
+
"doubao-lite-128k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 128k.",
|
|
428
|
+
"doubao-lite-32k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 32k.",
|
|
429
|
+
"doubao-lite-4k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 4k.",
|
|
430
|
+
"doubao-pro-256k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con resultados sólidos en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Soporta razonamiento y ajuste fino con una ventana de contexto de 256k.",
|
|
431
|
+
"doubao-pro-32k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con resultados sólidos en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Soporta razonamiento y ajuste fino con una ventana de contexto de 32k.",
|
|
432
|
+
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash es un modelo multimodal de razonamiento profundo ultrarrápido con TPOT de hasta 10ms. Soporta texto e imagen, supera al modelo lite anterior en comprensión textual y se equipara a modelos pro en visión. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
433
|
+
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de razonamiento profundo con esfuerzo de razonamiento ajustable (Mínimo, Bajo, Medio, Alto), ofreciendo mejor valor y una opción sólida para tareas comunes, con una ventana de contexto de hasta 256k.",
|
|
434
|
+
"doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 refuerza significativamente el razonamiento, mejorando aún más las habilidades clave en programación, matemáticas y lógica respecto a Doubao-1.5-thinking-pro, además de añadir comprensión visual. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
435
|
+
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision es un modelo visual de razonamiento profundo que ofrece mayor comprensión y razonamiento multimodal para educación, revisión de imágenes, inspección/seguridad y preguntas y respuestas con búsqueda por IA. Soporta una ventana de contexto de 256k y hasta 64k tokens de salida.",
|
|
436
|
+
"doubao-seed-1.6.description": "Doubao-Seed-1.6 es un nuevo modelo multimodal de razonamiento profundo con modos automático, con razonamiento y sin razonamiento. En modo sin razonamiento, supera significativamente a Doubao-1.5-pro/250115. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
|
|
437
|
+
"doubao-seed-1.8.description": "Doubao-Seed-1.8 ofrece una comprensión multimodal y capacidades de agente aún más potentes, admitiendo entrada de texto/imagen/video y almacenamiento en caché de contexto, con un rendimiento superior en tareas complejas.",
|
|
438
|
+
"doubao-seed-code.description": "Doubao-Seed-Code está profundamente optimizado para programación con agentes, admite entradas multimodales (texto/imagen/video) y una ventana de contexto de 256k, es compatible con la API de Anthropic y se adapta a flujos de trabajo de programación, comprensión visual y agentes.",
|
|
439
|
+
"doubao-seededit-3-0-i2i-250628.description": "El modelo de imagen Doubao de ByteDance Seed admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Soporta edición de imágenes guiada por texto, con tamaños de salida entre 512 y 1536 en el lado largo.",
|
|
440
|
+
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
|
|
441
|
+
"doubao-seedream-4-0-250828.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
|
|
442
|
+
"doubao-vision-lite-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
|
|
443
|
+
"doubao-vision-pro-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
|
|
444
|
+
"emohaa.description": "Emohaa es un modelo de salud mental con capacidades profesionales de asesoramiento para ayudar a los usuarios a comprender sus problemas emocionales.",
|
|
445
|
+
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B es un modelo ligero de código abierto para implementación local y personalizada.",
|
|
446
|
+
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B es un modelo de código abierto con gran número de parámetros y mejor capacidad de comprensión y generación.",
|
|
447
|
+
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B es el modelo MoE ultra grande de Baidu ERNIE con excelente razonamiento.",
|
|
448
|
+
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview es un modelo de vista previa con contexto de 8K para evaluar ERNIE 4.5.",
|
|
449
|
+
"ernie-4.5-turbo-128k-preview.description": "Vista previa de ERNIE 4.5 Turbo 128K con capacidades de nivel de lanzamiento, adecuado para integración y pruebas canarias.",
|
|
450
|
+
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K es un modelo general de alto rendimiento con aumento de búsqueda y llamadas a herramientas para preguntas y respuestas, programación y escenarios de agentes.",
|
|
451
|
+
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K es una versión de contexto medio para preguntas y respuestas, recuperación de bases de conocimiento y diálogo de múltiples turnos.",
|
|
452
|
+
"ernie-4.5-turbo-latest.description": "Última versión de ERNIE 4.5 Turbo con rendimiento general optimizado, ideal como modelo principal de producción.",
|
|
453
|
+
"ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview es una vista previa multimodal de 32K para evaluar la capacidad de visión de contexto largo.",
|
|
454
|
+
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K es una versión multimodal de contexto medio-largo para comprensión combinada de documentos largos e imágenes.",
|
|
455
|
+
"ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest es la versión multimodal más reciente con mejor comprensión y razonamiento imagen-texto.",
|
|
456
|
+
"ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview es un modelo multimodal de vista previa para comprensión y generación imagen-texto, adecuado para preguntas visuales y comprensión de contenido.",
|
|
457
|
+
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL es un modelo multimodal maduro para comprensión y reconocimiento imagen-texto en producción.",
|
|
458
|
+
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B es un modelo multimodal de código abierto para comprensión y razonamiento imagen-texto.",
|
|
459
|
+
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking es un modelo insignia nativo de modalidad completa con modelado unificado de texto, imagen, audio y video. Ofrece mejoras significativas en capacidades para preguntas complejas, creación y escenarios de agentes.",
|
|
460
|
+
"ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview es un modelo insignia nativo de modalidad completa con modelado unificado de texto, imagen, audio y video. Proporciona mejoras amplias en capacidades para preguntas complejas, creación y escenarios de agentes.",
|
|
461
|
+
"ernie-char-8k.description": "ERNIE Character 8K es un modelo de diálogo con personalidad diseñado para la construcción de personajes de propiedad intelectual y conversaciones de compañía a largo plazo.",
|
|
462
|
+
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview es un modelo preliminar para la creación de personajes y tramas, destinado a evaluación y pruebas de funcionalidades.",
|
|
463
|
+
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K es un modelo de personalidad para novelas y creación de tramas, ideal para la generación de historias de formato largo.",
|
|
464
|
+
"ernie-irag-edit.description": "ERNIE iRAG Edit es un modelo de edición de imágenes que permite borrar, repintar y generar variantes.",
|
|
465
|
+
"ernie-lite-8k.description": "ERNIE Lite 8K es un modelo general ligero para preguntas frecuentes y generación de contenido con sensibilidad al costo.",
|
|
466
|
+
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.",
|
|
467
|
+
"ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas de formato largo y tramas de propiedad intelectual con narrativas de múltiples personajes.",
|
|
468
|
+
"ernie-speed-128k.description": "ERNIE Speed 128K es un modelo sin tarifas de entrada/salida para comprensión de textos largos y pruebas a gran escala.",
|
|
469
|
+
"ernie-speed-8k.description": "ERNIE Speed 8K es un modelo gratuito y rápido para conversaciones diarias y tareas ligeras de texto.",
|
|
470
|
+
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y alta concurrencia para servicios en línea a gran escala y aplicaciones empresariales.",
|
|
471
|
+
"ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
|
|
472
|
+
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y conversaciones de múltiples turnos.",
|
|
473
|
+
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
|
|
474
|
+
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes de alta calidad y altamente controlable a partir de indicaciones.",
|
|
475
|
+
"fal-ai/flux-kontext/dev.description": "FLUX.1 es un modelo centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
|
|
476
|
+
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escena.",
|
|
477
|
+
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
|
|
478
|
+
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] es un modelo de generación de imágenes con 12 mil millones de parámetros, diseñado para producir resultados rápidos y de alta calidad.",
|
|
479
|
+
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
|
|
480
|
+
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
|
|
481
|
+
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite la generación y edición de imágenes mediante conversación.",
|
|
482
|
+
"fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen, compatible con ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
|
|
483
|
+
"fal-ai/qwen-image.description": "Potente modelo de generación de imágenes del equipo Qwen con excelente renderizado de texto en chino y estilos visuales diversos.",
|
|
484
|
+
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se publica bajo Apache-2.0 para uso personal, de investigación y comercial.",
|
|
485
|
+
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen cercana a nivel profesional y seguimiento de instrucciones, funcionando de manera más eficiente que modelos estándar del mismo tamaño.",
|
|
486
|
+
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
|
487
|
+
"flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
|
|
488
|
+
"flux-merged.description": "FLUX.1-merged combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
|
|
489
|
+
"flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
|
|
490
|
+
"flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
|
|
491
|
+
"flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
|
|
492
|
+
"flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
|
|
493
|
+
"flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
|
|
494
|
+
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) ofrece un rendimiento estable y ajustable para tareas complejas.",
|
|
495
|
+
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) proporciona un sólido soporte multimodal para tareas complejas.",
|
|
496
|
+
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google diseñado para escalar tareas de forma amplia.",
|
|
497
|
+
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
|
|
498
|
+
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
|
|
499
|
+
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 es el modelo experimental más reciente con mejoras notables en casos de uso de texto y multimodales.",
|
|
500
|
+
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
|
|
501
|
+
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
|
|
502
|
+
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 ofrece procesamiento multimodal optimizado para tareas complejas.",
|
|
503
|
+
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash es el modelo de IA multimodal más reciente de Google con procesamiento rápido, compatible con entradas de texto, imagen y video para escalar tareas de manera eficiente.",
|
|
504
|
+
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 es una solución de IA multimodal escalable para tareas complejas.",
|
|
505
|
+
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 es el modelo más reciente listo para producción con salidas de mayor calidad, especialmente en matemáticas, contexto largo y tareas visuales.",
|
|
506
|
+
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 ofrece un procesamiento multimodal sólido con mayor flexibilidad para el desarrollo de aplicaciones.",
|
|
507
|
+
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 aplica las últimas optimizaciones para un procesamiento multimodal más eficiente.",
|
|
508
|
+
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro admite hasta 2 millones de tokens, siendo un modelo multimodal de tamaño medio ideal para tareas complejas.",
|
|
509
|
+
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece funciones de próxima generación, incluyendo velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
|
|
510
|
+
"gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash con soporte para generación de imágenes.",
|
|
511
|
+
"gemini-2.0-flash-exp.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
|
|
512
|
+
"gemini-2.0-flash-lite-001.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
|
|
513
|
+
"gemini-2.0-flash-lite.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
|
|
514
|
+
"gemini-2.0-flash.description": "Gemini 2.0 Flash ofrece funciones de próxima generación, incluyendo velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
|
|
416
515
|
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
|
|
417
516
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
|
|
418
517
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "Plan creado: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "Crear tareas",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "Ejecutar tarea",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "Tarea creada: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "Creando tarea: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "Ejecutar tareas",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "Eliminar tareas",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "Actualizar plan",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
|
|
30
30
|
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
|
|
31
31
|
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
|
|
32
33
|
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
|
|
33
34
|
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
|
|
34
35
|
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",
|
package/locales/fa-IR/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} زیرکار گروهی",
|
|
296
296
|
"task.metrics.stepsShort": "گام",
|
|
297
297
|
"task.metrics.toolCallsShort": "استفاده از ابزار",
|
|
298
|
+
"task.status.cancelled": "وظیفه لغو شد",
|
|
299
|
+
"task.status.failed": "وظیفه ناموفق بود",
|
|
298
300
|
"task.status.initializing": "در حال آغاز وظیفه...",
|
|
299
301
|
"task.subtask": "زیرکار",
|
|
300
302
|
"thread.divider": "زیرموضوع",
|
|
@@ -271,20 +271,20 @@
|
|
|
271
271
|
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که بهصورت بلادرنگ بهروزرسانی میشود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب میکند.",
|
|
272
272
|
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
273
273
|
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمانها ارائه میدهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
|
|
274
|
-
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic
|
|
274
|
+
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریعترین مدل نسل جدید Anthropic است که مهارتهای متعددی را بهبود داده و در بسیاری از معیارها از مدل پرچمدار قبلی Claude 3 Opus پیشی گرفته است.",
|
|
275
275
|
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخهای سریع برای وظایف سبک ارائه میدهد.",
|
|
276
|
-
"claude-3-7-sonnet-20250219.description": "Claude 3.7
|
|
276
|
+
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخهای تقریباً فوری یا تفکر گسترشیافته را با کنترل دقیق ارائه میدهد.",
|
|
277
277
|
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
278
278
|
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریعترین و فشردهترین مدل Anthropic است که برای پاسخهای تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
|
|
279
279
|
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
280
280
|
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار میکند و با هزینه کمتر، بهرهوری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه میدهد.",
|
|
281
|
-
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی
|
|
281
|
+
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی تفکر عمیق ارائه میشود.",
|
|
282
282
|
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که میتواند فرآیند استدلال خود را آشکار کند.",
|
|
283
283
|
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
284
|
-
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است
|
|
284
|
+
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
|
|
285
285
|
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچمدار Anthropic است که هوش برجسته را با عملکرد مقیاسپذیر ترکیب میکند و برای وظایف پیچیدهای که نیاز به پاسخهای باکیفیت و استدلال دارند، ایدهآل است.",
|
|
286
286
|
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking میتواند پاسخهای تقریباً فوری یا تفکر گامبهگام طولانی با فرآیند قابل مشاهده تولید کند.",
|
|
287
|
-
"claude-sonnet-4-20250514.description": "Claude Sonnet 4
|
|
287
|
+
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخهای تقریباً فوری یا تفکر گامبهگام گسترشیافته را با کنترل دقیق برای کاربران API ارائه میدهد.",
|
|
288
288
|
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
|
|
289
289
|
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامهنویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی میکند تا بهرهوری توسعهدهندگان را افزایش دهد.",
|
|
290
290
|
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی میکند و طیف گستردهای از سناریوهای توسعه نرمافزار را پوشش میدهد. این مدل یکی از بهترین مدلهای کد زیر ۱۰ میلیارد پارامتر است.",
|
|
@@ -335,6 +335,84 @@
|
|
|
335
335
|
"computer-use-preview.description": "computer-use-preview یک مدل تخصصی برای ابزار «استفاده از رایانه» است که برای درک و اجرای وظایف مرتبط با رایانه آموزش دیده است.",
|
|
336
336
|
"dall-e-2.description": "مدل نسل دوم DALL·E با تولید تصاویر واقعگرایانهتر، دقیقتر و وضوحی ۴ برابر بیشتر از نسل اول.",
|
|
337
337
|
"dall-e-3.description": "جدیدترین مدل DALL·E که در نوامبر ۲۰۲۳ منتشر شد و از تولید تصاویر واقعگرایانهتر، دقیقتر و با جزئیات قویتر پشتیبانی میکند.",
|
|
338
|
+
"databricks/dbrx-instruct.description": "DBRX Instruct مدیریت دستورالعملها را با قابلیت اطمینان بالا در صنایع مختلف ارائه میدهد.",
|
|
339
|
+
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR یک مدل بینایی-زبانی از DeepSeek AI است که بر OCR و «فشردهسازی نوری متنی» تمرکز دارد. این مدل با فشردهسازی اطلاعات متنی از تصاویر، اسناد را بهطور کارآمد پردازش کرده و به متن ساختاریافته (مانند Markdown) تبدیل میکند. این مدل در شناسایی دقیق متن در تصاویر عملکرد بالایی دارد و برای دیجیتالیسازی اسناد، استخراج متن و پردازش ساختاریافته مناسب است.",
|
|
340
|
+
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B زنجیره تفکر را از DeepSeek-R1-0528 به Qwen3 8B Base منتقل میکند. این مدل در میان مدلهای متنباز به SOTA رسیده، در AIME 2024 نسبت به Qwen3 8B ده درصد بهتر عمل کرده و عملکردی همسطح با Qwen3-235B-thinking دارد. در استدلال ریاضی، برنامهنویسی و منطق عمومی عملکرد درخشانی دارد. معماری آن مشابه Qwen3-8B است اما از توکنایزر DeepSeek-R1-0528 استفاده میکند.",
|
|
341
|
+
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 با استفاده از منابع محاسباتی بیشتر و بهینهسازیهای الگوریتمی پس از آموزش، توانایی استدلال را تعمیق میبخشد. این مدل در معیارهای ریاضی، برنامهنویسی و منطق عمومی عملکرد قوی دارد و به سطح مدلهای پیشرو مانند o3 و Gemini 2.5 Pro نزدیک میشود.",
|
|
342
|
+
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "مدلهای تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و دادههای شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفهای جدیدی را در مدلهای متنباز ثبت میکنند.",
|
|
343
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "مدلهای تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و دادههای شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفهای جدیدی را در مدلهای متنباز ثبت میکنند.",
|
|
344
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "مدلهای تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و دادههای شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفهای جدیدی را در مدلهای متنباز ثبت میکنند.",
|
|
345
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B از Qwen2.5-32B تقطیر شده و با ۸۰۰ هزار نمونه انتخابشده از DeepSeek-R1 آموزش دیده است. این مدل در ریاضی، برنامهنویسی و استدلال عملکرد درخشانی دارد و نتایج قویای در AIME 2024، MATH-500 (با دقت ۹۴.۳٪) و GPQA Diamond کسب کرده است.",
|
|
346
|
+
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B از Qwen2.5-Math-7B تقطیر شده و با ۸۰۰ هزار نمونه انتخابشده از DeepSeek-R1 آموزش دیده است. این مدل عملکرد قویای دارد: ۹۲.۸٪ در MATH-500، ۵۵.۵٪ در AIME 2024 و امتیاز ۱۱۸۹ در CodeForces برای یک مدل ۷B.",
|
|
347
|
+
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 با استفاده از دادههای شروع سرد پیش از یادگیری تقویتی، توانایی استدلال را بهبود داده و معیارهای چندوظیفهای جدیدی را در مدلهای متنباز ثبت کرده و از OpenAI-o1-mini پیشی گرفته است.",
|
|
348
|
+
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 نسخه ارتقاءیافته DeepSeek-V2-Chat و DeepSeek-Coder-V2-Instruct است که تواناییهای عمومی و برنامهنویسی را ترکیب میکند. این مدل در نوشتن و پیروی از دستورالعملها بهبود یافته و در معیارهایی مانند AlpacaEval 2.0، ArenaHard، AlignBench و MT-Bench پیشرفت چشمگیری نشان داده است.",
|
|
349
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus نسخه بهروزشده مدل V3.1 است که بهعنوان یک عامل ترکیبی LLM طراحی شده است. این مدل مشکلات گزارششده کاربران را رفع کرده، ثبات و سازگاری زبانی را بهبود بخشیده و نویسههای غیرعادی و ترکیب چینی/انگلیسی را کاهش داده است. این مدل حالتهای تفکر و غیرتفکر را با قالبهای چت ترکیب کرده و امکان جابجایی انعطافپذیر را فراهم میکند. همچنین عملکرد عامل کدنویسی و جستجو را برای استفاده مطمئنتر از ابزارها و انجام وظایف چندمرحلهای بهبود داده است.",
|
|
350
|
+
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 از معماری استدلال ترکیبی استفاده میکند و از هر دو حالت تفکر و غیرتفکر پشتیبانی میکند.",
|
|
351
|
+
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که به معماری بعدی پل میزند. این مدل با افزودن DeepSeek Sparse Attention (DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینههای طولانی را بهبود میبخشد و برای استفاده از ابزارها، درک اسناد طولانی و استدلال چندمرحلهای بهینه شده است. این مدل برای بررسی بهرهوری بالاتر در استدلال با بودجه متنی بزرگ ایدهآل است.",
|
|
352
|
+
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای آموزش و استنتاج کارآمد استفاده میکند. این مدل با استفاده از ۱۴.۸ تریلیون توکن با کیفیت بالا و آموزش با SFT و RL، از سایر مدلهای متنباز پیشی گرفته و به مدلهای بسته پیشرو نزدیک شده است.",
|
|
353
|
+
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.",
|
|
354
|
+
"deepseek-ai/deepseek-r1.description": "یک مدل LLM کارآمد و پیشرفته با توانایی بالا در استدلال، ریاضی و برنامهنویسی.",
|
|
355
|
+
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
356
|
+
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
|
|
357
|
+
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعالسازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قویای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایهگذاری بصری عملکرد درخشانی دارد.",
|
|
358
|
+
"deepseek-chat.description": "DeepSeek V3.2 تعادل بین استدلال و طول خروجی را برای پرسشوپاسخ روزمره و وظایف عامل حفظ میکند. در معیارهای عمومی به سطح GPT-5 میرسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام کرده و در ارزیابیهای عامل متنباز پیشتاز است.",
|
|
359
|
+
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامهنویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم میکند.",
|
|
360
|
+
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
361
|
+
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متنباز است که در وظایف برنامهنویسی عملکردی همسطح با GPT-4 Turbo دارد.",
|
|
362
|
+
"deepseek-ocr.description": "DeepSeek-OCR یک مدل بینایی-زبانی از DeepSeek AI است که بر OCR و «فشردهسازی نوری متنی» تمرکز دارد. این مدل با فشردهسازی اطلاعات متنی از تصاویر، اسناد را بهطور کارآمد پردازش کرده و به فرمتهای متنی ساختاریافته مانند Markdown تبدیل میکند. این مدل در شناسایی دقیق متن در تصاویر عملکرد بالایی دارد و برای دیجیتالیسازی اسناد، استخراج متن و پردازش ساختاریافته مناسب است.",
|
|
363
|
+
"deepseek-r1-0528.description": "مدل کامل ۶۸۵ میلیارد پارامتری منتشرشده در ۲۸ مه ۲۰۲۵. DeepSeek-R1 از یادگیری تقویتی در مقیاس بزرگ در مرحله پسآموزش استفاده میکند که توانایی استدلال را با حداقل دادههای برچسبخورده بهطور چشمگیری بهبود میبخشد و در ریاضی، کدنویسی و استدلال زبان طبیعی عملکرد قویای دارد.",
|
|
364
|
+
"deepseek-r1-250528.description": "DeepSeek R1 250528 نسخه کامل مدل استدلال DeepSeek-R1 برای وظایف سخت ریاضی و منطقی است.",
|
|
365
|
+
"deepseek-r1-70b-fast-online.description": "نسخه سریع DeepSeek R1 70B با جستجوی وب در زمان واقعی که پاسخهای سریعتری را با حفظ عملکرد ارائه میدهد.",
|
|
366
|
+
"deepseek-r1-70b-online.description": "نسخه استاندارد DeepSeek R1 70B با جستجوی وب در زمان واقعی، مناسب برای چت و وظایف متنی بهروز.",
|
|
367
|
+
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B ترکیبی از استدلال R1 با اکوسیستم Llama است.",
|
|
368
|
+
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B از Llama-3.1-8B با استفاده از خروجیهای DeepSeek R1 تقطیر شده است.",
|
|
369
|
+
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama از DeepSeek-R1 بر پایه Llama تقطیر شده است.",
|
|
370
|
+
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B یک مدل تقطیر R1 بر پایه Qianfan-70B با ارزش بالا است.",
|
|
371
|
+
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B یک مدل تقطیر R1 بر پایه Qianfan-8B برای برنامههای کوچک و متوسط است.",
|
|
372
|
+
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B یک مدل تقطیر R1 بر پایه Llama-70B است.",
|
|
373
|
+
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B یک مدل تقطیر فوقسبک برای محیطهای بسیار کممنبع است.",
|
|
374
|
+
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B یک مدل تقطیر میانرده برای استقرار در سناریوهای چندگانه است.",
|
|
375
|
+
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B یک مدل تقطیر R1 بر پایه Qwen-32B است که بین عملکرد و هزینه تعادل برقرار میکند.",
|
|
376
|
+
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B یک مدل تقطیر سبک برای محیطهای لبهای و سازمانی خصوصی است.",
|
|
377
|
+
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen از DeepSeek-R1 بر پایه Qwen تقطیر شده است.",
|
|
378
|
+
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخدهی سریعتر ترکیب میکند.",
|
|
379
|
+
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قویتری را ارائه میدهد.",
|
|
380
|
+
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از دادههای شروع سرد استفاده میکند و در وظایف ریاضی، کدنویسی و استدلال عملکردی همسطح با OpenAI-o1 دارد.",
|
|
381
|
+
"deepseek-reasoner.description": "مدل DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از ارائه پاسخ، زنجیرهای از افکار تولید میکند تا دقت را افزایش دهد. این مدل نتایج رقابتی بالایی دارد و توانایی استدلال آن با Gemini-3.0-Pro قابل مقایسه است.",
|
|
382
|
+
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرونبهصرفه را امکانپذیر میسازد.",
|
|
383
|
+
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
|
|
384
|
+
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامهنویسی، تواناییهای فنی، درک زمینه و پردازش متون بلند عملکرد برجستهای دارد.",
|
|
385
|
+
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus یک مدل زبان بزرگ بهینهشده برای دستگاههای ترمینال است که توسط DeepSeek توسعه یافته است.",
|
|
386
|
+
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 نسخه تفکر عمیق مدل Terminus است که برای استدلال با عملکرد بالا طراحی شده است.",
|
|
387
|
+
"deepseek-v3.1.description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از هر دو حالت تفکر و بدون تفکر پشتیبانی میکند و بهرهوری تفکر بالاتری نسبت به DeepSeek-R1-0528 دارد. بهینهسازیهای پس از آموزش، استفاده از ابزارها و عملکرد وظایف نماینده را بهطور قابل توجهی بهبود میبخشد. این مدل از پنجره متنی ۱۲۸ هزار توکن و خروجی تا ۶۴ هزار توکن پشتیبانی میکند.",
|
|
388
|
+
"deepseek-v3.1:671b.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیرهای بهبود یافته است که برای وظایف نیازمند تحلیل عمیق مناسب است.",
|
|
389
|
+
"deepseek-v3.2-exp.description": "مدل deepseek-v3.2-exp با معرفی توجه پراکنده، کارایی آموزش و استنتاج در متون بلند را بهبود میبخشد و نسبت به deepseek-v3.1 قیمت پایینتری دارد.",
|
|
390
|
+
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think یک مدل تفکر عمیق کامل است که توانایی استدلال زنجیرهای بلندتری دارد.",
|
|
391
|
+
"deepseek-v3.2.description": "DeepSeek-V3.2 نخستین مدل استدلال ترکیبی DeepSeek است که تفکر را با استفاده از ابزارها ترکیب میکند. این مدل با معماری کارآمد، مصرف محاسباتی را کاهش داده، با یادگیری تقویتی در مقیاس بزرگ توانایی را افزایش داده و با دادههای مصنوعی گسترده، تعمیمپذیری را تقویت کرده است. عملکرد آن با GPT-5-High قابل مقایسه است، طول خروجی بهطور چشمگیری کاهش یافته و زمان انتظار و هزینه محاسباتی کاربران را بهطور قابل توجهی کاهش داده است.",
|
|
392
|
+
"deepseek-v3.description": "DeepSeek-V3 یک مدل MoE قدرتمند با ۶۷۱ میلیارد پارامتر کل و ۳۷ میلیارد پارامتر فعال در هر توکن است.",
|
|
393
|
+
"deepseek-vl2-small.description": "DeepSeek VL2 Small نسخه چندوجهی سبکوزن برای استفاده در شرایط محدود منابع و همزمانی بالا است.",
|
|
394
|
+
"deepseek-vl2.description": "DeepSeek VL2 یک مدل چندوجهی برای درک تصویر-متن و پاسخگویی دقیق بصری است.",
|
|
395
|
+
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 یک مدل MoE با ۶۸۵ میلیارد پارامتر است و جدیدترین نسخه از سری چت پرچمدار DeepSeek محسوب میشود.\n\nاین مدل بر پایه [DeepSeek V3](/deepseek/deepseek-chat-v3) ساخته شده و در انجام وظایف مختلف عملکرد قوی دارد.",
|
|
396
|
+
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 یک مدل MoE با ۶۸۵ میلیارد پارامتر است و جدیدترین نسخه از سری چت پرچمدار DeepSeek محسوب میشود.\n\nاین مدل بر پایه [DeepSeek V3](/deepseek/deepseek-chat-v3) ساخته شده و در انجام وظایف مختلف عملکرد قوی دارد.",
|
|
397
|
+
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 مدل استدلال ترکیبی با زمینه بلند از DeepSeek است که از حالتهای تفکر/بدون تفکر و ادغام ابزارها پشتیبانی میکند.",
|
|
398
|
+
"deepseek/deepseek-chat.description": "DeepSeek-V3 مدل استدلال ترکیبی با عملکرد بالا از DeepSeek برای وظایف پیچیده و ادغام ابزارها است.",
|
|
399
|
+
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 نسخه بهروزرسانیشدهای است که بر در دسترس بودن آزاد و استدلال عمیق تمرکز دارد.",
|
|
400
|
+
"deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 با استفاده از دادههای برچسبخورده حداقلی، توانایی استدلال را بهطور چشمگیری بهبود میبخشد و پیش از پاسخ نهایی، زنجیرهای از افکار تولید میکند تا دقت را افزایش دهد.",
|
|
401
|
+
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B یک مدل تقطیرشده بر پایه Llama 3.3 70B است که با استفاده از خروجیهای DeepSeek R1 تنظیم دقیق شده و عملکردی رقابتی با مدلهای پیشرفته بزرگ دارد.",
|
|
402
|
+
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B یک مدل تقطیرشده بر پایه Llama-3.1-8B-Instruct است که با استفاده از خروجیهای DeepSeek R1 آموزش دیده است.",
|
|
403
|
+
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B یک مدل تقطیرشده بر پایه Qwen 2.5 14B است که با استفاده از خروجیهای DeepSeek R1 آموزش دیده است. این مدل در چندین معیار از OpenAI o1-mini پیشی گرفته و در میان مدلهای متراکم نتایج پیشرفتهای ارائه میدهد. نکات برجسته:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nرتبه CodeForces: 1481\nتنظیم دقیق با خروجیهای DeepSeek R1 عملکردی رقابتی با مدلهای پیشرفته بزرگ ارائه میدهد.",
|
|
404
|
+
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B یک مدل تقطیرشده بر پایه Qwen 2.5 32B است که با استفاده از خروجیهای DeepSeek R1 آموزش دیده است. این مدل در چندین معیار از OpenAI o1-mini پیشی گرفته و در میان مدلهای متراکم نتایج پیشرفتهای ارائه میدهد. نکات برجسته:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nرتبه CodeForces: 1691\nتنظیم دقیق با خروجیهای DeepSeek R1 عملکردی رقابتی با مدلهای پیشرفته بزرگ ارائه میدهد.",
|
|
405
|
+
"deepseek/deepseek-r1.description": "DeepSeek R1 به نسخه DeepSeek-R1-0528 بهروزرسانی شده است. با استفاده از محاسبات بیشتر و بهینهسازیهای الگوریتمی پس از آموزش، عمق و توانایی استدلال را بهطور قابل توجهی بهبود میبخشد. این مدل در معیارهای ریاضی، برنامهنویسی و منطق عمومی عملکرد قوی دارد و به سطح مدلهایی مانند o3 و Gemini 2.5 Pro نزدیک میشود.",
|
|
406
|
+
"deepseek/deepseek-r1/community.description": "DeepSeek R1 جدیدترین مدل متنباز منتشرشده توسط تیم DeepSeek است که عملکرد استدلالی بسیار قوی، بهویژه در ریاضی، کدنویسی و وظایف استدلالی دارد و با OpenAI o1 قابل مقایسه است.",
|
|
407
|
+
"deepseek/deepseek-r1:free.description": "DeepSeek-R1 با استفاده از دادههای برچسبخورده حداقلی، توانایی استدلال را بهطور چشمگیری بهبود میبخشد و پیش از پاسخ نهایی، زنجیرهای از افکار تولید میکند تا دقت را افزایش دهد.",
|
|
408
|
+
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) مدل آزمایشی استدلالی DeepSeek است که برای وظایف استدلالی با پیچیدگی بالا مناسب است.",
|
|
409
|
+
"deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base نسخه بهبود یافته مدل DeepSeek V3 است.",
|
|
410
|
+
"deepseek/deepseek-v3.description": "یک مدل زبان بزرگ سریع و عمومی با توانایی استدلال تقویتشده.",
|
|
411
|
+
"deepseek/deepseek-v3/community.description": "DeepSeek-V3 پیشرفتی بزرگ در سرعت استدلال نسبت به مدلهای قبلی ارائه میدهد. این مدل در میان مدلهای متنباز رتبه اول را دارد و با مدلهای بسته پیشرفته رقابت میکند. DeepSeek-V3 از معماری Multi-Head Latent Attention (MLA) و DeepSeekMoE استفاده میکند که در DeepSeek-V2 بهطور کامل اعتبارسنجی شدهاند. همچنین از استراتژی کمکی بدون اتلاف برای تعادل بار و هدف آموزشی پیشبینی چندتوکنی برای عملکرد قویتر بهره میبرد.",
|
|
412
|
+
"deepseek_r1.description": "DeepSeek-R1 یک مدل استدلالی مبتنی بر یادگیری تقویتی است که مشکلات تکرار و خوانایی را برطرف میکند. پیش از یادگیری تقویتی، از دادههای شروع سرد برای بهبود بیشتر عملکرد استدلال استفاده میکند. این مدل در وظایف ریاضی، کدنویسی و استدلال با OpenAI-o1 برابری میکند و با طراحی دقیق آموزش، نتایج کلی را بهبود میبخشد.",
|
|
413
|
+
"deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B از Llama-3.3-70B-Instruct تقطیر شده است. بهعنوان بخشی از سری DeepSeek-R1، با استفاده از نمونههای تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده و در ریاضی، کدنویسی و استدلال عملکرد قوی دارد.",
|
|
414
|
+
"deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B از Qwen2.5-14B تقطیر شده و با استفاده از ۸۰۰ هزار نمونه منتخب تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده است و عملکرد استدلالی قوی ارائه میدهد.",
|
|
415
|
+
"deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B از Qwen2.5-32B تقطیر شده و با استفاده از ۸۰۰ هزار نمونه منتخب تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده است و در ریاضی، کدنویسی و استدلال عملکرد برجستهای دارد.",
|
|
338
416
|
"meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعهدهندگان، پژوهشگران و شرکتها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد طراحی شده است. این مدل بهعنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیطهایی با منابع محدود، دستگاههای لبه و زمانهای آموزش سریع مناسب است.",
|
|
339
417
|
"meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری.",
|
|
340
418
|
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامههای عامل با قابلیت درک بصری.",
|
|
@@ -63,7 +63,8 @@
|
|
|
63
63
|
"builtins.lobe-gtd.apiName.createPlan.result": "ایجاد برنامه: <goal>{{goal}}</goal>",
|
|
64
64
|
"builtins.lobe-gtd.apiName.createTodos": "ایجاد کارها",
|
|
65
65
|
"builtins.lobe-gtd.apiName.execTask": "اجرای وظیفه",
|
|
66
|
-
"builtins.lobe-gtd.apiName.execTask.
|
|
66
|
+
"builtins.lobe-gtd.apiName.execTask.completed": "وظیفه ایجاد شد: ",
|
|
67
|
+
"builtins.lobe-gtd.apiName.execTask.loading": "در حال ایجاد وظیفه: ",
|
|
67
68
|
"builtins.lobe-gtd.apiName.execTasks": "اجرای وظایف",
|
|
68
69
|
"builtins.lobe-gtd.apiName.removeTodos": "حذف کارها",
|
|
69
70
|
"builtins.lobe-gtd.apiName.updatePlan": "بهروزرسانی برنامه",
|
|
@@ -29,6 +29,7 @@
|
|
|
29
29
|
"internlm.description": "یک سازمان متنباز متمرکز بر تحقیقات مدلهای بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه میدهد تا مدلها و الگوریتمهای پیشرفته را در دسترس قرار دهد.",
|
|
30
30
|
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدلهای برداری، رتبهبندها و مدلهای زبانی کوچک برای ساخت اپلیکیشنهای جستجوی مولد و چندوجهی با کیفیت بالا است.",
|
|
31
31
|
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدلهای زبانی بزرگ روی رایانه شخصی شماست.",
|
|
32
|
+
"lobehub.description": "LobeHub Cloud از رابطهای برنامهنویسی رسمی برای دسترسی به مدلهای هوش مصنوعی استفاده میکند و مصرف را با اعتباراتی که به توکنهای مدل وابستهاند، اندازهگیری میکند.",
|
|
32
33
|
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدلهای پایه چندوجهی از جمله مدلهای متنی با پارامترهای تریلیونی، مدلهای گفتاری و تصویری توسعه میدهد و اپهایی مانند Hailuo AI را ارائه میکند.",
|
|
33
34
|
"mistral.description": "Mistral مدلهای عمومی، تخصصی و تحقیقاتی پیشرفتهای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه میدهد و از فراخوانی توابع برای یکپارچهسازی سفارشی پشتیبانی میکند.",
|
|
34
35
|
"modelscope.description": "ModelScope پلتفرم مدل بهعنوانسرویس Alibaba Cloud است که مجموعهای گسترده از مدلهای هوش مصنوعی و خدمات استنتاج را ارائه میدهد.",
|
package/locales/fr-FR/chat.json
CHANGED
|
@@ -295,6 +295,8 @@
|
|
|
295
295
|
"task.batchTasks": "{{count}} sous-tâches groupées",
|
|
296
296
|
"task.metrics.stepsShort": "étapes",
|
|
297
297
|
"task.metrics.toolCallsShort": "utilisations d'outil",
|
|
298
|
+
"task.status.cancelled": "Tâche annulée",
|
|
299
|
+
"task.status.failed": "Échec de la tâche",
|
|
298
300
|
"task.status.initializing": "Initialisation de la tâche...",
|
|
299
301
|
"task.subtask": "Sous-tâche",
|
|
300
302
|
"thread.divider": "Sous-sujet",
|