@lobehub/lobehub 2.0.0-next.201 → 2.0.0-next.203

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (110) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/locales/ar/chat.json +2 -0
  4. package/locales/ar/models.json +104 -6
  5. package/locales/ar/plugin.json +2 -1
  6. package/locales/bg-BG/chat.json +2 -0
  7. package/locales/bg-BG/models.json +46 -4
  8. package/locales/bg-BG/plugin.json +2 -1
  9. package/locales/de-DE/chat.json +2 -0
  10. package/locales/de-DE/models.json +74 -4
  11. package/locales/de-DE/plugin.json +2 -1
  12. package/locales/en-US/chat.json +2 -0
  13. package/locales/en-US/plugin.json +2 -1
  14. package/locales/es-ES/chat.json +2 -0
  15. package/locales/es-ES/models.json +129 -4
  16. package/locales/es-ES/plugin.json +2 -1
  17. package/locales/fa-IR/chat.json +2 -0
  18. package/locales/fa-IR/models.json +80 -4
  19. package/locales/fa-IR/plugin.json +2 -1
  20. package/locales/fr-FR/chat.json +2 -0
  21. package/locales/fr-FR/models.json +67 -7
  22. package/locales/fr-FR/plugin.json +2 -1
  23. package/locales/it-IT/chat.json +2 -0
  24. package/locales/it-IT/models.json +39 -6
  25. package/locales/it-IT/plugin.json +2 -1
  26. package/locales/ja-JP/chat.json +2 -0
  27. package/locales/ja-JP/models.json +123 -7
  28. package/locales/ja-JP/plugin.json +2 -1
  29. package/locales/ko-KR/chat.json +2 -0
  30. package/locales/ko-KR/models.json +104 -5
  31. package/locales/ko-KR/plugin.json +2 -1
  32. package/locales/nl-NL/chat.json +2 -0
  33. package/locales/nl-NL/models.json +62 -5
  34. package/locales/nl-NL/plugin.json +2 -1
  35. package/locales/pl-PL/chat.json +2 -0
  36. package/locales/pl-PL/models.json +110 -0
  37. package/locales/pl-PL/plugin.json +2 -1
  38. package/locales/pt-BR/chat.json +2 -0
  39. package/locales/pt-BR/models.json +81 -5
  40. package/locales/pt-BR/plugin.json +2 -1
  41. package/locales/ru-RU/chat.json +2 -0
  42. package/locales/ru-RU/models.json +33 -6
  43. package/locales/ru-RU/plugin.json +2 -1
  44. package/locales/tr-TR/chat.json +2 -0
  45. package/locales/tr-TR/models.json +26 -7
  46. package/locales/tr-TR/plugin.json +2 -1
  47. package/locales/vi-VN/chat.json +2 -0
  48. package/locales/vi-VN/models.json +59 -4
  49. package/locales/vi-VN/plugin.json +2 -1
  50. package/locales/zh-CN/chat.json +2 -0
  51. package/locales/zh-CN/models.json +141 -5
  52. package/locales/zh-CN/plugin.json +2 -1
  53. package/locales/zh-TW/chat.json +2 -0
  54. package/locales/zh-TW/models.json +96 -7
  55. package/locales/zh-TW/plugin.json +2 -1
  56. package/package.json +1 -1
  57. package/packages/builtin-tool-gtd/src/client/Inspector/ExecTask/index.tsx +30 -15
  58. package/packages/builtin-tool-gtd/src/manifest.ts +1 -1
  59. package/packages/model-runtime/src/core/ModelRuntime.test.ts +44 -86
  60. package/packages/types/src/aiChat.ts +0 -1
  61. package/packages/types/src/message/ui/chat.ts +1 -1
  62. package/src/app/(backend)/middleware/auth/index.ts +16 -2
  63. package/src/app/(backend)/webapi/chat/[provider]/route.test.ts +30 -15
  64. package/src/app/(backend)/webapi/chat/[provider]/route.ts +44 -40
  65. package/src/app/(backend)/webapi/models/[provider]/pull/route.ts +4 -3
  66. package/src/app/(backend)/webapi/models/[provider]/route.test.ts +36 -13
  67. package/src/app/(backend)/webapi/models/[provider]/route.ts +4 -11
  68. package/src/features/Conversation/Messages/AssistantGroup/Tool/Render/index.tsx +21 -23
  69. package/src/features/Conversation/Messages/AssistantGroup/components/ContentBlock.tsx +16 -3
  70. package/src/features/Conversation/Messages/Task/TaskDetailPanel/index.tsx +17 -20
  71. package/src/features/Conversation/Messages/Tasks/shared/ErrorState.tsx +16 -11
  72. package/src/features/Conversation/Messages/Tasks/shared/InitializingState.tsx +6 -20
  73. package/src/features/Conversation/Messages/Tasks/shared/ProcessingState.tsx +10 -20
  74. package/src/features/User/DataStatistics.tsx +4 -4
  75. package/src/hooks/useQueryParam.ts +0 -2
  76. package/src/libs/trpc/async/asyncAuth.ts +0 -2
  77. package/src/libs/trpc/async/context.ts +3 -11
  78. package/src/locales/default/chat.ts +2 -0
  79. package/src/locales/default/plugin.ts +2 -1
  80. package/src/server/modules/AgentRuntime/RuntimeExecutors.ts +6 -6
  81. package/src/server/modules/AgentRuntime/__tests__/RuntimeExecutors.test.ts +3 -3
  82. package/src/server/modules/AgentRuntime/factory.ts +39 -20
  83. package/src/server/modules/ModelRuntime/index.ts +138 -1
  84. package/src/server/routers/async/__tests__/caller.test.ts +22 -27
  85. package/src/server/routers/async/caller.ts +4 -6
  86. package/src/server/routers/async/file.ts +10 -5
  87. package/src/server/routers/async/image.ts +5 -4
  88. package/src/server/routers/async/ragEval.ts +7 -5
  89. package/src/server/routers/lambda/__tests__/aiChat.test.ts +8 -37
  90. package/src/server/routers/lambda/aiChat.ts +5 -21
  91. package/src/server/routers/lambda/chunk.ts +9 -28
  92. package/src/server/routers/lambda/image.ts +1 -7
  93. package/src/server/routers/lambda/ragEval.ts +1 -1
  94. package/src/server/routers/lambda/userMemories/reembed.ts +4 -1
  95. package/src/server/routers/lambda/userMemories/search.ts +7 -7
  96. package/src/server/routers/lambda/userMemories/shared.ts +8 -10
  97. package/src/server/routers/lambda/userMemories/tools.ts +140 -118
  98. package/src/server/routers/lambda/userMemories.test.ts +3 -7
  99. package/src/server/routers/lambda/userMemories.ts +44 -29
  100. package/src/server/services/agentRuntime/AgentRuntimeService.test.ts +87 -0
  101. package/src/server/services/agentRuntime/AgentRuntimeService.ts +53 -2
  102. package/src/server/services/agentRuntime/__tests__/executeSync.test.ts +2 -6
  103. package/src/server/services/agentRuntime/__tests__/stepLifecycleCallbacks.test.ts +1 -1
  104. package/src/server/services/chunk/index.ts +6 -5
  105. package/src/server/services/toolExecution/types.ts +1 -2
  106. package/src/services/__tests__/_url.test.ts +0 -1
  107. package/src/services/_url.ts +0 -3
  108. package/src/services/aiChat.ts +5 -12
  109. package/src/store/chat/slices/aiChat/actions/streamingExecutor.ts +0 -2
  110. package/src/app/(backend)/webapi/text-to-image/[provider]/route.ts +0 -74
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Create plan: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Create todos",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Execute task",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Execute: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Task created: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Creating task: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Execute tasks",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Delete todos",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Update plan",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} subtareas en lote",
296
296
  "task.metrics.stepsShort": "pasos",
297
297
  "task.metrics.toolCallsShort": "usos de herramientas",
298
+ "task.status.cancelled": "Tarea cancelada",
299
+ "task.status.failed": "Tarea fallida",
298
300
  "task.status.initializing": "Inicializando tarea...",
299
301
  "task.subtask": "Subtarea",
300
302
  "thread.divider": "Subtema",
@@ -271,9 +271,9 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
272
272
  "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
273
273
  "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos indicadores de inteligencia.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso visibles para el usuario. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agentes.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos paso a paso que los usuarios pueden seguir. Sonnet destaca especialmente en programación, ciencia de datos, visión por computadora y tareas de agentes.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento en tareas de análisis profundo.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento en tareas de análisis profundo.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
358
- "deepseek-chat.description": "Un nuevo modelo de código abierto que combina capacidades generales y de programación. Conserva el diálogo general del modelo de chat y la sólida programación del modelo coder, con mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
358
+ "deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para programación entrenado con 2T tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que rinde fuertemente en tareas de programación, comparable a GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que rinde fuertemente en tareas de programación, comparable a GPT-4 Turbo.",
@@ -378,7 +378,7 @@
378
378
  "deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
379
379
  "deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y rinde de forma comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
381
- "deepseek-reasoner.description": "El modo de pensamiento de DeepSeek V3.2 genera una cadena de razonamiento antes de la respuesta final para mejorar la precisión.",
381
+ "deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
382
382
  "deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671B parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@@ -413,6 +413,131 @@
413
413
  "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B es una versión destilada de Llama-3.3-70B-Instruct. Como parte de la serie DeepSeek-R1, está ajustado con muestras generadas por DeepSeek-R1 y ofrece un rendimiento sólido en matemáticas, programación y razonamiento.",
414
414
  "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B es una versión destilada de Qwen2.5-14B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, ofreciendo un razonamiento sólido.",
415
415
  "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B es una versión destilada de Qwen2.5-32B y ajustada con 800K muestras seleccionadas generadas por DeepSeek-R1, destacando en matemáticas, programación y razonamiento.",
416
+ "devstral-2:123b.description": "Devstral 2 123B sobresale en el uso de herramientas para explorar bases de código, editar múltiples archivos y asistir a agentes de ingeniería de software.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite es un nuevo modelo ligero con respuesta ultrarrápida, ofreciendo calidad de primer nivel y baja latencia.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k es una mejora integral de Doubao-1.5-Pro, con un aumento del 10% en el rendimiento general. Soporta una ventana de contexto de 256k y hasta 12k tokens de salida, ofreciendo mayor rendimiento, mayor contexto y gran valor para casos de uso amplios.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro es un modelo insignia de nueva generación con mejoras en todas las áreas, destacando en conocimiento, programación y razonamiento.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo (la versión m incluye razonamiento multimodal nativo) que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Soporta una ventana de contexto de 128k y salida de hasta 16k tokens.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 es un nuevo modelo de razonamiento profundo que sobresale en matemáticas, programación, razonamiento científico y tareas generales como escritura creativa. Alcanza o se aproxima a resultados de primer nivel en benchmarks como AIME 2024, Codeforces y GPQA. Soporta una ventana de contexto de 128k y salida de hasta 16k tokens.",
422
+ "doubao-1.5-thinking-vision-pro.description": "Un nuevo modelo visual de razonamiento profundo con mayor comprensión y razonamiento multimodal, logrando resultados SOTA en 37 de 59 benchmarks públicos.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS es un modelo de agente enfocado en interfaces gráficas que interactúa fluidamente con interfaces mediante percepción, razonamiento y acción similares a los humanos.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones. Soporta una ventana de contexto de 128k y hasta 16k tokens de salida.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
427
+ "doubao-lite-128k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 128k.",
428
+ "doubao-lite-32k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 32k.",
429
+ "doubao-lite-4k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Soporta razonamiento y ajuste fino con una ventana de contexto de 4k.",
430
+ "doubao-pro-256k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con resultados sólidos en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Soporta razonamiento y ajuste fino con una ventana de contexto de 256k.",
431
+ "doubao-pro-32k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con resultados sólidos en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Soporta razonamiento y ajuste fino con una ventana de contexto de 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash es un modelo multimodal de razonamiento profundo ultrarrápido con TPOT de hasta 10ms. Soporta texto e imagen, supera al modelo lite anterior en comprensión textual y se equipara a modelos pro en visión. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de razonamiento profundo con esfuerzo de razonamiento ajustable (Mínimo, Bajo, Medio, Alto), ofreciendo mejor valor y una opción sólida para tareas comunes, con una ventana de contexto de hasta 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 refuerza significativamente el razonamiento, mejorando aún más las habilidades clave en programación, matemáticas y lógica respecto a Doubao-1.5-thinking-pro, además de añadir comprensión visual. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision es un modelo visual de razonamiento profundo que ofrece mayor comprensión y razonamiento multimodal para educación, revisión de imágenes, inspección/seguridad y preguntas y respuestas con búsqueda por IA. Soporta una ventana de contexto de 256k y hasta 64k tokens de salida.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 es un nuevo modelo multimodal de razonamiento profundo con modos automático, con razonamiento y sin razonamiento. En modo sin razonamiento, supera significativamente a Doubao-1.5-pro/250115. Soporta una ventana de contexto de 256k y hasta 16k tokens de salida.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 ofrece una comprensión multimodal y capacidades de agente aún más potentes, admitiendo entrada de texto/imagen/video y almacenamiento en caché de contexto, con un rendimiento superior en tareas complejas.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code está profundamente optimizado para programación con agentes, admite entradas multimodales (texto/imagen/video) y una ventana de contexto de 256k, es compatible con la API de Anthropic y se adapta a flujos de trabajo de programación, comprensión visual y agentes.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "El modelo de imagen Doubao de ByteDance Seed admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Soporta edición de imágenes guiada por texto, con tamaños de salida entre 512 y 1536 en el lado largo.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
444
+ "emohaa.description": "Emohaa es un modelo de salud mental con capacidades profesionales de asesoramiento para ayudar a los usuarios a comprender sus problemas emocionales.",
445
+ "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B es un modelo ligero de código abierto para implementación local y personalizada.",
446
+ "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B es un modelo de código abierto con gran número de parámetros y mejor capacidad de comprensión y generación.",
447
+ "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B es el modelo MoE ultra grande de Baidu ERNIE con excelente razonamiento.",
448
+ "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview es un modelo de vista previa con contexto de 8K para evaluar ERNIE 4.5.",
449
+ "ernie-4.5-turbo-128k-preview.description": "Vista previa de ERNIE 4.5 Turbo 128K con capacidades de nivel de lanzamiento, adecuado para integración y pruebas canarias.",
450
+ "ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K es un modelo general de alto rendimiento con aumento de búsqueda y llamadas a herramientas para preguntas y respuestas, programación y escenarios de agentes.",
451
+ "ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K es una versión de contexto medio para preguntas y respuestas, recuperación de bases de conocimiento y diálogo de múltiples turnos.",
452
+ "ernie-4.5-turbo-latest.description": "Última versión de ERNIE 4.5 Turbo con rendimiento general optimizado, ideal como modelo principal de producción.",
453
+ "ernie-4.5-turbo-vl-32k-preview.description": "ERNIE 4.5 Turbo VL 32K Preview es una vista previa multimodal de 32K para evaluar la capacidad de visión de contexto largo.",
454
+ "ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K es una versión multimodal de contexto medio-largo para comprensión combinada de documentos largos e imágenes.",
455
+ "ernie-4.5-turbo-vl-latest.description": "ERNIE 4.5 Turbo VL Latest es la versión multimodal más reciente con mejor comprensión y razonamiento imagen-texto.",
456
+ "ernie-4.5-turbo-vl-preview.description": "ERNIE 4.5 Turbo VL Preview es un modelo multimodal de vista previa para comprensión y generación imagen-texto, adecuado para preguntas visuales y comprensión de contenido.",
457
+ "ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL es un modelo multimodal maduro para comprensión y reconocimiento imagen-texto en producción.",
458
+ "ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B es un modelo multimodal de código abierto para comprensión y razonamiento imagen-texto.",
459
+ "ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking es un modelo insignia nativo de modalidad completa con modelado unificado de texto, imagen, audio y video. Ofrece mejoras significativas en capacidades para preguntas complejas, creación y escenarios de agentes.",
460
+ "ernie-5.0-thinking-preview.description": "Wenxin 5.0 Thinking Preview es un modelo insignia nativo de modalidad completa con modelado unificado de texto, imagen, audio y video. Proporciona mejoras amplias en capacidades para preguntas complejas, creación y escenarios de agentes.",
461
+ "ernie-char-8k.description": "ERNIE Character 8K es un modelo de diálogo con personalidad diseñado para la construcción de personajes de propiedad intelectual y conversaciones de compañía a largo plazo.",
462
+ "ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview es un modelo preliminar para la creación de personajes y tramas, destinado a evaluación y pruebas de funcionalidades.",
463
+ "ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K es un modelo de personalidad para novelas y creación de tramas, ideal para la generación de historias de formato largo.",
464
+ "ernie-irag-edit.description": "ERNIE iRAG Edit es un modelo de edición de imágenes que permite borrar, repintar y generar variantes.",
465
+ "ernie-lite-8k.description": "ERNIE Lite 8K es un modelo general ligero para preguntas frecuentes y generación de contenido con sensibilidad al costo.",
466
+ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.",
467
+ "ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas de formato largo y tramas de propiedad intelectual con narrativas de múltiples personajes.",
468
+ "ernie-speed-128k.description": "ERNIE Speed 128K es un modelo sin tarifas de entrada/salida para comprensión de textos largos y pruebas a gran escala.",
469
+ "ernie-speed-8k.description": "ERNIE Speed 8K es un modelo gratuito y rápido para conversaciones diarias y tareas ligeras de texto.",
470
+ "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y alta concurrencia para servicios en línea a gran escala y aplicaciones empresariales.",
471
+ "ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
472
+ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y conversaciones de múltiples turnos.",
473
+ "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
474
+ "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen, con una generación de imágenes altamente controlable y de alta calidad. Genera imágenes a partir de indicaciones de texto.",
475
+ "fal-ai/flux-kontext/dev.description": "FLUX.1 es un modelo centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
476
+ "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escena.",
477
+ "fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
478
+ "fal-ai/flux/schnell.description": "FLUX.1 [schnell] es un modelo de generación de imágenes con 12 mil millones de parámetros, diseñado para producir resultados rápidos y de alta calidad.",
479
+ "fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
480
+ "fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
481
+ "fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite la generación y edición de imágenes mediante conversación.",
482
+ "fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que permite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
483
+ "fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y una amplia variedad de estilos visuales.",
484
+ "flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se publica bajo Apache-2.0 para uso personal, de investigación y comercial.",
485
+ "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen cercana a nivel profesional y seguimiento de instrucciones, funcionando de manera más eficiente que modelos estándar del mismo tamaño.",
486
+ "flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
487
+ "flux-kontext-pro.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
488
+ "flux-merged.description": "FLUX.1-merged combina las características profundas exploradas en \"DEV\" con las ventajas de alta velocidad de \"Schnell\", ampliando los límites de rendimiento y ampliando las aplicaciones.",
489
+ "flux-pro-1.1-ultra.description": "Generación de imágenes de ultra alta resolución con salida de 4MP, produciendo imágenes nítidas en 10 segundos.",
490
+ "flux-pro-1.1.description": "Modelo de generación de imágenes de nivel profesional mejorado con excelente calidad de imagen y adherencia precisa a las indicaciones.",
491
+ "flux-pro.description": "Modelo comercial de generación de imágenes de primer nivel con calidad de imagen inigualable y salidas diversas.",
492
+ "flux-schnell.description": "FLUX.1 [schnell] es el modelo de pocos pasos más avanzado de código abierto, superando a competidores similares e incluso a modelos no destilados como Midjourney v6.0 y DALL-E 3 (HD). Está finamente ajustado para preservar la diversidad del preentrenamiento, mejorando significativamente la calidad visual, el seguimiento de instrucciones, la variación de tamaño/aspecto, el manejo de fuentes y la diversidad de salida.",
493
+ "flux.1-schnell.description": "FLUX.1-schnell es un modelo de generación de imágenes de alto rendimiento para salidas rápidas y de múltiples estilos.",
494
+ "gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) ofrece un rendimiento estable y ajustable para tareas complejas.",
495
+ "gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) proporciona un sólido soporte multimodal para tareas complejas.",
496
+ "gemini-1.0-pro-latest.description": "Gemini 1.0 Pro es el modelo de IA de alto rendimiento de Google diseñado para escalar tareas de forma amplia.",
497
+ "gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
498
+ "gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
499
+ "gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 es el modelo experimental más reciente con mejoras notables en casos de uso de texto y multimodales.",
500
+ "gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente diseñado para implementaciones a gran escala.",
501
+ "gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B es un modelo multimodal eficiente para escalar aplicaciones de forma amplia.",
502
+ "gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 ofrece procesamiento multimodal optimizado para tareas complejas.",
503
+ "gemini-1.5-flash-latest.description": "Gemini 1.5 Flash es el modelo de IA multimodal más reciente de Google con procesamiento rápido, compatible con entradas de texto, imagen y video para escalar tareas de manera eficiente.",
504
+ "gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 es una solución de IA multimodal escalable para tareas complejas.",
505
+ "gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 es el modelo más reciente listo para producción con salidas de mayor calidad, especialmente en matemáticas, contexto largo y tareas visuales.",
506
+ "gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 ofrece un procesamiento multimodal sólido con mayor flexibilidad para el desarrollo de aplicaciones.",
507
+ "gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 aplica las últimas optimizaciones para un procesamiento multimodal más eficiente.",
508
+ "gemini-1.5-pro-latest.description": "Gemini 1.5 Pro admite hasta 2 millones de tokens, siendo un modelo multimodal de tamaño medio ideal para tareas complejas.",
509
+ "gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece funciones de próxima generación, incluyendo velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
510
+ "gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash con soporte para generación de imágenes.",
511
+ "gemini-2.0-flash-exp.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
512
+ "gemini-2.0-flash-lite-001.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
513
+ "gemini-2.0-flash-lite.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
514
+ "gemini-2.0-flash.description": "Gemini 2.0 Flash ofrece funciones de próxima generación, incluyendo velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
515
+ "gemini-2.5-flash-image-preview.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite la generación y edición de imágenes mediante conversación.",
516
+ "gemini-2.5-flash-image-preview:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite la generación y edición de imágenes mediante conversación.",
517
+ "gemini-2.5-flash-image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite la generación y edición de imágenes mediante conversación.",
518
+ "gemini-2.5-flash-image:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite la generación y edición de imágenes mediante conversación.",
519
+ "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.",
520
+ "gemini-2.5-flash-lite-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash-Lite",
521
+ "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.",
522
+ "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview es el modelo con mejor relación calidad-precio de Google con capacidades completas.",
523
+ "gemini-2.5-flash-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash",
524
+ "gemini-2.5-flash.description": "Gemini 2.5 Flash es el modelo con mejor relación calidad-precio de Google con capacidades completas.",
525
+ "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto extenso.",
526
+ "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto extenso.",
527
+ "gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto extenso.",
528
+ "gemini-2.5-pro.description": "Gemini 2.5 Pro es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto extenso.",
529
+ "gemini-3-flash-preview.description": "Gemini 3 Flash es el modelo más inteligente diseñado para la velocidad, combinando inteligencia de vanguardia con una integración excepcional con la búsqueda.",
530
+ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, que también admite conversación multimodal.",
531
+ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, que también admite conversación multimodal.",
532
+ "gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre una base de razonamiento de última generación.",
533
+ "gemini-flash-latest.description": "Última versión de Gemini Flash",
534
+ "gemini-flash-lite-latest.description": "Última versión de Gemini Flash-Lite",
535
+ "gemini-pro-latest.description": "Última versión de Gemini Pro",
536
+ "gemma-7b-it.description": "Gemma 7B es rentable para tareas de pequeña a mediana escala.",
537
+ "gemma2-9b-it.description": "Gemma 2 9B está optimizado para tareas específicas e integración con herramientas.",
538
+ "gemma2.description": "Gemma 2 es el modelo eficiente de Google, que cubre casos de uso desde aplicaciones pequeñas hasta procesamiento de datos complejo.",
539
+ "gemma2:27b.description": "Gemma 2 es el modelo eficiente de Google, que cubre casos de uso desde aplicaciones pequeñas hasta procesamiento de datos complejo.",
540
+ "gemma2:2b.description": "Gemma 2 es el modelo eficiente de Google, que cubre casos de uso desde aplicaciones pequeñas hasta procesamiento de datos complejo.",
416
541
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 es un modelo LLM abierto para desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable ideas de IA generativa. Como parte de la base para la innovación de la comunidad global, es ideal para entornos con recursos y capacidad de cómputo limitados, dispositivos en el borde y tiempos de entrenamiento más rápidos.",
417
542
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Razonamiento visual sólido en imágenes de alta resolución, ideal para aplicaciones de comprensión visual.",
418
543
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Razonamiento visual avanzado para aplicaciones de agentes con comprensión visual.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "Plan creado: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "Crear tareas",
65
65
  "builtins.lobe-gtd.apiName.execTask": "Ejecutar tarea",
66
- "builtins.lobe-gtd.apiName.execTask.result": "Ejecutar: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "Tarea creada: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "Creando tarea: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "Ejecutar tareas",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "Eliminar tareas",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "Actualizar plan",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} زیرکار گروهی",
296
296
  "task.metrics.stepsShort": "گام",
297
297
  "task.metrics.toolCallsShort": "استفاده از ابزار",
298
+ "task.status.cancelled": "وظیفه لغو شد",
299
+ "task.status.failed": "وظیفه ناموفق بود",
298
300
  "task.status.initializing": "در حال آغاز وظیفه...",
299
301
  "task.subtask": "زیرکار",
300
302
  "thread.divider": "زیرموضوع",
@@ -271,9 +271,9 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
272
272
  "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
273
273
  "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی می‌گیرد.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی Claude 3 Opus پیشی می‌گیرد.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام و قابل مشاهده تولید کند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی رایانه‌ای و وظایف عامل‌ها بسیار قدرتمند است.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام گسترده‌ای تولید کند که کاربران می‌توانند آن را مشاهده کنند. Sonnet در زمینه‌های برنامه‌نویسی، علم داده، بینایی و وظایف عامل‌ها بسیار قدرتمند است.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
@@ -281,10 +281,10 @@
281
281
  "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی استدلال پیشرفته ارائه می‌شود.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است و در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترده‌ای با فرآیند قابل مشاهده تولید کند.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
289
289
  "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@@ -335,6 +335,82 @@
335
335
  "computer-use-preview.description": "computer-use-preview یک مدل تخصصی برای ابزار «استفاده از رایانه» است که برای درک و اجرای وظایف مرتبط با رایانه آموزش دیده است.",
336
336
  "dall-e-2.description": "مدل نسل دوم DALL·E با تولید تصاویر واقع‌گرایانه‌تر، دقیق‌تر و وضوحی ۴ برابر بیشتر از نسل اول.",
337
337
  "dall-e-3.description": "جدیدترین مدل DALL·E که در نوامبر ۲۰۲۳ منتشر شد و از تولید تصاویر واقع‌گرایانه‌تر، دقیق‌تر و با جزئیات قوی‌تر پشتیبانی می‌کند.",
338
+ "databricks/dbrx-instruct.description": "DBRX Instruct مدیریت دستورالعمل‌ها را با قابلیت اطمینان بالا در صنایع مختلف ارائه می‌دهد.",
339
+ "deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR یک مدل بینایی-زبانی از DeepSeek AI است که بر OCR و «فشرده‌سازی نوری متنی» تمرکز دارد. این مدل با فشرده‌سازی اطلاعات متنی از تصاویر، اسناد را به‌طور کارآمد پردازش کرده و به متن ساختاریافته (مانند Markdown) تبدیل می‌کند. این مدل در شناسایی دقیق متن در تصاویر عملکرد بالایی دارد و برای دیجیتالی‌سازی اسناد، استخراج متن و پردازش ساختاریافته مناسب است.",
340
+ "deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B زنجیره تفکر را از DeepSeek-R1-0528 به Qwen3 8B Base منتقل می‌کند. این مدل در میان مدل‌های متن‌باز به SOTA رسیده، در AIME 2024 نسبت به Qwen3 8B ده درصد بهتر عمل کرده و عملکردی هم‌سطح با Qwen3-235B-thinking دارد. در استدلال ریاضی، برنامه‌نویسی و منطق عمومی عملکرد درخشانی دارد. معماری آن مشابه Qwen3-8B است اما از توکنایزر DeepSeek-R1-0528 استفاده می‌کند.",
341
+ "deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 با استفاده از منابع محاسباتی بیشتر و بهینه‌سازی‌های الگوریتمی پس از آموزش، توانایی استدلال را تعمیق می‌بخشد. این مدل در معیارهای ریاضی، برنامه‌نویسی و منطق عمومی عملکرد قوی دارد و به سطح مدل‌های پیشرو مانند o3 و Gemini 2.5 Pro نزدیک می‌شود.",
342
+ "deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "مدل‌های تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت می‌کنند.",
343
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "مدل‌های تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت می‌کنند.",
344
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "مدل‌های تقطیرشده DeepSeek-R1 با استفاده از یادگیری تقویتی و داده‌های شروع سرد، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت می‌کنند.",
345
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B از Qwen2.5-32B تقطیر شده و با ۸۰۰ هزار نمونه انتخاب‌شده از DeepSeek-R1 آموزش دیده است. این مدل در ریاضی، برنامه‌نویسی و استدلال عملکرد درخشانی دارد و نتایج قوی‌ای در AIME 2024، MATH-500 (با دقت ۹۴.۳٪) و GPQA Diamond کسب کرده است.",
346
+ "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B از Qwen2.5-Math-7B تقطیر شده و با ۸۰۰ هزار نمونه انتخاب‌شده از DeepSeek-R1 آموزش دیده است. این مدل عملکرد قوی‌ای دارد: ۹۲.۸٪ در MATH-500، ۵۵.۵٪ در AIME 2024 و امتیاز ۱۱۸۹ در CodeForces برای یک مدل ۷B.",
347
+ "deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 با استفاده از داده‌های شروع سرد پیش از یادگیری تقویتی، توانایی استدلال را بهبود داده و معیارهای چندوظیفه‌ای جدیدی را در مدل‌های متن‌باز ثبت کرده و از OpenAI-o1-mini پیشی گرفته است.",
348
+ "deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 نسخه ارتقاءیافته DeepSeek-V2-Chat و DeepSeek-Coder-V2-Instruct است که توانایی‌های عمومی و برنامه‌نویسی را ترکیب می‌کند. این مدل در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته و در معیارهایی مانند AlpacaEval 2.0، ArenaHard، AlignBench و MT-Bench پیشرفت چشمگیری نشان داده است.",
349
+ "deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus نسخه به‌روزشده مدل V3.1 است که به‌عنوان یک عامل ترکیبی LLM طراحی شده است. این مدل مشکلات گزارش‌شده کاربران را رفع کرده، ثبات و سازگاری زبانی را بهبود بخشیده و نویسه‌های غیرعادی و ترکیب چینی/انگلیسی را کاهش داده است. این مدل حالت‌های تفکر و غیرتفکر را با قالب‌های چت ترکیب کرده و امکان جابجایی انعطاف‌پذیر را فراهم می‌کند. همچنین عملکرد عامل کدنویسی و جستجو را برای استفاده مطمئن‌تر از ابزارها و انجام وظایف چندمرحله‌ای بهبود داده است.",
350
+ "deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 از معماری استدلال ترکیبی استفاده می‌کند و از هر دو حالت تفکر و غیرتفکر پشتیبانی می‌کند.",
351
+ "deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که به معماری بعدی پل می‌زند. این مدل با افزودن DeepSeek Sparse Attention (DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینه‌های طولانی را بهبود می‌بخشد و برای استفاده از ابزارها، درک اسناد طولانی و استدلال چندمرحله‌ای بهینه شده است. این مدل برای بررسی بهره‌وری بالاتر در استدلال با بودجه متنی بزرگ ایده‌آل است.",
352
+ "deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای آموزش و استنتاج کارآمد استفاده می‌کند. این مدل با استفاده از ۱۴.۸ تریلیون توکن با کیفیت بالا و آموزش با SFT و RL، از سایر مدل‌های متن‌باز پیشی گرفته و به مدل‌های بسته پیشرو نزدیک شده است.",
353
+ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.",
354
+ "deepseek-ai/deepseek-r1.description": "یک مدل LLM کارآمد و پیشرفته با توانایی بالا در استدلال، ریاضی و برنامه‌نویسی.",
355
+ "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
356
+ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
357
+ "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
358
+ "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
359
+ "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
360
+ "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
361
+ "deepseek-ocr.description": "DeepSeek-OCR یک مدل بینایی-زبانی از DeepSeek AI است که بر OCR و «فشرده‌سازی نوری متنی» تمرکز دارد. این مدل با فشرده‌سازی اطلاعات متنی از تصاویر، اسناد را به‌طور کارآمد پردازش کرده و به فرمت‌های متنی ساختاریافته مانند Markdown تبدیل می‌کند. این مدل در شناسایی دقیق متن در تصاویر عملکرد بالایی دارد و برای دیجیتالی‌سازی اسناد، استخراج متن و پردازش ساختاریافته مناسب است.",
362
+ "deepseek-r1-0528.description": "مدل کامل ۶۸۵ میلیارد پارامتری منتشرشده در ۲۸ مه ۲۰۲۵. DeepSeek-R1 از یادگیری تقویتی در مقیاس بزرگ در مرحله پس‌آموزش استفاده می‌کند که توانایی استدلال را با حداقل داده‌های برچسب‌خورده به‌طور چشمگیری بهبود می‌بخشد و در ریاضی، کدنویسی و استدلال زبان طبیعی عملکرد قوی‌ای دارد.",
363
+ "deepseek-r1-250528.description": "DeepSeek R1 250528 نسخه کامل مدل استدلال DeepSeek-R1 برای وظایف سخت ریاضی و منطقی است.",
364
+ "deepseek-r1-70b-fast-online.description": "نسخه سریع DeepSeek R1 70B با جستجوی وب در زمان واقعی که پاسخ‌های سریع‌تری را با حفظ عملکرد ارائه می‌دهد.",
365
+ "deepseek-r1-70b-online.description": "نسخه استاندارد DeepSeek R1 70B با جستجوی وب در زمان واقعی، مناسب برای چت و وظایف متنی به‌روز.",
366
+ "deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B ترکیبی از استدلال R1 با اکوسیستم Llama است.",
367
+ "deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B از Llama-3.1-8B با استفاده از خروجی‌های DeepSeek R1 تقطیر شده است.",
368
+ "deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama از DeepSeek-R1 بر پایه Llama تقطیر شده است.",
369
+ "deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B یک مدل تقطیر R1 بر پایه Qianfan-70B با ارزش بالا است.",
370
+ "deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B یک مدل تقطیر R1 بر پایه Qianfan-8B برای برنامه‌های کوچک و متوسط است.",
371
+ "deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B یک مدل تقطیر R1 بر پایه Llama-70B است.",
372
+ "deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B یک مدل تقطیر فوق‌سبک برای محیط‌های بسیار کم‌منبع است.",
373
+ "deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B یک مدل تقطیر میان‌رده برای استقرار در سناریوهای چندگانه است.",
374
+ "deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B یک مدل تقطیر R1 بر پایه Qwen-32B است که بین عملکرد و هزینه تعادل برقرار می‌کند.",
375
+ "deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B یک مدل تقطیر سبک برای محیط‌های لبه‌ای و سازمانی خصوصی است.",
376
+ "deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen از DeepSeek-R1 بر پایه Qwen تقطیر شده است.",
377
+ "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
378
+ "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
379
+ "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
380
+ "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
381
+ "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
382
+ "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
383
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus یک مدل زبان بزرگ بهینه‌شده برای دستگاه‌های ترمینال است که توسط DeepSeek توسعه یافته است.",
384
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 نسخه تفکر عمیق مدل Terminus است که برای استدلال با عملکرد بالا طراحی شده است.",
385
+ "deepseek-v3.1.description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از هر دو حالت تفکر و بدون تفکر پشتیبانی می‌کند و بهره‌وری تفکر بالاتری نسبت به DeepSeek-R1-0528 دارد. بهینه‌سازی‌های پس از آموزش، استفاده از ابزارها و عملکرد وظایف نماینده را به‌طور قابل توجهی بهبود می‌بخشد. این مدل از پنجره متنی ۱۲۸ هزار توکن و خروجی تا ۶۴ هزار توکن پشتیبانی می‌کند.",
386
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره‌ای بهبود یافته است که برای وظایف نیازمند تحلیل عمیق مناسب است.",
387
+ "deepseek-v3.2-exp.description": "مدل deepseek-v3.2-exp با معرفی توجه پراکنده، کارایی آموزش و استنتاج در متون بلند را بهبود می‌بخشد و نسبت به deepseek-v3.1 قیمت پایین‌تری دارد.",
388
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think یک مدل تفکر عمیق کامل است که توانایی استدلال زنجیره‌ای بلندتری دارد.",
389
+ "deepseek-v3.2.description": "DeepSeek-V3.2 نخستین مدل استدلال ترکیبی DeepSeek است که تفکر را با استفاده از ابزارها ترکیب می‌کند. این مدل با معماری کارآمد، مصرف محاسباتی را کاهش داده، با یادگیری تقویتی در مقیاس بزرگ توانایی را افزایش داده و با داده‌های مصنوعی گسترده، تعمیم‌پذیری را تقویت کرده است. عملکرد آن با GPT-5-High قابل مقایسه است، طول خروجی به‌طور چشمگیری کاهش یافته و زمان انتظار و هزینه محاسباتی کاربران را به‌طور قابل توجهی کاهش داده است.",
390
+ "deepseek-v3.description": "DeepSeek-V3 یک مدل MoE قدرتمند با ۶۷۱ میلیارد پارامتر کل و ۳۷ میلیارد پارامتر فعال در هر توکن است.",
391
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small نسخه چندوجهی سبک‌وزن برای استفاده در شرایط محدود منابع و هم‌زمانی بالا است.",
392
+ "deepseek-vl2.description": "DeepSeek VL2 یک مدل چندوجهی برای درک تصویر-متن و پاسخ‌گویی دقیق بصری است.",
393
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 یک مدل MoE با ۶۸۵ میلیارد پارامتر است و جدیدترین نسخه از سری چت پرچم‌دار DeepSeek محسوب می‌شود.\n\nاین مدل بر پایه [DeepSeek V3](/deepseek/deepseek-chat-v3) ساخته شده و در انجام وظایف مختلف عملکرد قوی دارد.",
394
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 یک مدل MoE با ۶۸۵ میلیارد پارامتر است و جدیدترین نسخه از سری چت پرچم‌دار DeepSeek محسوب می‌شود.\n\nاین مدل بر پایه [DeepSeek V3](/deepseek/deepseek-chat-v3) ساخته شده و در انجام وظایف مختلف عملکرد قوی دارد.",
395
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 مدل استدلال ترکیبی با زمینه بلند از DeepSeek است که از حالت‌های تفکر/بدون تفکر و ادغام ابزارها پشتیبانی می‌کند.",
396
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 مدل استدلال ترکیبی با عملکرد بالا از DeepSeek برای وظایف پیچیده و ادغام ابزارها است.",
397
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 نسخه به‌روزرسانی‌شده‌ای است که بر در دسترس بودن آزاد و استدلال عمیق تمرکز دارد.",
398
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 با استفاده از داده‌های برچسب‌خورده حداقلی، توانایی استدلال را به‌طور چشمگیری بهبود می‌بخشد و پیش از پاسخ نهایی، زنجیره‌ای از افکار تولید می‌کند تا دقت را افزایش دهد.",
399
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B یک مدل تقطیرشده بر پایه Llama 3.3 70B است که با استفاده از خروجی‌های DeepSeek R1 تنظیم دقیق شده و عملکردی رقابتی با مدل‌های پیشرفته بزرگ دارد.",
400
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B یک مدل تقطیرشده بر پایه Llama-3.1-8B-Instruct است که با استفاده از خروجی‌های DeepSeek R1 آموزش دیده است.",
401
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B یک مدل تقطیرشده بر پایه Qwen 2.5 14B است که با استفاده از خروجی‌های DeepSeek R1 آموزش دیده است. این مدل در چندین معیار از OpenAI o1-mini پیشی گرفته و در میان مدل‌های متراکم نتایج پیشرفته‌ای ارائه می‌دهد. نکات برجسته:\nAIME 2024 pass@1: 69.7\nMATH-500 pass@1: 93.9\nرتبه CodeForces: 1481\nتنظیم دقیق با خروجی‌های DeepSeek R1 عملکردی رقابتی با مدل‌های پیشرفته بزرگ ارائه می‌دهد.",
402
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B یک مدل تقطیرشده بر پایه Qwen 2.5 32B است که با استفاده از خروجی‌های DeepSeek R1 آموزش دیده است. این مدل در چندین معیار از OpenAI o1-mini پیشی گرفته و در میان مدل‌های متراکم نتایج پیشرفته‌ای ارائه می‌دهد. نکات برجسته:\nAIME 2024 pass@1: 72.6\nMATH-500 pass@1: 94.3\nرتبه CodeForces: 1691\nتنظیم دقیق با خروجی‌های DeepSeek R1 عملکردی رقابتی با مدل‌های پیشرفته بزرگ ارائه می‌دهد.",
403
+ "deepseek/deepseek-r1.description": "DeepSeek R1 به نسخه DeepSeek-R1-0528 به‌روزرسانی شده است. با استفاده از محاسبات بیشتر و بهینه‌سازی‌های الگوریتمی پس از آموزش، عمق و توانایی استدلال را به‌طور قابل توجهی بهبود می‌بخشد. این مدل در معیارهای ریاضی، برنامه‌نویسی و منطق عمومی عملکرد قوی دارد و به سطح مدل‌هایی مانند o3 و Gemini 2.5 Pro نزدیک می‌شود.",
404
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 جدیدترین مدل متن‌باز منتشرشده توسط تیم DeepSeek است که عملکرد استدلالی بسیار قوی، به‌ویژه در ریاضی، کدنویسی و وظایف استدلالی دارد و با OpenAI o1 قابل مقایسه است.",
405
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 با استفاده از داده‌های برچسب‌خورده حداقلی، توانایی استدلال را به‌طور چشمگیری بهبود می‌بخشد و پیش از پاسخ نهایی، زنجیره‌ای از افکار تولید می‌کند تا دقت را افزایش دهد.",
406
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) مدل آزمایشی استدلالی DeepSeek است که برای وظایف استدلالی با پیچیدگی بالا مناسب است.",
407
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base نسخه بهبود یافته مدل DeepSeek V3 است.",
408
+ "deepseek/deepseek-v3.description": "یک مدل زبان بزرگ سریع و عمومی با توانایی استدلال تقویت‌شده.",
409
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 پیشرفتی بزرگ در سرعت استدلال نسبت به مدل‌های قبلی ارائه می‌دهد. این مدل در میان مدل‌های متن‌باز رتبه اول را دارد و با مدل‌های بسته پیشرفته رقابت می‌کند. DeepSeek-V3 از معماری Multi-Head Latent Attention (MLA) و DeepSeekMoE استفاده می‌کند که در DeepSeek-V2 به‌طور کامل اعتبارسنجی شده‌اند. همچنین از استراتژی کمکی بدون اتلاف برای تعادل بار و هدف آموزشی پیش‌بینی چندتوکنی برای عملکرد قوی‌تر بهره می‌برد.",
410
+ "deepseek_r1.description": "DeepSeek-R1 یک مدل استدلالی مبتنی بر یادگیری تقویتی است که مشکلات تکرار و خوانایی را برطرف می‌کند. پیش از یادگیری تقویتی، از داده‌های شروع سرد برای بهبود بیشتر عملکرد استدلال استفاده می‌کند. این مدل در وظایف ریاضی، کدنویسی و استدلال با OpenAI-o1 برابری می‌کند و با طراحی دقیق آموزش، نتایج کلی را بهبود می‌بخشد.",
411
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B از Llama-3.3-70B-Instruct تقطیر شده است. به‌عنوان بخشی از سری DeepSeek-R1، با استفاده از نمونه‌های تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده و در ریاضی، کدنویسی و استدلال عملکرد قوی دارد.",
412
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B از Qwen2.5-14B تقطیر شده و با استفاده از ۸۰۰ هزار نمونه منتخب تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده است و عملکرد استدلالی قوی ارائه می‌دهد.",
413
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B از Qwen2.5-32B تقطیر شده و با استفاده از ۸۰۰ هزار نمونه منتخب تولیدشده توسط DeepSeek-R1 تنظیم دقیق شده است و در ریاضی، کدنویسی و استدلال عملکرد برجسته‌ای دارد.",
338
414
  "meta.llama3-8b-instruct-v1:0.description": "متا لاما ۳ یک مدل زبان باز برای توسعه‌دهندگان، پژوهشگران و شرکت‌ها است که برای کمک به ساخت، آزمایش و گسترش مسئولانه ایده‌های هوش مصنوعی مولد طراحی شده است. این مدل به‌عنوان بخشی از زیرساخت نوآوری جامعه جهانی، برای محیط‌هایی با منابع محدود، دستگاه‌های لبه و زمان‌های آموزش سریع مناسب است.",
339
415
  "meta/Llama-3.2-11B-Vision-Instruct.description": "استدلال تصویری قوی بر روی تصاویر با وضوح بالا، مناسب برای برنامه‌های درک بصری.",
340
416
  "meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال تصویری پیشرفته برای برنامه‌های عامل با قابلیت درک بصری.",
@@ -63,7 +63,8 @@
63
63
  "builtins.lobe-gtd.apiName.createPlan.result": "ایجاد برنامه: <goal>{{goal}}</goal>",
64
64
  "builtins.lobe-gtd.apiName.createTodos": "ایجاد کارها",
65
65
  "builtins.lobe-gtd.apiName.execTask": "اجرای وظیفه",
66
- "builtins.lobe-gtd.apiName.execTask.result": "اجرا: <desc>{{description}}</desc>",
66
+ "builtins.lobe-gtd.apiName.execTask.completed": "وظیفه ایجاد شد: ",
67
+ "builtins.lobe-gtd.apiName.execTask.loading": "در حال ایجاد وظیفه: ",
67
68
  "builtins.lobe-gtd.apiName.execTasks": "اجرای وظایف",
68
69
  "builtins.lobe-gtd.apiName.removeTodos": "حذف کارها",
69
70
  "builtins.lobe-gtd.apiName.updatePlan": "به‌روزرسانی برنامه",
@@ -295,6 +295,8 @@
295
295
  "task.batchTasks": "{{count}} sous-tâches groupées",
296
296
  "task.metrics.stepsShort": "étapes",
297
297
  "task.metrics.toolCallsShort": "utilisations d'outil",
298
+ "task.status.cancelled": "Tâche annulée",
299
+ "task.status.failed": "Échec de la tâche",
298
300
  "task.status.initializing": "Initialisation de la tâche...",
299
301
  "task.subtask": "Sous-tâche",
300
302
  "thread.divider": "Sous-sujet",
@@ -271,20 +271,20 @@
271
271
  "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.",
272
272
  "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
273
273
  "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.",
274
- "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et surpasse le précédent plus grand modèle Claude 3 Opus sur de nombreux tests d’intelligence.",
274
+ "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et surpasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux tests d’intelligence.",
275
275
  "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
276
- "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par l'utilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches d'agents.",
276
+ "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent dAnthropic et le premier modèle hybride de raisonnement sur le marché. Il peut fournir des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par lutilisateur. Sonnet excelle particulièrement en programmation, science des données, vision et tâches dagents.",
277
277
  "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
278
278
  "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
279
279
  "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
280
280
  "claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
281
- "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, combinant vitesse fulgurante et raisonnement approfondi.",
281
+ "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, alliant vitesse fulgurante et raisonnement approfondi.",
282
282
  "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
283
283
  "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
- "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
284
+ "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches hautement complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
285
285
  "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
286
286
  "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
287
- "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
287
+ "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
288
288
  "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d’Anthropic à ce jour.",
289
289
  "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
290
290
  "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, l’interprétation de code, la recherche web, l’appel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est l’un des meilleurs modèles de code sous 10 milliards de paramètres.",
@@ -355,7 +355,7 @@
355
355
  "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
356
356
  "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.",
357
357
  "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en questions visuelles, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
358
- "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance de codage du modèle de programmeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
358
+ "deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et la puissance du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
359
359
  "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.",
360
360
  "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
361
361
  "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@@ -378,10 +378,70 @@
378
378
  "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant capacité à l’échelle 671B et réponse rapide.",
379
379
  "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
380
380
  "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
381
- "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de pensée avant la réponse finale pour améliorer la précision.",
381
+ "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.",
382
382
  "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
383
383
  "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
384
384
  "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
385
+ "deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus est un modèle LLM optimisé pour les terminaux, conçu par DeepSeek pour les appareils en ligne de commande.",
386
+ "deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 est le modèle de raisonnement profond correspondant à la version Terminus, conçu pour des performances élevées en raisonnement.",
387
+ "deepseek-v3.1.description": "DeepSeek-V3.1 est un nouveau modèle hybride de raisonnement de DeepSeek, prenant en charge les modes avec ou sans réflexion, avec une efficacité de raisonnement supérieure à DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l'utilisation d'outils par les agents et leurs performances. Il prend en charge une fenêtre de contexte de 128k et jusqu'à 64k de jetons en sortie.",
388
+ "deepseek-v3.1:671b.description": "DeepSeek V3.1 est un modèle de raisonnement de nouvelle génération, amélioré pour les raisonnements complexes et les chaînes de pensée, adapté aux tâches nécessitant une analyse approfondie.",
389
+ "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduit l'attention clairsemée pour améliorer l'efficacité de l'entraînement et de l'inférence sur les textes longs, à un coût inférieur à deepseek-v3.1.",
390
+ "deepseek-v3.2-think.description": "DeepSeek V3.2 Think est un modèle de raisonnement profond complet, doté d'une capacité renforcée pour les chaînes de raisonnement longues.",
391
+ "deepseek-v3.2.description": "DeepSeek-V3.2 est le premier modèle hybride de raisonnement de DeepSeek intégrant la réflexion dans l'utilisation d'outils. Il combine une architecture efficace pour économiser les ressources, un apprentissage par renforcement à grande échelle pour améliorer les capacités, et des données synthétiques massives pour une meilleure généralisation. Ses performances rivalisent avec GPT-5-High, tout en réduisant considérablement la longueur des sorties, les coûts de calcul et le temps d'attente des utilisateurs.",
392
+ "deepseek-v3.description": "DeepSeek-V3 est un puissant modèle MoE avec 671 milliards de paramètres au total et 37 milliards actifs par jeton.",
393
+ "deepseek-vl2-small.description": "DeepSeek VL2 Small est une version multimodale légère, conçue pour les environnements à ressources limitées et les cas d'utilisation à forte concurrence.",
394
+ "deepseek-vl2.description": "DeepSeek VL2 est un modèle multimodal pour la compréhension image-texte et les questions-réponses visuelles de précision.",
395
+ "deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
396
+ "deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 est un modèle MoE de 685 milliards de paramètres, dernière itération de la série de chat phare de DeepSeek.\n\nIl s'appuie sur [DeepSeek V3](/deepseek/deepseek-chat-v3) et offre d'excellentes performances sur diverses tâches.",
397
+ "deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 est le modèle de raisonnement hybride à long contexte de DeepSeek, prenant en charge les modes avec ou sans réflexion et l'intégration d'outils.",
398
+ "deepseek/deepseek-chat.description": "DeepSeek-V3 est le modèle hybride haute performance de DeepSeek pour les tâches complexes et l'intégration d'outils.",
399
+ "deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 est une variante mise à jour axée sur l'ouverture et un raisonnement plus approfondi.",
400
+ "deepseek/deepseek-r1-0528:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour une meilleure précision.",
401
+ "deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B est un LLM distillé basé sur Llama 3.3 70B, affiné à partir des sorties de DeepSeek R1 pour atteindre des performances comparables aux grands modèles de pointe.",
402
+ "deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B est un LLM distillé basé sur Llama-3.1-8B-Instruct, entraîné à partir des sorties de DeepSeek R1.",
403
+ "deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B est un LLM distillé basé sur Qwen 2.5 14B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Points forts des benchmarks :\nAIME 2024 pass@1 : 69,7\nMATH-500 pass@1 : 93,9\nCodeForces Rating : 1481\nL'affinage sur les sorties de DeepSeek R1 permet des performances compétitives face aux modèles de pointe plus grands.",
404
+ "deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B est un LLM distillé basé sur Qwen 2.5 32B, entraîné à partir des sorties de DeepSeek R1. Il surpasse OpenAI o1-mini sur plusieurs benchmarks, atteignant des résultats de pointe parmi les modèles denses. Points forts des benchmarks :\nAIME 2024 pass@1 : 72,6\nMATH-500 pass@1 : 94,3\nCodeForces Rating : 1691\nL'affinage sur les sorties de DeepSeek R1 permet des performances compétitives face aux modèles de pointe plus grands.",
405
+ "deepseek/deepseek-r1.description": "DeepSeek R1 a été mis à jour vers DeepSeek-R1-0528. Grâce à une puissance de calcul accrue et des optimisations algorithmiques post-entraînement, il améliore considérablement la profondeur et la capacité de raisonnement. Il obtient d'excellents résultats sur les benchmarks de mathématiques, de programmation et de logique générale, rivalisant avec des leaders comme o3 et Gemini 2.5 Pro.",
406
+ "deepseek/deepseek-r1/community.description": "DeepSeek R1 est le dernier modèle open source publié par l'équipe DeepSeek, avec d'excellentes performances en raisonnement, notamment en mathématiques, en programmation et en logique, comparables à OpenAI o1.",
407
+ "deepseek/deepseek-r1:free.description": "DeepSeek-R1 améliore considérablement le raisonnement avec un minimum de données annotées et génère une chaîne de pensée avant la réponse finale pour une meilleure précision.",
408
+ "deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) est le modèle expérimental de raisonnement de DeepSeek, adapté aux tâches de raisonnement à haute complexité.",
409
+ "deepseek/deepseek-v3.1-base.description": "DeepSeek V3.1 Base est une version améliorée du modèle DeepSeek V3.",
410
+ "deepseek/deepseek-v3.description": "Un LLM polyvalent rapide avec des capacités de raisonnement renforcées.",
411
+ "deepseek/deepseek-v3/community.description": "DeepSeek-V3 marque une avancée majeure en vitesse de raisonnement par rapport aux modèles précédents. Il se classe premier parmi les modèles open source et rivalise avec les modèles fermés les plus avancés. DeepSeek-V3 adopte l'attention latente multi-têtes (MLA) et l'architecture DeepSeekMoE, toutes deux validées dans DeepSeek-V2. Il introduit également une stratégie auxiliaire sans perte pour l'équilibrage de charge et un objectif d'entraînement à prédiction multi-jetons pour des performances accrues.",
412
+ "deepseek_r1.description": "DeepSeek-R1 est un modèle de raisonnement basé sur l'apprentissage par renforcement, conçu pour résoudre les problèmes de répétition et de lisibilité. Avant l'étape RL, il utilise des données de démarrage à froid pour améliorer encore les performances de raisonnement. Il rivalise avec OpenAI-o1 sur les tâches de mathématiques, de codage et de raisonnement, grâce à un entraînement soigneusement conçu qui améliore les résultats globaux.",
413
+ "deepseek_r1_distill_llama_70b.description": "DeepSeek-R1-Distill-Llama-70B est distillé à partir de Llama-3.3-70B-Instruct. Faisant partie de la série DeepSeek-R1, il est affiné sur des exemples générés par DeepSeek-R1 et offre d'excellentes performances en mathématiques, codage et raisonnement.",
414
+ "deepseek_r1_distill_qwen_14b.description": "DeepSeek-R1-Distill-Qwen-14B est distillé à partir de Qwen2.5-14B et affiné sur 800 000 exemples sélectionnés générés par DeepSeek-R1, offrant un raisonnement solide.",
415
+ "deepseek_r1_distill_qwen_32b.description": "DeepSeek-R1-Distill-Qwen-32B est distillé à partir de Qwen2.5-32B et affiné sur 800 000 exemples sélectionnés générés par DeepSeek-R1, excellant en mathématiques, codage et raisonnement.",
416
+ "devstral-2:123b.description": "Devstral 2 123B excelle dans l’utilisation d’outils pour explorer des bases de code, modifier plusieurs fichiers et assister des agents en ingénierie logicielle.",
417
+ "doubao-1.5-lite-32k.description": "Doubao-1.5-lite est un nouveau modèle léger à réponse ultra-rapide, offrant une qualité et une latence de premier ordre.",
418
+ "doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k est une mise à niveau complète de Doubao-1.5-Pro, améliorant les performances globales de 10 %. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 12k jetons de sortie, offrant de meilleures performances, une fenêtre plus large et une forte valeur pour des cas d’usage étendus.",
419
+ "doubao-1.5-pro-32k.description": "Doubao-1.5-pro est un modèle phare de nouvelle génération avec des améliorations globales, excellent en connaissances, codage et raisonnement.",
420
+ "doubao-1.5-thinking-pro-m.description": "Doubao-1.5 est un nouveau modèle de raisonnement profond (la version m inclut un raisonnement multimodal natif) qui excelle en mathématiques, codage, raisonnement scientifique et tâches générales comme l’écriture créative. Il atteint ou approche des résultats de premier plan sur des benchmarks tels que AIME 2024, Codeforces et GPQA. Il prend en charge une fenêtre de contexte de 128k et 16k jetons de sortie.",
421
+ "doubao-1.5-thinking-pro.description": "Doubao-1.5 est un nouveau modèle de raisonnement profond qui excelle en mathématiques, codage, raisonnement scientifique et tâches générales comme l’écriture créative. Il atteint ou approche des résultats de premier plan sur des benchmarks tels que AIME 2024, Codeforces et GPQA. Il prend en charge une fenêtre de contexte de 128k et 16k jetons de sortie.",
422
+ "doubao-1.5-thinking-vision-pro.description": "Un nouveau modèle visuel de raisonnement profond avec une compréhension et un raisonnement multimodaux renforcés, atteignant des résultats SOTA sur 37 des 59 benchmarks publics.",
423
+ "doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS est un modèle d’agent natif axé sur les interfaces graphiques, interagissant de manière fluide avec les interfaces via une perception, un raisonnement et des actions proches de l’humain.",
424
+ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi des instructions. Il prend en charge une fenêtre de contexte de 128k et jusqu’à 16k jetons de sortie.",
425
+ "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi des instructions.",
426
+ "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi des instructions.",
427
+ "doubao-lite-128k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant plus de flexibilité selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 128k.",
428
+ "doubao-lite-32k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant plus de flexibilité selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.",
429
+ "doubao-lite-4k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant plus de flexibilité selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 4k.",
430
+ "doubao-pro-256k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 256k.",
431
+ "doubao-pro-32k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.",
432
+ "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash est un modèle multimodal de raisonnement profond ultra-rapide avec un TPOT aussi bas que 10 ms. Il prend en charge le texte et la vision, surpasse le modèle lite précédent en compréhension textuelle et rivalise avec les modèles pro concurrents en vision. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
433
+ "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite est un nouveau modèle multimodal de raisonnement profond avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé), offrant un excellent rapport qualité-prix et un bon choix pour les tâches courantes, avec une fenêtre de contexte allant jusqu’à 256k.",
434
+ "doubao-seed-1.6-thinking.description": "Doubao-Seed-1.6 renforce considérablement le raisonnement, améliorant encore les capacités clés en codage, mathématiques et logique par rapport à Doubao-1.5-thinking-pro, tout en ajoutant la compréhension visuelle. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
435
+ "doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision est un modèle visuel de raisonnement profond offrant une compréhension et un raisonnement multimodaux renforcés pour l’éducation, la révision d’images, l’inspection/sécurité et les questions-réponses IA. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 64k jetons de sortie.",
436
+ "doubao-seed-1.6.description": "Doubao-Seed-1.6 est un nouveau modèle multimodal de raisonnement profond avec des modes auto, raisonnement et non-raisonnement. En mode non-raisonnement, il surpasse nettement Doubao-1.5-pro/250115. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.",
437
+ "doubao-seed-1.8.description": "Doubao-Seed-1.8 offre une compréhension multimodale et des capacités d’agent renforcées, prenant en charge les entrées texte/image/vidéo et la mise en cache contextuelle, pour des performances supérieures dans les tâches complexes.",
438
+ "doubao-seed-code.description": "Doubao-Seed-Code est optimisé pour le codage agentique, prend en charge les entrées multimodales (texte/image/vidéo) et une fenêtre de contexte de 256k, compatible avec l’API Anthropic, adapté au codage, à la compréhension visuelle et aux flux de travail d’agents.",
439
+ "doubao-seededit-3-0-i2i-250628.description": "Le modèle d’image Doubao de ByteDance Seed prend en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il prend en charge l’édition d’image guidée par texte, avec des tailles de sortie entre 512 et 1536 sur le côté long.",
440
+ "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
441
+ "doubao-seedream-4-0-250828.description": "Seedream 4.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.",
442
+ "doubao-vision-lite-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il est performant pour l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
443
+ "doubao-vision-pro-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il est performant pour l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
444
+ "emohaa.description": "Emohaa est un modèle de santé mentale doté de compétences professionnelles en accompagnement psychologique pour aider les utilisateurs à comprendre leurs problèmes émotionnels.",
385
445
  "meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 est un modèle LLM ouvert destiné aux développeurs, chercheurs et entreprises, conçu pour les aider à créer, expérimenter et faire évoluer de manière responsable des idées d'IA générative. Faisant partie de la base de l'innovation communautaire mondiale, il est particulièrement adapté aux environnements à ressources limitées, aux appareils en périphérie et aux temps d'entraînement réduits.",
386
446
  "meta/Llama-3.2-11B-Vision-Instruct.description": "Raisonnement visuel performant sur des images haute résolution, idéal pour les applications de compréhension visuelle.",
387
447
  "meta/Llama-3.2-90B-Vision-Instruct.description": "Raisonnement visuel avancé pour les agents d'applications de compréhension visuelle.",