@lobehub/chat 1.138.1 → 1.138.3

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (135) hide show
  1. package/CHANGELOG.md +50 -0
  2. package/changelog/v1.json +18 -0
  3. package/docker-compose/local/docker-compose.yml +1 -1
  4. package/docker-compose/local/grafana/docker-compose.yml +1 -1
  5. package/docker-compose/production/grafana/docker-compose.yml +1 -1
  6. package/locales/ar/chat.json +1 -1
  7. package/locales/ar/common.json +1 -1
  8. package/locales/ar/models.json +35 -8
  9. package/locales/ar/plugin.json +1 -1
  10. package/locales/ar/welcome.json +1 -1
  11. package/locales/bg-BG/chat.json +1 -1
  12. package/locales/bg-BG/common.json +1 -1
  13. package/locales/bg-BG/models.json +35 -8
  14. package/locales/bg-BG/plugin.json +1 -1
  15. package/locales/bg-BG/welcome.json +1 -1
  16. package/locales/de-DE/chat.json +1 -1
  17. package/locales/de-DE/common.json +1 -1
  18. package/locales/de-DE/models.json +35 -8
  19. package/locales/de-DE/plugin.json +1 -1
  20. package/locales/de-DE/welcome.json +1 -1
  21. package/locales/en-US/chat.json +1 -1
  22. package/locales/en-US/common.json +1 -1
  23. package/locales/en-US/models.json +35 -8
  24. package/locales/en-US/plugin.json +1 -1
  25. package/locales/en-US/welcome.json +1 -1
  26. package/locales/es-ES/chat.json +1 -1
  27. package/locales/es-ES/common.json +1 -1
  28. package/locales/es-ES/models.json +35 -8
  29. package/locales/es-ES/plugin.json +1 -1
  30. package/locales/es-ES/welcome.json +1 -1
  31. package/locales/fa-IR/chat.json +1 -1
  32. package/locales/fa-IR/common.json +1 -1
  33. package/locales/fa-IR/models.json +35 -8
  34. package/locales/fa-IR/plugin.json +1 -1
  35. package/locales/fa-IR/welcome.json +1 -1
  36. package/locales/fr-FR/chat.json +1 -1
  37. package/locales/fr-FR/common.json +1 -1
  38. package/locales/fr-FR/models.json +35 -8
  39. package/locales/fr-FR/plugin.json +1 -1
  40. package/locales/fr-FR/welcome.json +1 -1
  41. package/locales/it-IT/chat.json +1 -1
  42. package/locales/it-IT/common.json +1 -1
  43. package/locales/it-IT/models.json +35 -8
  44. package/locales/it-IT/plugin.json +1 -1
  45. package/locales/it-IT/welcome.json +1 -1
  46. package/locales/ja-JP/chat.json +1 -1
  47. package/locales/ja-JP/common.json +1 -1
  48. package/locales/ja-JP/models.json +35 -8
  49. package/locales/ja-JP/plugin.json +1 -1
  50. package/locales/ja-JP/welcome.json +1 -1
  51. package/locales/ko-KR/chat.json +1 -1
  52. package/locales/ko-KR/common.json +1 -1
  53. package/locales/ko-KR/models.json +35 -8
  54. package/locales/ko-KR/plugin.json +1 -1
  55. package/locales/ko-KR/welcome.json +1 -1
  56. package/locales/nl-NL/chat.json +1 -1
  57. package/locales/nl-NL/common.json +1 -1
  58. package/locales/nl-NL/models.json +35 -8
  59. package/locales/nl-NL/plugin.json +1 -1
  60. package/locales/nl-NL/welcome.json +1 -1
  61. package/locales/pl-PL/chat.json +1 -1
  62. package/locales/pl-PL/common.json +1 -1
  63. package/locales/pl-PL/models.json +35 -8
  64. package/locales/pl-PL/plugin.json +1 -1
  65. package/locales/pl-PL/welcome.json +1 -1
  66. package/locales/pt-BR/chat.json +1 -1
  67. package/locales/pt-BR/common.json +1 -1
  68. package/locales/pt-BR/models.json +35 -8
  69. package/locales/pt-BR/plugin.json +1 -1
  70. package/locales/pt-BR/welcome.json +1 -1
  71. package/locales/ru-RU/chat.json +1 -1
  72. package/locales/ru-RU/common.json +1 -1
  73. package/locales/ru-RU/models.json +35 -8
  74. package/locales/ru-RU/plugin.json +1 -1
  75. package/locales/ru-RU/welcome.json +1 -1
  76. package/locales/tr-TR/chat.json +1 -1
  77. package/locales/tr-TR/common.json +1 -1
  78. package/locales/tr-TR/models.json +35 -8
  79. package/locales/tr-TR/plugin.json +1 -1
  80. package/locales/tr-TR/welcome.json +1 -1
  81. package/locales/vi-VN/chat.json +1 -1
  82. package/locales/vi-VN/common.json +1 -1
  83. package/locales/vi-VN/models.json +35 -8
  84. package/locales/vi-VN/plugin.json +1 -1
  85. package/locales/vi-VN/welcome.json +1 -1
  86. package/locales/zh-CN/common.json +1 -1
  87. package/locales/zh-CN/models.json +35 -8
  88. package/locales/zh-CN/plugin.json +1 -1
  89. package/locales/zh-CN/welcome.json +1 -1
  90. package/locales/zh-TW/chat.json +1 -1
  91. package/locales/zh-TW/common.json +1 -1
  92. package/locales/zh-TW/models.json +35 -8
  93. package/locales/zh-TW/plugin.json +1 -1
  94. package/locales/zh-TW/welcome.json +1 -1
  95. package/package.json +1 -1
  96. package/packages/const/src/branding.ts +2 -2
  97. package/packages/const/src/index.ts +1 -0
  98. package/packages/const/src/version.ts +1 -1
  99. package/packages/database/src/models/topic.ts +0 -1
  100. package/packages/database/src/repositories/aiInfra/index.ts +19 -13
  101. package/packages/obervability-otel/package.json +4 -4
  102. package/packages/prompts/CLAUDE.md +289 -43
  103. package/packages/prompts/package.json +2 -1
  104. package/packages/prompts/promptfoo/supervisor/productive/eval.yaml +51 -0
  105. package/packages/prompts/promptfoo/supervisor/productive/prompt.ts +18 -0
  106. package/packages/prompts/promptfoo/supervisor/productive/tests/basic-case.ts +54 -0
  107. package/packages/prompts/promptfoo/supervisor/productive/tests/role.ts +58 -0
  108. package/packages/prompts/promptfoo/supervisor/productive/tools.json +80 -0
  109. package/packages/prompts/src/contexts/index.ts +1 -0
  110. package/packages/prompts/src/contexts/supervisor/index.ts +2 -0
  111. package/packages/prompts/src/contexts/supervisor/makeDecision.ts +68 -0
  112. package/packages/prompts/src/contexts/supervisor/tools.ts +102 -0
  113. package/packages/prompts/src/index.ts +1 -0
  114. package/packages/types/src/aiChat.ts +9 -3
  115. package/src/app/[variants]/(auth)/next-auth/signin/AuthSignInBox.tsx +4 -4
  116. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{OpeningQuestions.tsx → AgentWelcome/OpeningQuestions.tsx} +2 -2
  117. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/index.tsx +38 -17
  118. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +2 -2
  119. package/src/app/[variants]/(main)/discover/(detail)/assistant/[...slugs]/page.tsx +1 -1
  120. package/src/app/[variants]/(main)/discover/(detail)/mcp/[slug]/page.tsx +1 -1
  121. package/src/config/modelProviders/lobehub.ts +1 -1
  122. package/src/locales/default/common.ts +1 -1
  123. package/src/locales/default/plugin.ts +1 -1
  124. package/src/locales/default/welcome.ts +1 -1
  125. package/src/server/ld.ts +1 -1
  126. package/src/server/routers/lambda/aiChat.ts +1 -1
  127. package/src/server/services/aiChat/index.test.ts +1 -1
  128. package/src/server/services/aiChat/index.ts +1 -1
  129. package/src/services/topic/client.ts +1 -1
  130. package/src/store/chat/slices/message/supervisor.test.ts +12 -5
  131. package/src/store/chat/slices/message/supervisor.ts +16 -129
  132. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/AgentsSuggest.tsx +0 -114
  133. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/QuestionSuggest.tsx +0 -104
  134. package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +0 -65
  135. /package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/AddButton.tsx +0 -0
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet provides an ideal balance of intelligence and speed for enterprise workloads. It offers maximum utility at a lower price, reliable and suitable for large-scale deployment."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, offering lightning-fast speed and advanced reasoning capabilities."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 is Anthropic's latest and most powerful model designed for handling highly complex tasks. It demonstrates outstanding performance in intelligence, fluency, and comprehension."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash is an ultra-fast multimodal deep thinking model with TPOT inference speed as low as 10ms; it supports both text and visual understanding. Its text comprehension exceeds the previous lite generation, and its visual understanding rivals competitor pro series models. It supports a 256k context window and output lengths up to 16k tokens."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite is a new multimodal deep reasoning model with adjustable reasoning effort—Minimal, Low, Medium, and High. It offers exceptional cost-performance and is an ideal choice for common tasks, supporting context windows up to 256k."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Doubao-Seed-1.6-thinking features greatly enhanced thinking capabilities. Compared to Doubao-1.5-thinking-pro, it further improves foundational skills such as coding, math, and logical reasoning, and supports visual understanding. It supports a 256k context window and output lengths up to 16k tokens."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview possesses strong complex reasoning abilities, excelling in logical reasoning, mathematics, programming, and other fields."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "GLM-4.6 (355B), the latest flagship model from Zhipu, delivers comprehensive improvements over its predecessor in advanced coding, long-text processing, reasoning, and agent capabilities. It is particularly aligned with Claude Sonnet 4 in programming performance, making it one of the top coding models in China."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash offers next-generation features and improvements, including exceptional speed, built-in tool usage, multimodal generation, and a 1 million token context window."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small is ideal for code generation, debugging, and refactoring tasks, offering minimal latency."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T is the first flagship non-thinking model in the 'Ling 2.0' series, featuring 1 trillion total parameters and approximately 50 billion active parameters per token. Built on the Ling 2.0 architecture, Ling-1T aims to push the boundaries of efficient reasoning and scalable cognition. Ling-1T-base is trained on over 20 trillion high-quality, reasoning-intensive tokens."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 is the third model in the Ling 2.0 architecture series released by Ant Group's Bailing team. It is a mixture-of-experts (MoE) model with a total of 100 billion parameters, but activates only 6.1 billion parameters per token (4.8 billion non-embedding). As a lightweight configuration model, Ling-flash-2.0 demonstrates performance comparable to or surpassing 40-billion-parameter dense models and larger MoE models across multiple authoritative benchmarks. The model aims to explore efficient pathways under the consensus that \"large models equal large parameters\" through extreme architectural design and training strategies."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 is a small-sized, high-performance large language model based on the MoE architecture. It has 16 billion total parameters but activates only 1.4 billion per token (789 million non-embedding), achieving extremely high generation speed. Thanks to the efficient MoE design and large-scale high-quality training data, despite activating only 1.4 billion parameters, Ling-mini-2.0 still delivers top-tier performance comparable to dense LLMs under 10 billion parameters and larger MoE models on downstream tasks."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T is a trillion-parameter open-source cognitive model released by the Bailing team. It is trained on the Ling 2.0 architecture and the Ling-1T-base model, with 1 trillion total parameters and 50 billion active parameters. It supports context windows up to 128K and is optimized through large-scale verifiable reward reinforcement learning."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 is a high-performance reasoning model deeply optimized based on Ling-flash-2.0-base. It employs a mixture-of-experts (MoE) architecture with a total of 100 billion parameters but activates only 6.1 billion parameters per inference. The model uses the proprietary icepop algorithm to solve the instability issues of MoE large models during reinforcement learning (RL) training, enabling continuous improvement of complex reasoning capabilities over long training cycles. Ring-flash-2.0 has achieved significant breakthroughs in challenging benchmarks such as math competitions, code generation, and logical reasoning. Its performance not only surpasses top dense models under 40 billion parameters but also rivals larger open-source MoE models and closed-source high-performance reasoning models. Although focused on complex reasoning, it also performs well in creative writing tasks. Additionally, thanks to its efficient architecture, Ring-flash-2.0 delivers strong performance with high-speed inference, significantly reducing deployment costs for reasoning models in high-concurrency scenarios."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "The Llama 3.3 instruction-tuned model is optimized for conversational scenarios, outperforming many existing open-source chat models on common industry benchmarks."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: A high-performance model in the Llama series, ideal for advanced reasoning, complex problem-solving, and instruction-following tasks."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: A high-performance Llama model optimized for scenarios requiring high throughput and low latency."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 is a next-generation model with significantly enhanced capabilities, achieving industry-leading levels in reasoning, general tasks, agent functionality, and multilingual support, while also supporting mode switching."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "The open-source version of the Tongyi Qianwen code model. The latest qwen3-coder-30b-a3b-instruct is a code generation model based on Qwen3, featuring powerful Coding Agent capabilities. It excels at tool usage and environment interaction, enabling autonomous programming with outstanding coding and general abilities."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Open-source version of Tongyi Qianwen's code model. The latest qwen3-coder-480b-a35b-instruct is a code generation model based on Qwen3, featuring powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding and general capabilities."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "A new generation of thinking mode open-source model based on Qwen3. Compared to the previous version (Tongyi Qianwen 3-235B-A22B-Thinking-2507), it features improved instruction-following capabilities and more concise model-generated summaries."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "The Qwen-Omni model accepts multimodal input including text, images, audio, and video, and generates responses in text or speech. It offers a variety of human-like voice tones, supports multilingual and dialectal speech output, and is applicable to scenarios such as text creation, visual recognition, and voice assistants."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct is a multimodal model developed by Tongyi Qianwen, supporting visual understanding and reasoning."
2943
+ "description": "Qwen3 VL 235B A22B Instruct Mode (non-thinking), designed for instruction-following scenarios without deep reasoning, while maintaining strong visual understanding capabilities."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking is a multimodal reasoning model from Tongyi Qianwen, designed for visual understanding and reasoning tasks."
2946
+ "description": "Qwen3 VL 235B A22B Thinking Mode (open-source version), tailored for complex reasoning and long video understanding tasks, offering top-tier visual and textual reasoning performance."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B Instruct Mode (non-thinking), designed for general instruction-following scenarios, with strong multimodal understanding and generation capabilities."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "The open-source Qwen-VL model provides visual understanding and text generation capabilities. It supports agent interaction, visual encoding, spatial awareness, long video comprehension, and deep reasoning, with enhanced text recognition and multilingual support in complex scenarios."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B Instruct Mode (non-thinking), suitable for standard multimodal generation and recognition tasks."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B Thinking Mode, designed for lightweight multimodal reasoning and interaction scenarios, while retaining long-context understanding capabilities."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash: a lightweight, high-speed inference version ideal for latency-sensitive or high-volume request scenarios."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL is a text generation model with visual (image) understanding capabilities. It can perform OCR (image text recognition) and further summarize and reason, such as extracting attributes from product photos or solving problems based on exercise images."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Installed",
463
463
  "mcp": "MCP Plugins",
464
- "old": "LobeChat Plugins"
464
+ "old": "LobeHub Plugins"
465
465
  },
466
466
  "title": "Plugin Store"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "Learn More",
362
- "title": "Frequently Asked Questions:"
362
+ "title": "Try asking:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "Good Afternoon",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "tú",
398
398
  "zenMode": "Modo de concentración"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "Eliminar en lote",
32
32
  "blog": "Blog de productos",
33
33
  "branching": "Crear subtemas",
34
- "branchingDisable": "La función de «subtemas» solo está disponible en la versión del servidor. Si necesita esta función, cambie al modo de implementación del servidor o utilice LobeChat Cloud.",
34
+ "branchingDisable": "La función de \"subtemas\" no está disponible en el modo actual. Para utilizar esta función, cambia al modo de base de datos Postgres/Pglite o utiliza LobeHub Cloud.",
35
35
  "branchingRequiresSavedTopic": "El tema actual no está guardado, guárdalo para poder usar la función de subtemas",
36
36
  "cancel": "Cancelar",
37
37
  "changelog": "Registro de cambios",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet proporciona un equilibrio ideal entre inteligencia y velocidad para cargas de trabajo empresariales. Ofrece la máxima utilidad a un costo más bajo, siendo fiable y adecuado para implementaciones a gran escala."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con una velocidad relámpago y una capacidad de razonamiento ampliada."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 es el modelo más potente y reciente de Anthropic para manejar tareas altamente complejas. Sobresale en rendimiento, inteligencia, fluidez y comprensión."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash es un modelo multimodal de pensamiento profundo con velocidad de inferencia extrema, TPOT de solo 10 ms; soporta comprensión tanto textual como visual, con capacidad de comprensión textual superior a la generación lite anterior y comprensión visual comparable a los modelos pro de la competencia. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 16k tokens."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de pensamiento profundo que permite ajustar el nivel de razonamiento (reasoning effort) en cuatro modos: Mínimo, Bajo, Medio y Alto. Ofrece una excelente relación calidad-precio y es la mejor opción para tareas comunes, con una ventana de contexto de hasta 256k."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "El modelo Doubao-Seed-1.6-thinking tiene una capacidad de pensamiento significativamente mejorada. En comparación con Doubao-1.5-thinking-pro, mejora aún más en habilidades básicas como programación, matemáticas y razonamiento lógico, y soporta comprensión visual. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 16k tokens."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview posee una poderosa capacidad de razonamiento complejo, destacándose en áreas como razonamiento lógico, matemáticas y programación."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "El modelo insignia más reciente de Zhipu, GLM-4.6 (355B), supera ampliamente a su predecesor en codificación avanzada, procesamiento de textos largos, razonamiento y capacidades de agentes inteligentes. En particular, su habilidad para programar está a la par con Claude Sonnet 4, consolidándose como el modelo de codificación líder en China."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash ofrece funcionalidades de próxima generación y mejoras, incluyendo velocidad sobresaliente, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small es la opción ideal para tareas de generación, depuración y refactorización de código, con latencia mínima."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T es el primer modelo insignia sin razonamiento de la serie \"Ling 2.0\", con un total de un billón de parámetros y aproximadamente 50 mil millones de parámetros activos por token. Construido sobre la arquitectura Ling 2.0, Ling-1T está diseñado para superar los límites del razonamiento eficiente y la cognición escalable. Ling-1T-base ha sido entrenado con más de 20 billones de tokens de alta calidad y con alta densidad de razonamiento."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 es el tercer modelo de la serie Ling 2.0 basado en la arquitectura MoE, lanzado por el equipo Bailing de Ant Group. Cuenta con 100 mil millones de parámetros totales, pero solo activa 6.1 mil millones por token (4.8 mil millones sin incluir embeddings). Como un modelo de configuración ligera, Ling-flash-2.0 demuestra en múltiples evaluaciones oficiales un rendimiento comparable o superior a modelos densos de 40 mil millones y a modelos MoE de mayor escala. Este modelo busca explorar caminos eficientes bajo el consenso de que un modelo grande equivale a muchos parámetros, mediante un diseño arquitectónico y estrategias de entrenamiento extremas."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 es un modelo de lenguaje grande de alto rendimiento y tamaño reducido basado en arquitectura MoE. Cuenta con 16 mil millones de parámetros totales, pero solo activa 1.4 mil millones por token (789 millones sin incluir embeddings), logrando una velocidad de generación muy alta. Gracias a un diseño MoE eficiente y a un entrenamiento masivo con datos de alta calidad, Ling-mini-2.0 ofrece un rendimiento de primer nivel en tareas downstream, comparable a modelos densos de menos de 10 mil millones y a modelos MoE de mayor escala."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T es un modelo de pensamiento de código abierto a escala de un billón de parámetros, lanzado por el equipo Bailing. Basado en la arquitectura Ling 2.0 y el modelo base Ling-1T, cuenta con un total de un billón de parámetros y 50 mil millones de parámetros activos, y admite una ventana de contexto de hasta 128K. El modelo ha sido optimizado mediante aprendizaje por refuerzo con recompensas verificables a gran escala."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 es un modelo de pensamiento de alto rendimiento profundamente optimizado basado en Ling-flash-2.0-base. Utiliza arquitectura MoE con 100 mil millones de parámetros totales, pero solo activa 6.1 mil millones en cada inferencia. Gracias al algoritmo innovador icepop, resuelve la inestabilidad de los grandes modelos MoE en entrenamiento por refuerzo (RL), mejorando continuamente su capacidad de razonamiento complejo en entrenamientos prolongados. Ring-flash-2.0 ha logrado avances significativos en competencias matemáticas, generación de código y razonamiento lógico, superando modelos densos de hasta 40 mil millones de parámetros y equiparándose a modelos MoE de mayor escala y modelos de pensamiento de alto rendimiento cerrados. Aunque está enfocado en razonamiento complejo, también destaca en tareas creativas de escritura. Además, su diseño eficiente permite un rendimiento rápido y reduce significativamente los costos de despliegue en escenarios de alta concurrencia."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "El modelo de instrucción Llama 3.3, optimizado para escenarios de diálogo, supera a muchos modelos de chat de código abierto existentes en pruebas de referencia comunes de la industria."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: un modelo de alto rendimiento de la serie Llama, ideal para razonamiento avanzado, resolución de problemas complejos y tareas de seguimiento de instrucciones."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: un modelo de alto rendimiento de la serie Llama, diseñado para escenarios que requieren alto rendimiento y baja latencia."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 es un modelo de nueva generación con capacidades significativamente mejoradas, alcanzando niveles líderes en la industria en razonamiento, generalidad, agentes y multilingüismo, y soporta el cambio de modo de pensamiento."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "Versión de código abierto del modelo de codificación Tongyi Qianwen. El nuevo qwen3-coder-30b-a3b-instruct, basado en Qwen3, es un modelo de generación de código con potentes capacidades como Agente de Programación, especializado en llamadas a herramientas e interacción con entornos, capaz de programar de forma autónoma con habilidades de codificación sobresalientes y capacidades generales."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Versión de código abierto del modelo de código Tongyi Qianwen. El más reciente qwen3-coder-480b-a35b-instruct está basado en Qwen3, con fuertes capacidades de agente de codificación, experto en llamadas a herramientas e interacción con entornos, capaz de programación autónoma y con habilidades sobresalientes de código y capacidades generales."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "Modelo de código abierto de nueva generación basado en Qwen3 en modo reflexivo, que mejora la capacidad de seguir instrucciones y ofrece respuestas más concisas en comparación con la versión anterior (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "El modelo Qwen-Omni puede recibir entradas combinadas de texto, imágenes, audio y video, y generar respuestas en forma de texto o voz. Ofrece múltiples voces humanizadas, admite salida de voz en varios idiomas y dialectos, y puede aplicarse en escenarios como creación de texto, reconocimiento visual y asistentes de voz."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct es un modelo multimodal desarrollado por Tongyi Qianwen, compatible con comprensión visual y razonamiento."
2943
+ "description": "Qwen3 VL 235B A22B en modo sin razonamiento (Instruct), adecuado para escenarios de instrucciones sin razonamiento, manteniendo una potente capacidad de comprensión visual."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking es un modelo de razonamiento multimodal desarrollado por Tongyi Qianwen, compatible con comprensión visual y razonamiento."
2946
+ "description": "Qwen3 VL 235B A22B en modo de razonamiento (versión de código abierto), diseñado para escenarios complejos que requieren razonamiento avanzado y comprensión de videos largos, ofreciendo capacidades de razonamiento visual + textual de primer nivel."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B en modo sin razonamiento (Instruct), orientado a escenarios comunes de seguimiento de instrucciones, manteniendo una alta capacidad de comprensión y generación multimodal."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL (versión de código abierto) ofrece capacidades de comprensión visual y generación de texto, compatible con interacción de agentes, codificación visual, percepción espacial, comprensión de videos largos y pensamiento profundo, con un sólido reconocimiento de texto y soporte multilingüe en escenarios complejos."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B en modo sin razonamiento (Instruct), adecuado para tareas comunes de generación y reconocimiento multimodal."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B en modo de razonamiento, orientado a escenarios ligeros de razonamiento e interacción multimodal, manteniendo la capacidad de comprensión de contextos largos."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash: versión ligera de inferencia rápida, ideal para escenarios sensibles a la latencia o con solicitudes en gran volumen."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL es un modelo generativo de texto con capacidad de comprensión visual (imágenes). No solo puede realizar OCR (reconocimiento de texto en imágenes), sino también resumir y razonar, por ejemplo, extrayendo atributos de fotos de productos o resolviendo problemas a partir de imágenes de ejercicios."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Instalados",
463
463
  "mcp": "Plugins MCP",
464
- "old": "Plugins LobeChat"
464
+ "old": "Complementos de LobeHub"
465
465
  },
466
466
  "title": "Tienda de plugins"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "Saber más",
362
- "title": "Preguntas frecuentes:"
362
+ "title": "Intenta preguntar:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "Buenas tardes",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "شما",
398
398
  "zenMode": "حالت تمرکز"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "حذف دسته‌ای",
32
32
  "blog": "وبلاگ محصولات",
33
33
  "branching": "ایجاد زیرموضوع",
34
- "branchingDisable": "ویژگی «زیرموضوع» تنها در نسخه سرور قابل استفاده است، اگر به این ویژگی نیاز دارید، لطفاً به حالت استقرار سرور تغییر دهید یا از LobeChat Cloud استفاده کنید.",
34
+ "branchingDisable": "ویژگی «زیرموضوع» در حالت فعلی در دسترس نیست. برای استفاده از این ویژگی، لطفاً به حالت پایگاه داده Postgres/Pglite تغییر دهید یا از LobeHub Cloud استفاده کنید.",
35
35
  "branchingRequiresSavedTopic": "موضوع فعلی ذخیره نشده است، پس از ذخیره می‌توانید از قابلیت زیرموضوع استفاده کنید",
36
36
  "cancel": "لغو",
37
37
  "changelog": "تغییرات",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet تعادلی ایده‌آل بین هوش و سرعت برای بارهای کاری سازمانی فراهم می‌کند. این محصول با قیمتی پایین‌تر حداکثر بهره‌وری را ارائه می‌دهد، قابل اعتماد است و برای استقرار در مقیاس بزرگ مناسب می‌باشد."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر گسترش‌یافته ارائه می‌شود."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 جدیدترین و قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوشمندی، روانی و درک توانایی برجسته‌ای دارد."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "مدل تفکر عمیق چندرسانه‌ای Doubao-Seed-1.6-flash با سرعت استنتاج بسیار بالا، TPOT تنها ۱۰ میلی‌ثانیه است؛ همچنین از درک متن و تصویر پشتیبانی می‌کند، توانایی درک متنی آن از نسل قبلی lite بهتر است و درک تصویری آن با مدل‌های pro رقبا برابری می‌کند. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی می‌کند و طول خروجی تا ۱۶ هزار توکن را امکان‌پذیر می‌سازد."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite یک مدل چندرسانه‌ای جدید با قابلیت تفکر عمیق است که از تنظیم سطح تلاش استدلال (reasoning effort) در چهار حالت Minimal، Low، Medium و High پشتیبانی می‌کند. این مدل با بهره‌وری بالا، انتخابی ایده‌آل برای وظایف رایج است و از پنجره متنی تا ۲۵۶ هزار توکن پشتیبانی می‌کند."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "مدل Doubao-Seed-1.6-thinking با توانایی تفکر به‌طور قابل توجهی تقویت شده است، نسبت به Doubao-1.5-thinking-pro در مهارت‌های پایه‌ای مانند برنامه‌نویسی، ریاضیات و استدلال منطقی پیشرفت داشته و از درک تصویری پشتیبانی می‌کند. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی می‌کند و طول خروجی تا ۱۶ هزار توکن را امکان‌پذیر می‌سازد."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview دارای توانایی‌های پیچیده استدلال است و در زمینه‌های استدلال منطقی، ریاضیات، برنامه‌نویسی و غیره عملکرد عالی دارد."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "جدیدترین مدل پرچم‌دار Zhipu، GLM-4.6 (355B)، در زمینه‌های برنامه‌نویسی پیشرفته، پردازش متون طولانی، استدلال و توانایی‌های عامل هوشمند، به‌طور کامل از نسل قبلی پیشی گرفته است. به‌ویژه در توانایی کدنویسی با Claude Sonnet 4 هم‌تراز شده و به یکی از برترین مدل‌های کدنویسی در داخل کشور تبدیل شده است."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash ویژگی‌ها و قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانه‌ای و پنجره زمینه 1 میلیون توکن."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small انتخاب ایده‌آل برای تولید، اشکال‌زدایی و بازسازی کد با کمترین تأخیر است."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T نخستین مدل پرچم‌دار از سری «灵 2.0» است که در دسته مدل‌های non-thinking قرار دارد. این مدل دارای یک تریلیون پارامتر کلی و حدود ۵۰ میلیارد پارامتر فعال به ازای هر توکن است. بر پایه معماری 灵 2.0 ساخته شده و هدف آن شکستن مرزهای استدلال کارآمد و شناخت مقیاس‌پذیر است. Ling-1T-base با بیش از ۲۰ تریلیون توکن با کیفیت بالا و متمرکز بر استدلال آموزش دیده است."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 سومین مدل از سری معماری Ling 2.0 است که توسط تیم Bailing شرکت Ant Group منتشر شده است. این مدل یک مدل متخصص ترکیبی (MoE) با ۱۰۰ میلیارد پارامتر کل است که در هر توکن تنها ۶.۱ میلیارد پارامتر فعال می‌شوند (۴.۸ میلیارد غیر بردار کلمه). به عنوان یک مدل با پیکربندی سبک، Ling-flash-2.0 در چندین ارزیابی معتبر عملکردی برابر یا حتی فراتر از مدل‌های متراکم ۴۰ میلیارد پارامتری و مدل‌های MoE بزرگ‌تر نشان داده است. هدف این مدل کشف مسیرهای کارآمد در چارچوب «مدل بزرگ برابر است با پارامتر بزرگ» از طریق طراحی معماری و استراتژی‌های آموزش بهینه است."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 یک مدل زبان بزرگ کوچک‌حجم و با عملکرد بالا مبتنی بر معماری MoE است. این مدل دارای ۱۶ میلیارد پارامتر کل است اما در هر توکن تنها ۱.۴ میلیارد پارامتر فعال می‌شوند (۷۸۹ میلیون غیر بردار کلمه)، که سرعت تولید بسیار بالایی را فراهم می‌کند. به لطف طراحی کارآمد MoE و داده‌های آموزشی بزرگ و با کیفیت، با وجود فعال بودن تنها ۱.۴ میلیارد پارامتر، Ling-mini-2.0 در وظایف پایین‌دستی عملکردی در سطح مدل‌های متراکم زیر ۱۰ میلیارد و مدل‌های MoE بزرگ‌تر ارائه می‌دهد."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T یک مدل متن‌باز با مقیاس تریلیونی است که توسط تیم Bailing توسعه یافته است. این مدل بر پایه معماری Ling 2.0 و مدل پایه Ling-1T-base آموزش دیده و دارای یک تریلیون پارامتر کلی و ۵۰ میلیارد پارامتر فعال است. همچنین از پنجره متنی تا ۱۲۸ هزار توکن پشتیبانی می‌کند و با استفاده از یادگیری تقویتی مبتنی بر پاداش‌های قابل تأیید در مقیاس وسیع بهینه‌سازی شده است."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 مدلی با عملکرد بالا برای تفکر است که بر پایه Ling-flash-2.0-base بهینه‌سازی عمیق شده است. این مدل از معماری متخصص ترکیبی (MoE) با ۱۰۰ میلیارد پارامتر کل بهره می‌برد اما در هر استنتاج تنها ۶.۱ میلیارد پارامتر فعال می‌شوند. این مدل با الگوریتم ابتکاری icepop مشکل ناپایداری مدل‌های بزرگ MoE در آموزش تقویتی (RL) را حل کرده و توانایی استنتاج پیچیده آن در طول آموزش‌های بلندمدت بهبود می‌یابد. Ring-flash-2.0 در مسابقات ریاضی، تولید کد و استدلال منطقی در چندین بنچمارک دشوار پیشرفت قابل توجهی داشته است و عملکرد آن نه تنها از مدل‌های متراکم برتر زیر ۴۰ میلیارد پارامتر فراتر رفته، بلکه با مدل‌های MoE متن‌باز بزرگ‌تر و مدل‌های تفکر با عملکرد بالا و بسته رقابت می‌کند. اگرچه این مدل بر استنتاج پیچیده تمرکز دارد، در وظایف خلاقانه نوشتاری نیز عملکرد خوبی دارد. علاوه بر این، به لطف طراحی معماری کارآمد، Ring-flash-2.0 ضمن ارائه عملکرد قدرتمند، استنتاج سریع را ممکن ساخته و هزینه استقرار مدل‌های تفکر در شرایط بار بالا را به طور قابل توجهی کاهش می‌دهد."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "مدل آموزشی لاما ۳.۳ برای صحنه‌های گفت‌وگو بهینه‌سازی شده است و در معیارهای صنعتی معمول، بسیاری از مدل‌های چت منبع باز موجود را در برمی‌آید."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick: مدلی قدرتمند از سری Llama، مناسب برای استدلال پیشرفته، حل مسائل پیچیده و پیروی از دستورات."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout: مدلی قدرتمند از سری Llama، مناسب برای سناریوهایی با نیاز به بازدهی بالا و تأخیر پایین."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 یک مدل جدید نسل جدید با توانایی‌های به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی می‌کند."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "نسخه متن‌باز مدل کدنویسی Qwen. مدل جدید qwen3-coder-30b-a3b-instruct بر پایه Qwen3 ساخته شده و دارای توانایی‌های قدرتمند در نقش عامل کدنویس (Coding Agent) است. این مدل در فراخوانی ابزارها و تعامل با محیط مهارت دارد و ضمن حفظ توانایی‌های عمومی، قابلیت برنامه‌نویسی خودکار و تولید کد پیشرفته را ارائه می‌دهد."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "نسخه متن‌باز مدل کدنویسی Tongyi Qianwen. جدیدترین مدل qwen3-coder-480b-a35b-instruct مبتنی بر Qwen3 است و دارای توانایی‌های قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامه‌نویسی خودکار با توانایی کدنویسی برجسته و همچنین توانایی‌های عمومی است."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "مدل متن‌باز نسل جدید با حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Thinking-2507) در پیروی از دستورات پیشرفت داشته و پاسخ‌های مدل خلاصه‌تر شده‌اند."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "مدل Qwen-Omni قادر است ورودی‌هایی از انواع مختلف مانند متن، تصویر، صدا و ویدیو را دریافت کرده و پاسخ‌هایی به صورت متن یا گفتار تولید کند. این مدل از صداهای شبه‌انسانی متنوع، چندزبانگی و گویش‌های مختلف پشتیبانی می‌کند و در کاربردهایی مانند تولید محتوا، تشخیص بصری و دستیار صوتی قابل استفاده است."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct یک مدل چندرسانه‌ای است که توسط Tongyi Qianwen توسعه یافته و از درک و استدلال بصری پشتیبانی می‌کند."
2943
+ "description": "Qwen3 VL 235B A22B در حالت غیرتفکری (Instruct) طراحی شده و برای سناریوهای دستورالعملی بدون نیاز به استدلال مناسب است، در حالی که توانایی قوی در درک بصری را حفظ می‌کند."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking یک مدل چندرسانه‌ای استدلالی است که توسط Tongyi Qianwen توسعه یافته و از درک و استدلال بصری پشتیبانی می‌کند."
2946
+ "description": "Qwen3 VL 235B A22B در حالت تفکری (نسخه متن‌باز) برای سناریوهای پیچیده با نیاز به استدلال قوی و درک ویدیوهای طولانی طراحی شده و توانایی استدلال ترکیبی متن و تصویر در سطح بالا را ارائه می‌دهد."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B در حالت غیرتفکری (Instruct) برای سناریوهای معمول پیروی از دستورالعمل طراحی شده و توانایی درک و تولید چندرسانه‌ای بالایی را حفظ می‌کند."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL (نسخه متن‌باز) توانایی درک بصری و تولید متن را ارائه می‌دهد و از تعامل با عامل‌ها، رمزگذاری بصری، درک فضایی، تحلیل ویدیوهای طولانی و تفکر عمیق پشتیبانی می‌کند. همچنین در سناریوهای پیچیده، توانایی تشخیص متن و پشتیبانی چندزبانه قوی‌تری دارد."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B در حالت غیرتفکری (Instruct) برای وظایف معمول تولید و شناسایی چندرسانه‌ای مناسب است."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B در حالت تفکری برای سناریوهای سبک استدلال چندرسانه‌ای و تعامل طراحی شده و توانایی درک متون با زمینه طولانی را حفظ می‌کند."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash نسخه‌ای سبک و با سرعت بالای استدلال است که برای سناریوهای حساس به تأخیر یا درخواست‌های حجیم مناسب می‌باشد."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL مدلی برای تولید متن با قابلیت درک بصری (تصویر) است که نه تنها می‌تواند OCR (تشخیص متن در تصویر) انجام دهد، بلکه قادر به خلاصه‌سازی و استنتاج بیشتر نیز هست، مانند استخراج ویژگی‌ها از عکس محصولات یا حل مسائل بر اساس تصاویر تمرین."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "نصب شده",
463
463
  "mcp": "افزونه MCP",
464
- "old": "افزونه LobeChat"
464
+ "old": "افزونه‌های LobeHub"
465
465
  },
466
466
  "title": "فروشگاه افزونه"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "بیشتر بدانید",
362
- "title": "سوالات متداول:"
362
+ "title": "سعی کن بپرسی:"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "عصر بخیر",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "vous",
398
398
  "zenMode": "Mode de concentration"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "Suppression en masse",
32
32
  "blog": "Blog des produits",
33
33
  "branching": "Créer un sous-sujet",
34
- "branchingDisable": "La fonction « sous-sujet » n'est disponible que dans la version serveur. Si vous avez besoin de cette fonctionnalité, veuillez passer en mode de déploiement serveur ou utiliser LobeChat Cloud.",
34
+ "branchingDisable": "La fonction « Sous-sujets » nest pas disponible dans le mode actuel. Pour l’utiliser, veuillez passer en mode base de données Postgres/Pglite ou utiliser LobeHub Cloud.",
35
35
  "branchingRequiresSavedTopic": "Le sujet actuel n'est pas enregistré, veuillez enregistrer avant d'utiliser la fonction de sous-sujet",
36
36
  "cancel": "Annuler",
37
37
  "changelog": "Journal des modifications",
@@ -767,6 +767,9 @@
767
767
  "claude-3-sonnet-20240229": {
768
768
  "description": "Claude 3 Sonnet offre un équilibre idéal entre intelligence et vitesse pour les charges de travail d'entreprise. Il fournit une utilité maximale à un coût inférieur, fiable et adapté à un déploiement à grande échelle."
769
769
  },
770
+ "claude-haiku-4-5-20251001": {
771
+ "description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, offrant une vitesse fulgurante et des capacités de raisonnement étendues."
772
+ },
770
773
  "claude-opus-4-1-20250805": {
771
774
  "description": "Claude Opus 4.1 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il se distingue par ses performances, son intelligence, sa fluidité et sa capacité de compréhension exceptionnelles."
772
775
  },
@@ -1148,6 +1151,9 @@
1148
1151
  "doubao-seed-1.6-flash": {
1149
1152
  "description": "Doubao-Seed-1.6-flash est un modèle multimodal de réflexion profonde à vitesse d'inférence extrême, avec un TPOT de seulement 10 ms ; il supporte à la fois la compréhension textuelle et visuelle, avec une capacité de compréhension textuelle supérieure à la génération lite précédente, et une compréhension visuelle comparable aux modèles pro des concurrents. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
1150
1153
  },
1154
+ "doubao-seed-1.6-lite": {
1155
+ "description": "Doubao-Seed-1.6-lite est un tout nouveau modèle multimodal de raisonnement profond, avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé). Il offre un excellent rapport qualité-prix et constitue le meilleur choix pour les tâches courantes, avec une fenêtre de contexte allant jusqu'à 256k."
1156
+ },
1151
1157
  "doubao-seed-1.6-thinking": {
1152
1158
  "description": "Le modèle Doubao-Seed-1.6-thinking a une capacité de réflexion considérablement renforcée. Par rapport à Doubao-1.5-thinking-pro, il améliore davantage les compétences fondamentales telles que le codage, les mathématiques et le raisonnement logique, tout en supportant la compréhension visuelle. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
1153
1159
  },
@@ -1541,9 +1547,6 @@
1541
1547
  "glm-zero-preview": {
1542
1548
  "description": "GLM-Zero-Preview possède de puissantes capacités de raisonnement complexe, se distinguant dans les domaines du raisonnement logique, des mathématiques et de la programmation."
1543
1549
  },
1544
- "glm4.6:355b": {
1545
- "description": "Le tout dernier modèle phare de Zhipu, le GLM-4.6 (355B), surpasse largement ses prédécesseurs en matière de codage avancé, de traitement de longs textes, de raisonnement et de capacités d'agents intelligents. Il est particulièrement performant en programmation, atteignant le niveau de Claude Sonnet 4, ce qui en fait l’un des meilleurs modèles de codage en Chine."
1546
- },
1547
1550
  "google/gemini-2.0-flash": {
1548
1551
  "description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
1549
1552
  },
@@ -1934,12 +1937,18 @@
1934
1937
  "inception/mercury-coder-small": {
1935
1938
  "description": "Mercury Coder Small est idéal pour les tâches de génération, débogage et refactorisation de code, avec une latence minimale."
1936
1939
  },
1940
+ "inclusionAI/Ling-1T": {
1941
+ "description": "Ling-1T est le premier modèle phare de la série \"Ling 2.0\", un modèle non-réfléchissant doté de 1 000 milliards de paramètres totaux et environ 50 milliards de paramètres actifs par token. Construit sur l'architecture Ling 2.0, Ling-1T vise à repousser les limites du raisonnement efficace et de la cognition évolutive. Ling-1T-base a été entraîné sur plus de 20 000 milliards de tokens de haute qualité et riches en raisonnement."
1942
+ },
1937
1943
  "inclusionAI/Ling-flash-2.0": {
1938
1944
  "description": "Ling-flash-2.0 est le troisième modèle de la série d'architectures Ling 2.0 publié par l'équipe Bailing du groupe Ant. C'est un modèle d'experts mixtes (MoE) avec un total de 100 milliards de paramètres, mais n'activant que 6,1 milliards de paramètres par token (dont 4,8 milliards hors embeddings). En tant que modèle léger, Ling-flash-2.0 affiche des performances comparables voire supérieures à celles des modèles denses de 40 milliards de paramètres et des modèles MoE de plus grande taille dans plusieurs évaluations de référence reconnues. Ce modèle vise à explorer des voies d'efficacité sous le consensus « grand modèle = grand nombre de paramètres » grâce à une conception d'architecture et des stratégies d'entraînement optimales."
1939
1945
  },
1940
1946
  "inclusionAI/Ling-mini-2.0": {
1941
1947
  "description": "Ling-mini-2.0 est un modèle de langage de grande taille compact et performant basé sur l'architecture MoE. Il possède 16 milliards de paramètres au total, mais n'active que 1,4 milliard par token (789 millions hors embeddings), permettant une vitesse de génération très élevée. Grâce à une conception MoE efficace et à un entraînement massif sur des données de haute qualité, Ling-mini-2.0 offre des performances de pointe sur les tâches en aval, comparables à celles des modèles denses de moins de 10 milliards de paramètres et des modèles MoE plus grands."
1942
1948
  },
1949
+ "inclusionAI/Ring-1T": {
1950
+ "description": "Ring-1T est un modèle open source à l’échelle du billion de paramètres, développé par l’équipe Bailing. Il est basé sur l’architecture Ling 2.0 et le modèle de base Ling-1T, avec un total de 1 000 milliards de paramètres et 50 milliards de paramètres actifs. Il prend en charge une fenêtre de contexte allant jusqu’à 128K et a été optimisé via un apprentissage par renforcement avec récompenses vérifiables à grande échelle."
1951
+ },
1943
1952
  "inclusionAI/Ring-flash-2.0": {
1944
1953
  "description": "Ring-flash-2.0 est un modèle de réflexion haute performance profondément optimisé à partir de Ling-flash-2.0-base. Il utilise une architecture d'experts mixtes (MoE) avec un total de 100 milliards de paramètres, mais n'active que 6,1 milliards de paramètres à chaque inférence. Ce modèle résout, grâce à l'algorithme innovant icepop, l'instabilité des grands modèles MoE lors de l'entraînement par apprentissage par renforcement (RL), permettant une amélioration continue des capacités de raisonnement complexe sur de longues périodes d'entraînement. Ring-flash-2.0 a réalisé des avancées significatives dans plusieurs benchmarks difficiles tels que les compétitions mathématiques, la génération de code et le raisonnement logique. Ses performances surpassent non seulement les meilleurs modèles denses de moins de 40 milliards de paramètres, mais rivalisent aussi avec des modèles MoE open source plus grands et des modèles de réflexion propriétaires haute performance. Bien que focalisé sur le raisonnement complexe, il excelle également dans les tâches de création littéraire. De plus, grâce à sa conception efficace, Ring-flash-2.0 offre des performances puissantes tout en assurant une inférence rapide, réduisant considérablement les coûts de déploiement dans des scénarios à forte concurrence."
1945
1954
  },
@@ -2036,9 +2045,6 @@
2036
2045
  "llama-3.3-instruct": {
2037
2046
  "description": "Le modèle d'instructions affiné Llama 3.3 est optimisé pour les scénarios de dialogue, surpassant de nombreux modèles de chat open source existants dans les tests de référence courants de l'industrie."
2038
2047
  },
2039
- "llama-4-maverick-17b-128e-instruct": {
2040
- "description": "Llama 4 Maverick : un modèle haute performance de la série Llama, idéal pour le raisonnement avancé, la résolution de problèmes complexes et les tâches de suivi d'instructions."
2041
- },
2042
2048
  "llama-4-scout-17b-16e-instruct": {
2043
2049
  "description": "Llama 4 Scout : un modèle haute performance de la série Llama, conçu pour les scénarios nécessitant un haut débit et une faible latence."
2044
2050
  },
@@ -2906,6 +2912,9 @@
2906
2912
  "qwen3-8b": {
2907
2913
  "description": "Qwen3 est un modèle de nouvelle génération avec des capacités considérablement améliorées, atteignant des niveaux de pointe dans plusieurs compétences clés telles que le raisonnement, l'universalité, l'agent et le multilingue, tout en prenant en charge le changement de mode de pensée."
2908
2914
  },
2915
+ "qwen3-coder-30b-a3b-instruct": {
2916
+ "description": "Version open source du modèle de génération de code Qwen. Le dernier qwen3-coder-30b-a3b-instruct, basé sur Qwen3, est un modèle puissant de génération de code doté de capacités avancées d’agent de codage. Il excelle dans l’appel d’outils et l’interaction avec l’environnement, permettant une programmation autonome tout en conservant des compétences générales solides."
2917
+ },
2909
2918
  "qwen3-coder-480b-a35b-instruct": {
2910
2919
  "description": "Version open source du modèle de code Tongyi Qianwen. Le dernier qwen3-coder-480b-a35b-instruct est un modèle de génération de code basé sur Qwen3, doté de puissantes capacités d'agent de codage, expert en appels d'outils et interactions environnementales, capable de programmation autonome avec d'excellentes compétences en code tout en conservant des capacités générales."
2911
2920
  },
@@ -2927,11 +2936,29 @@
2927
2936
  "qwen3-next-80b-a3b-thinking": {
2928
2937
  "description": "Modèle open source de nouvelle génération en mode réflexif basé sur Qwen3, avec une meilleure conformité aux instructions et des réponses plus concises dans les résumés par rapport à la version précédente (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
2929
2938
  },
2939
+ "qwen3-omni-flash": {
2940
+ "description": "Le modèle Qwen-Omni accepte des entrées combinées de texte, image, audio et vidéo, et génère des réponses sous forme de texte ou de voix. Il propose plusieurs voix synthétiques réalistes, prend en charge plusieurs langues et dialectes, et peut être utilisé dans des scénarios tels que la création de contenu, la reconnaissance visuelle et les assistants vocaux."
2941
+ },
2930
2942
  "qwen3-vl-235b-a22b-instruct": {
2931
- "description": "Qwen3 VL 235B A22B Instruct est un modèle multimodal lancé par Tongyi Qianwen, prenant en charge la compréhension et le raisonnement visuels."
2943
+ "description": "Qwen3 VL 235B A22B en mode non-réfléchissant (Instruct), conçu pour les scénarios d'instructions simples tout en conservant de puissantes capacités de compréhension visuelle."
2932
2944
  },
2933
2945
  "qwen3-vl-235b-a22b-thinking": {
2934
- "description": "Qwen3 VL 235B A22B Thinking est un modèle de raisonnement multimodal lancé par Tongyi Qianwen, prenant en charge la compréhension et le raisonnement visuels."
2946
+ "description": "Qwen3 VL 235B A22B en mode réfléchi (version open source), offre des capacités de raisonnement visuel et textuel de pointe pour les scénarios complexes nécessitant une compréhension approfondie et un raisonnement sur de longues vidéos."
2947
+ },
2948
+ "qwen3-vl-30b-a3b-instruct": {
2949
+ "description": "Qwen3 VL 30B en mode non-réfléchissant (Instruct), adapté aux scénarios d'instructions générales, avec de solides capacités de compréhension et de génération multimodales."
2950
+ },
2951
+ "qwen3-vl-30b-a3b-thinking": {
2952
+ "description": "Qwen-VL (version open source) offre des capacités de compréhension visuelle et de génération de texte, prenant en charge l’interaction avec des agents, l’encodage visuel, la perception spatiale, la compréhension de longues vidéos et le raisonnement approfondi. Il excelle également dans la reconnaissance de texte complexe et le support multilingue dans des contextes complexes."
2953
+ },
2954
+ "qwen3-vl-8b-instruct": {
2955
+ "description": "Qwen3 VL 8B en mode non-réfléchissant (Instruct), idéal pour les tâches courantes de génération et de reconnaissance multimodales."
2956
+ },
2957
+ "qwen3-vl-8b-thinking": {
2958
+ "description": "Qwen3 VL 8B en mode réfléchi, conçu pour des scénarios légers de raisonnement et d’interaction multimodale, tout en conservant une bonne compréhension des longs contextes."
2959
+ },
2960
+ "qwen3-vl-flash": {
2961
+ "description": "Qwen3 VL Flash : version allégée à inférence rapide, idéale pour les scénarios sensibles à la latence ou les requêtes en grand volume."
2935
2962
  },
2936
2963
  "qwen3-vl-plus": {
2937
2964
  "description": "Tongyi Qianwen VL est un modèle de génération de texte doté de capacités de compréhension visuelle (images). Il peut non seulement effectuer de l'OCR (reconnaissance de texte sur images), mais aussi résumer et raisonner davantage, par exemple extraire des attributs à partir de photos de produits ou résoudre des exercices à partir d'images."
@@ -461,7 +461,7 @@
461
461
  "tabs": {
462
462
  "installed": "Installé",
463
463
  "mcp": "Plugin MCP",
464
- "old": "Plugin LobeChat"
464
+ "old": "Extensions LobeHub"
465
465
  },
466
466
  "title": "Magasin de plugins"
467
467
  },
@@ -359,7 +359,7 @@
359
359
  },
360
360
  "questions": {
361
361
  "moreBtn": "En savoir plus",
362
- "title": "Questions fréquentes :"
362
+ "title": "Essayez de demander :"
363
363
  },
364
364
  "welcome": {
365
365
  "afternoon": "Bon après-midi",
@@ -396,4 +396,4 @@
396
396
  },
397
397
  "you": "tu",
398
398
  "zenMode": "Modalità di concentrazione"
399
- }
399
+ }
@@ -31,7 +31,7 @@
31
31
  "batchDelete": "Elimina in batch",
32
32
  "blog": "Blog sui prodotti",
33
33
  "branching": "Crea un sottotema",
34
- "branchingDisable": "La funzione «sottotema» è disponibile solo nella versione server. Se desideri utilizzare questa funzione, passa alla modalità di distribuzione server o utilizza LobeChat Cloud.",
34
+ "branchingDisable": "La funzione \"Sotto-argomenti\" non è disponibile nella modalità attuale. Per utilizzarla, passa alla modalità Postgres/Pglite DB oppure utilizza LobeHub Cloud.",
35
35
  "branchingRequiresSavedTopic": "L'argomento corrente non è salvato, è necessario salvarlo prima di poter utilizzare la funzione di sottoargomento",
36
36
  "cancel": "Annulla",
37
37
  "changelog": "Registro modifiche",