@lobehub/chat 1.138.1 → 1.138.3
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +50 -0
- package/changelog/v1.json +18 -0
- package/docker-compose/local/docker-compose.yml +1 -1
- package/docker-compose/local/grafana/docker-compose.yml +1 -1
- package/docker-compose/production/grafana/docker-compose.yml +1 -1
- package/locales/ar/chat.json +1 -1
- package/locales/ar/common.json +1 -1
- package/locales/ar/models.json +35 -8
- package/locales/ar/plugin.json +1 -1
- package/locales/ar/welcome.json +1 -1
- package/locales/bg-BG/chat.json +1 -1
- package/locales/bg-BG/common.json +1 -1
- package/locales/bg-BG/models.json +35 -8
- package/locales/bg-BG/plugin.json +1 -1
- package/locales/bg-BG/welcome.json +1 -1
- package/locales/de-DE/chat.json +1 -1
- package/locales/de-DE/common.json +1 -1
- package/locales/de-DE/models.json +35 -8
- package/locales/de-DE/plugin.json +1 -1
- package/locales/de-DE/welcome.json +1 -1
- package/locales/en-US/chat.json +1 -1
- package/locales/en-US/common.json +1 -1
- package/locales/en-US/models.json +35 -8
- package/locales/en-US/plugin.json +1 -1
- package/locales/en-US/welcome.json +1 -1
- package/locales/es-ES/chat.json +1 -1
- package/locales/es-ES/common.json +1 -1
- package/locales/es-ES/models.json +35 -8
- package/locales/es-ES/plugin.json +1 -1
- package/locales/es-ES/welcome.json +1 -1
- package/locales/fa-IR/chat.json +1 -1
- package/locales/fa-IR/common.json +1 -1
- package/locales/fa-IR/models.json +35 -8
- package/locales/fa-IR/plugin.json +1 -1
- package/locales/fa-IR/welcome.json +1 -1
- package/locales/fr-FR/chat.json +1 -1
- package/locales/fr-FR/common.json +1 -1
- package/locales/fr-FR/models.json +35 -8
- package/locales/fr-FR/plugin.json +1 -1
- package/locales/fr-FR/welcome.json +1 -1
- package/locales/it-IT/chat.json +1 -1
- package/locales/it-IT/common.json +1 -1
- package/locales/it-IT/models.json +35 -8
- package/locales/it-IT/plugin.json +1 -1
- package/locales/it-IT/welcome.json +1 -1
- package/locales/ja-JP/chat.json +1 -1
- package/locales/ja-JP/common.json +1 -1
- package/locales/ja-JP/models.json +35 -8
- package/locales/ja-JP/plugin.json +1 -1
- package/locales/ja-JP/welcome.json +1 -1
- package/locales/ko-KR/chat.json +1 -1
- package/locales/ko-KR/common.json +1 -1
- package/locales/ko-KR/models.json +35 -8
- package/locales/ko-KR/plugin.json +1 -1
- package/locales/ko-KR/welcome.json +1 -1
- package/locales/nl-NL/chat.json +1 -1
- package/locales/nl-NL/common.json +1 -1
- package/locales/nl-NL/models.json +35 -8
- package/locales/nl-NL/plugin.json +1 -1
- package/locales/nl-NL/welcome.json +1 -1
- package/locales/pl-PL/chat.json +1 -1
- package/locales/pl-PL/common.json +1 -1
- package/locales/pl-PL/models.json +35 -8
- package/locales/pl-PL/plugin.json +1 -1
- package/locales/pl-PL/welcome.json +1 -1
- package/locales/pt-BR/chat.json +1 -1
- package/locales/pt-BR/common.json +1 -1
- package/locales/pt-BR/models.json +35 -8
- package/locales/pt-BR/plugin.json +1 -1
- package/locales/pt-BR/welcome.json +1 -1
- package/locales/ru-RU/chat.json +1 -1
- package/locales/ru-RU/common.json +1 -1
- package/locales/ru-RU/models.json +35 -8
- package/locales/ru-RU/plugin.json +1 -1
- package/locales/ru-RU/welcome.json +1 -1
- package/locales/tr-TR/chat.json +1 -1
- package/locales/tr-TR/common.json +1 -1
- package/locales/tr-TR/models.json +35 -8
- package/locales/tr-TR/plugin.json +1 -1
- package/locales/tr-TR/welcome.json +1 -1
- package/locales/vi-VN/chat.json +1 -1
- package/locales/vi-VN/common.json +1 -1
- package/locales/vi-VN/models.json +35 -8
- package/locales/vi-VN/plugin.json +1 -1
- package/locales/vi-VN/welcome.json +1 -1
- package/locales/zh-CN/common.json +1 -1
- package/locales/zh-CN/models.json +35 -8
- package/locales/zh-CN/plugin.json +1 -1
- package/locales/zh-CN/welcome.json +1 -1
- package/locales/zh-TW/chat.json +1 -1
- package/locales/zh-TW/common.json +1 -1
- package/locales/zh-TW/models.json +35 -8
- package/locales/zh-TW/plugin.json +1 -1
- package/locales/zh-TW/welcome.json +1 -1
- package/package.json +1 -1
- package/packages/const/src/branding.ts +2 -2
- package/packages/const/src/index.ts +1 -0
- package/packages/const/src/version.ts +1 -1
- package/packages/database/src/models/topic.ts +0 -1
- package/packages/database/src/repositories/aiInfra/index.ts +19 -13
- package/packages/obervability-otel/package.json +4 -4
- package/packages/prompts/CLAUDE.md +289 -43
- package/packages/prompts/package.json +2 -1
- package/packages/prompts/promptfoo/supervisor/productive/eval.yaml +51 -0
- package/packages/prompts/promptfoo/supervisor/productive/prompt.ts +18 -0
- package/packages/prompts/promptfoo/supervisor/productive/tests/basic-case.ts +54 -0
- package/packages/prompts/promptfoo/supervisor/productive/tests/role.ts +58 -0
- package/packages/prompts/promptfoo/supervisor/productive/tools.json +80 -0
- package/packages/prompts/src/contexts/index.ts +1 -0
- package/packages/prompts/src/contexts/supervisor/index.ts +2 -0
- package/packages/prompts/src/contexts/supervisor/makeDecision.ts +68 -0
- package/packages/prompts/src/contexts/supervisor/tools.ts +102 -0
- package/packages/prompts/src/index.ts +1 -0
- package/packages/types/src/aiChat.ts +9 -3
- package/src/app/[variants]/(auth)/next-auth/signin/AuthSignInBox.tsx +4 -4
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{OpeningQuestions.tsx → AgentWelcome/OpeningQuestions.tsx} +2 -2
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/index.tsx +38 -17
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/index.tsx +2 -2
- package/src/app/[variants]/(main)/discover/(detail)/assistant/[...slugs]/page.tsx +1 -1
- package/src/app/[variants]/(main)/discover/(detail)/mcp/[slug]/page.tsx +1 -1
- package/src/config/modelProviders/lobehub.ts +1 -1
- package/src/locales/default/common.ts +1 -1
- package/src/locales/default/plugin.ts +1 -1
- package/src/locales/default/welcome.ts +1 -1
- package/src/server/ld.ts +1 -1
- package/src/server/routers/lambda/aiChat.ts +1 -1
- package/src/server/services/aiChat/index.test.ts +1 -1
- package/src/server/services/aiChat/index.ts +1 -1
- package/src/services/topic/client.ts +1 -1
- package/src/store/chat/slices/message/supervisor.test.ts +12 -5
- package/src/store/chat/slices/message/supervisor.ts +16 -129
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/AgentsSuggest.tsx +0 -114
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/InboxWelcome/QuestionSuggest.tsx +0 -104
- package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/WelcomeMessage.tsx +0 -65
- /package/src/app/[variants]/(main)/chat/(workspace)/@conversation/features/ChatList/WelcomeChatItem/{InboxWelcome → AgentWelcome}/AddButton.tsx +0 -0
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet provides an ideal balance of intelligence and speed for enterprise workloads. It offers maximum utility at a lower price, reliable and suitable for large-scale deployment."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, offering lightning-fast speed and advanced reasoning capabilities."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 is Anthropic's latest and most powerful model designed for handling highly complex tasks. It demonstrates outstanding performance in intelligence, fluency, and comprehension."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash is an ultra-fast multimodal deep thinking model with TPOT inference speed as low as 10ms; it supports both text and visual understanding. Its text comprehension exceeds the previous lite generation, and its visual understanding rivals competitor pro series models. It supports a 256k context window and output lengths up to 16k tokens."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite is a new multimodal deep reasoning model with adjustable reasoning effort—Minimal, Low, Medium, and High. It offers exceptional cost-performance and is an ideal choice for common tasks, supporting context windows up to 256k."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Doubao-Seed-1.6-thinking features greatly enhanced thinking capabilities. Compared to Doubao-1.5-thinking-pro, it further improves foundational skills such as coding, math, and logical reasoning, and supports visual understanding. It supports a 256k context window and output lengths up to 16k tokens."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview possesses strong complex reasoning abilities, excelling in logical reasoning, mathematics, programming, and other fields."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "GLM-4.6 (355B), the latest flagship model from Zhipu, delivers comprehensive improvements over its predecessor in advanced coding, long-text processing, reasoning, and agent capabilities. It is particularly aligned with Claude Sonnet 4 in programming performance, making it one of the top coding models in China."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash offers next-generation features and improvements, including exceptional speed, built-in tool usage, multimodal generation, and a 1 million token context window."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small is ideal for code generation, debugging, and refactoring tasks, offering minimal latency."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T is the first flagship non-thinking model in the 'Ling 2.0' series, featuring 1 trillion total parameters and approximately 50 billion active parameters per token. Built on the Ling 2.0 architecture, Ling-1T aims to push the boundaries of efficient reasoning and scalable cognition. Ling-1T-base is trained on over 20 trillion high-quality, reasoning-intensive tokens."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 is the third model in the Ling 2.0 architecture series released by Ant Group's Bailing team. It is a mixture-of-experts (MoE) model with a total of 100 billion parameters, but activates only 6.1 billion parameters per token (4.8 billion non-embedding). As a lightweight configuration model, Ling-flash-2.0 demonstrates performance comparable to or surpassing 40-billion-parameter dense models and larger MoE models across multiple authoritative benchmarks. The model aims to explore efficient pathways under the consensus that \"large models equal large parameters\" through extreme architectural design and training strategies."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 is a small-sized, high-performance large language model based on the MoE architecture. It has 16 billion total parameters but activates only 1.4 billion per token (789 million non-embedding), achieving extremely high generation speed. Thanks to the efficient MoE design and large-scale high-quality training data, despite activating only 1.4 billion parameters, Ling-mini-2.0 still delivers top-tier performance comparable to dense LLMs under 10 billion parameters and larger MoE models on downstream tasks."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T is a trillion-parameter open-source cognitive model released by the Bailing team. It is trained on the Ling 2.0 architecture and the Ling-1T-base model, with 1 trillion total parameters and 50 billion active parameters. It supports context windows up to 128K and is optimized through large-scale verifiable reward reinforcement learning."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 is a high-performance reasoning model deeply optimized based on Ling-flash-2.0-base. It employs a mixture-of-experts (MoE) architecture with a total of 100 billion parameters but activates only 6.1 billion parameters per inference. The model uses the proprietary icepop algorithm to solve the instability issues of MoE large models during reinforcement learning (RL) training, enabling continuous improvement of complex reasoning capabilities over long training cycles. Ring-flash-2.0 has achieved significant breakthroughs in challenging benchmarks such as math competitions, code generation, and logical reasoning. Its performance not only surpasses top dense models under 40 billion parameters but also rivals larger open-source MoE models and closed-source high-performance reasoning models. Although focused on complex reasoning, it also performs well in creative writing tasks. Additionally, thanks to its efficient architecture, Ring-flash-2.0 delivers strong performance with high-speed inference, significantly reducing deployment costs for reasoning models in high-concurrency scenarios."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "The Llama 3.3 instruction-tuned model is optimized for conversational scenarios, outperforming many existing open-source chat models on common industry benchmarks."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: A high-performance model in the Llama series, ideal for advanced reasoning, complex problem-solving, and instruction-following tasks."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: A high-performance Llama model optimized for scenarios requiring high throughput and low latency."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 is a next-generation model with significantly enhanced capabilities, achieving industry-leading levels in reasoning, general tasks, agent functionality, and multilingual support, while also supporting mode switching."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "The open-source version of the Tongyi Qianwen code model. The latest qwen3-coder-30b-a3b-instruct is a code generation model based on Qwen3, featuring powerful Coding Agent capabilities. It excels at tool usage and environment interaction, enabling autonomous programming with outstanding coding and general abilities."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "Open-source version of Tongyi Qianwen's code model. The latest qwen3-coder-480b-a35b-instruct is a code generation model based on Qwen3, featuring powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding and general capabilities."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "A new generation of thinking mode open-source model based on Qwen3. Compared to the previous version (Tongyi Qianwen 3-235B-A22B-Thinking-2507), it features improved instruction-following capabilities and more concise model-generated summaries."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "The Qwen-Omni model accepts multimodal input including text, images, audio, and video, and generates responses in text or speech. It offers a variety of human-like voice tones, supports multilingual and dialectal speech output, and is applicable to scenarios such as text creation, visual recognition, and voice assistants."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B Instruct Mode (non-thinking), designed for instruction-following scenarios without deep reasoning, while maintaining strong visual understanding capabilities."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B Thinking
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B Thinking Mode (open-source version), tailored for complex reasoning and long video understanding tasks, offering top-tier visual and textual reasoning performance."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B Instruct Mode (non-thinking), designed for general instruction-following scenarios, with strong multimodal understanding and generation capabilities."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "The open-source Qwen-VL model provides visual understanding and text generation capabilities. It supports agent interaction, visual encoding, spatial awareness, long video comprehension, and deep reasoning, with enhanced text recognition and multilingual support in complex scenarios."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B Instruct Mode (non-thinking), suitable for standard multimodal generation and recognition tasks."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B Thinking Mode, designed for lightweight multimodal reasoning and interaction scenarios, while retaining long-context understanding capabilities."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash: a lightweight, high-speed inference version ideal for latency-sensitive or high-volume request scenarios."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL is a text generation model with visual (image) understanding capabilities. It can perform OCR (image text recognition) and further summarize and reason, such as extracting attributes from product photos or solving problems based on exercise images."
|
package/locales/es-ES/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Eliminar en lote",
|
|
32
32
|
"blog": "Blog de productos",
|
|
33
33
|
"branching": "Crear subtemas",
|
|
34
|
-
"branchingDisable": "La función de
|
|
34
|
+
"branchingDisable": "La función de \"subtemas\" no está disponible en el modo actual. Para utilizar esta función, cambia al modo de base de datos Postgres/Pglite o utiliza LobeHub Cloud.",
|
|
35
35
|
"branchingRequiresSavedTopic": "El tema actual no está guardado, guárdalo para poder usar la función de subtemas",
|
|
36
36
|
"cancel": "Cancelar",
|
|
37
37
|
"changelog": "Registro de cambios",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet proporciona un equilibrio ideal entre inteligencia y velocidad para cargas de trabajo empresariales. Ofrece la máxima utilidad a un costo más bajo, siendo fiable y adecuado para implementaciones a gran escala."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con una velocidad relámpago y una capacidad de razonamiento ampliada."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 es el modelo más potente y reciente de Anthropic para manejar tareas altamente complejas. Sobresale en rendimiento, inteligencia, fluidez y comprensión."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash es un modelo multimodal de pensamiento profundo con velocidad de inferencia extrema, TPOT de solo 10 ms; soporta comprensión tanto textual como visual, con capacidad de comprensión textual superior a la generación lite anterior y comprensión visual comparable a los modelos pro de la competencia. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 16k tokens."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de pensamiento profundo que permite ajustar el nivel de razonamiento (reasoning effort) en cuatro modos: Mínimo, Bajo, Medio y Alto. Ofrece una excelente relación calidad-precio y es la mejor opción para tareas comunes, con una ventana de contexto de hasta 256k."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "El modelo Doubao-Seed-1.6-thinking tiene una capacidad de pensamiento significativamente mejorada. En comparación con Doubao-1.5-thinking-pro, mejora aún más en habilidades básicas como programación, matemáticas y razonamiento lógico, y soporta comprensión visual. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 16k tokens."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview posee una poderosa capacidad de razonamiento complejo, destacándose en áreas como razonamiento lógico, matemáticas y programación."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "El modelo insignia más reciente de Zhipu, GLM-4.6 (355B), supera ampliamente a su predecesor en codificación avanzada, procesamiento de textos largos, razonamiento y capacidades de agentes inteligentes. En particular, su habilidad para programar está a la par con Claude Sonnet 4, consolidándose como el modelo de codificación líder en China."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash ofrece funcionalidades de próxima generación y mejoras, incluyendo velocidad sobresaliente, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small es la opción ideal para tareas de generación, depuración y refactorización de código, con latencia mínima."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T es el primer modelo insignia sin razonamiento de la serie \"Ling 2.0\", con un total de un billón de parámetros y aproximadamente 50 mil millones de parámetros activos por token. Construido sobre la arquitectura Ling 2.0, Ling-1T está diseñado para superar los límites del razonamiento eficiente y la cognición escalable. Ling-1T-base ha sido entrenado con más de 20 billones de tokens de alta calidad y con alta densidad de razonamiento."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 es el tercer modelo de la serie Ling 2.0 basado en la arquitectura MoE, lanzado por el equipo Bailing de Ant Group. Cuenta con 100 mil millones de parámetros totales, pero solo activa 6.1 mil millones por token (4.8 mil millones sin incluir embeddings). Como un modelo de configuración ligera, Ling-flash-2.0 demuestra en múltiples evaluaciones oficiales un rendimiento comparable o superior a modelos densos de 40 mil millones y a modelos MoE de mayor escala. Este modelo busca explorar caminos eficientes bajo el consenso de que un modelo grande equivale a muchos parámetros, mediante un diseño arquitectónico y estrategias de entrenamiento extremas."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 es un modelo de lenguaje grande de alto rendimiento y tamaño reducido basado en arquitectura MoE. Cuenta con 16 mil millones de parámetros totales, pero solo activa 1.4 mil millones por token (789 millones sin incluir embeddings), logrando una velocidad de generación muy alta. Gracias a un diseño MoE eficiente y a un entrenamiento masivo con datos de alta calidad, Ling-mini-2.0 ofrece un rendimiento de primer nivel en tareas downstream, comparable a modelos densos de menos de 10 mil millones y a modelos MoE de mayor escala."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T es un modelo de pensamiento de código abierto a escala de un billón de parámetros, lanzado por el equipo Bailing. Basado en la arquitectura Ling 2.0 y el modelo base Ling-1T, cuenta con un total de un billón de parámetros y 50 mil millones de parámetros activos, y admite una ventana de contexto de hasta 128K. El modelo ha sido optimizado mediante aprendizaje por refuerzo con recompensas verificables a gran escala."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 es un modelo de pensamiento de alto rendimiento profundamente optimizado basado en Ling-flash-2.0-base. Utiliza arquitectura MoE con 100 mil millones de parámetros totales, pero solo activa 6.1 mil millones en cada inferencia. Gracias al algoritmo innovador icepop, resuelve la inestabilidad de los grandes modelos MoE en entrenamiento por refuerzo (RL), mejorando continuamente su capacidad de razonamiento complejo en entrenamientos prolongados. Ring-flash-2.0 ha logrado avances significativos en competencias matemáticas, generación de código y razonamiento lógico, superando modelos densos de hasta 40 mil millones de parámetros y equiparándose a modelos MoE de mayor escala y modelos de pensamiento de alto rendimiento cerrados. Aunque está enfocado en razonamiento complejo, también destaca en tareas creativas de escritura. Además, su diseño eficiente permite un rendimiento rápido y reduce significativamente los costos de despliegue en escenarios de alta concurrencia."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "El modelo de instrucción Llama 3.3, optimizado para escenarios de diálogo, supera a muchos modelos de chat de código abierto existentes en pruebas de referencia comunes de la industria."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: un modelo de alto rendimiento de la serie Llama, ideal para razonamiento avanzado, resolución de problemas complejos y tareas de seguimiento de instrucciones."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: un modelo de alto rendimiento de la serie Llama, diseñado para escenarios que requieren alto rendimiento y baja latencia."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 es un modelo de nueva generación con capacidades significativamente mejoradas, alcanzando niveles líderes en la industria en razonamiento, generalidad, agentes y multilingüismo, y soporta el cambio de modo de pensamiento."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "Versión de código abierto del modelo de codificación Tongyi Qianwen. El nuevo qwen3-coder-30b-a3b-instruct, basado en Qwen3, es un modelo de generación de código con potentes capacidades como Agente de Programación, especializado en llamadas a herramientas e interacción con entornos, capaz de programar de forma autónoma con habilidades de codificación sobresalientes y capacidades generales."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "Versión de código abierto del modelo de código Tongyi Qianwen. El más reciente qwen3-coder-480b-a35b-instruct está basado en Qwen3, con fuertes capacidades de agente de codificación, experto en llamadas a herramientas e interacción con entornos, capaz de programación autónoma y con habilidades sobresalientes de código y capacidades generales."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Modelo de código abierto de nueva generación basado en Qwen3 en modo reflexivo, que mejora la capacidad de seguir instrucciones y ofrece respuestas más concisas en comparación con la versión anterior (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "El modelo Qwen-Omni puede recibir entradas combinadas de texto, imágenes, audio y video, y generar respuestas en forma de texto o voz. Ofrece múltiples voces humanizadas, admite salida de voz en varios idiomas y dialectos, y puede aplicarse en escenarios como creación de texto, reconocimiento visual y asistentes de voz."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B en modo sin razonamiento (Instruct), adecuado para escenarios de instrucciones sin razonamiento, manteniendo una potente capacidad de comprensión visual."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B en modo de razonamiento (versión de código abierto), diseñado para escenarios complejos que requieren razonamiento avanzado y comprensión de videos largos, ofreciendo capacidades de razonamiento visual + textual de primer nivel."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B en modo sin razonamiento (Instruct), orientado a escenarios comunes de seguimiento de instrucciones, manteniendo una alta capacidad de comprensión y generación multimodal."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (versión de código abierto) ofrece capacidades de comprensión visual y generación de texto, compatible con interacción de agentes, codificación visual, percepción espacial, comprensión de videos largos y pensamiento profundo, con un sólido reconocimiento de texto y soporte multilingüe en escenarios complejos."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B en modo sin razonamiento (Instruct), adecuado para tareas comunes de generación y reconocimiento multimodal."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B en modo de razonamiento, orientado a escenarios ligeros de razonamiento e interacción multimodal, manteniendo la capacidad de comprensión de contextos largos."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash: versión ligera de inferencia rápida, ideal para escenarios sensibles a la latencia o con solicitudes en gran volumen."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL es un modelo generativo de texto con capacidad de comprensión visual (imágenes). No solo puede realizar OCR (reconocimiento de texto en imágenes), sino también resumir y razonar, por ejemplo, extrayendo atributos de fotos de productos o resolviendo problemas a partir de imágenes de ejercicios."
|
package/locales/fa-IR/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "حذف دستهای",
|
|
32
32
|
"blog": "وبلاگ محصولات",
|
|
33
33
|
"branching": "ایجاد زیرموضوع",
|
|
34
|
-
"branchingDisable": "ویژگی «زیرموضوع»
|
|
34
|
+
"branchingDisable": "ویژگی «زیرموضوع» در حالت فعلی در دسترس نیست. برای استفاده از این ویژگی، لطفاً به حالت پایگاه داده Postgres/Pglite تغییر دهید یا از LobeHub Cloud استفاده کنید.",
|
|
35
35
|
"branchingRequiresSavedTopic": "موضوع فعلی ذخیره نشده است، پس از ذخیره میتوانید از قابلیت زیرموضوع استفاده کنید",
|
|
36
36
|
"cancel": "لغو",
|
|
37
37
|
"changelog": "تغییرات",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet تعادلی ایدهآل بین هوش و سرعت برای بارهای کاری سازمانی فراهم میکند. این محصول با قیمتی پایینتر حداکثر بهرهوری را ارائه میدهد، قابل اعتماد است و برای استقرار در مقیاس بزرگ مناسب میباشد."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 سریعترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برقآسا و توانایی تفکر گسترشیافته ارائه میشود."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 جدیدترین و قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوشمندی، روانی و درک توانایی برجستهای دارد."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "مدل تفکر عمیق چندرسانهای Doubao-Seed-1.6-flash با سرعت استنتاج بسیار بالا، TPOT تنها ۱۰ میلیثانیه است؛ همچنین از درک متن و تصویر پشتیبانی میکند، توانایی درک متنی آن از نسل قبلی lite بهتر است و درک تصویری آن با مدلهای pro رقبا برابری میکند. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی میکند و طول خروجی تا ۱۶ هزار توکن را امکانپذیر میسازد."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite یک مدل چندرسانهای جدید با قابلیت تفکر عمیق است که از تنظیم سطح تلاش استدلال (reasoning effort) در چهار حالت Minimal، Low، Medium و High پشتیبانی میکند. این مدل با بهرهوری بالا، انتخابی ایدهآل برای وظایف رایج است و از پنجره متنی تا ۲۵۶ هزار توکن پشتیبانی میکند."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "مدل Doubao-Seed-1.6-thinking با توانایی تفکر بهطور قابل توجهی تقویت شده است، نسبت به Doubao-1.5-thinking-pro در مهارتهای پایهای مانند برنامهنویسی، ریاضیات و استدلال منطقی پیشرفت داشته و از درک تصویری پشتیبانی میکند. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی میکند و طول خروجی تا ۱۶ هزار توکن را امکانپذیر میسازد."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview دارای تواناییهای پیچیده استدلال است و در زمینههای استدلال منطقی، ریاضیات، برنامهنویسی و غیره عملکرد عالی دارد."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "جدیدترین مدل پرچمدار Zhipu، GLM-4.6 (355B)، در زمینههای برنامهنویسی پیشرفته، پردازش متون طولانی، استدلال و تواناییهای عامل هوشمند، بهطور کامل از نسل قبلی پیشی گرفته است. بهویژه در توانایی کدنویسی با Claude Sonnet 4 همتراز شده و به یکی از برترین مدلهای کدنویسی در داخل کشور تبدیل شده است."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash ویژگیها و قابلیتهای نسل بعدی را ارائه میدهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانهای و پنجره زمینه 1 میلیون توکن."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small انتخاب ایدهآل برای تولید، اشکالزدایی و بازسازی کد با کمترین تأخیر است."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T نخستین مدل پرچمدار از سری «灵 2.0» است که در دسته مدلهای non-thinking قرار دارد. این مدل دارای یک تریلیون پارامتر کلی و حدود ۵۰ میلیارد پارامتر فعال به ازای هر توکن است. بر پایه معماری 灵 2.0 ساخته شده و هدف آن شکستن مرزهای استدلال کارآمد و شناخت مقیاسپذیر است. Ling-1T-base با بیش از ۲۰ تریلیون توکن با کیفیت بالا و متمرکز بر استدلال آموزش دیده است."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 سومین مدل از سری معماری Ling 2.0 است که توسط تیم Bailing شرکت Ant Group منتشر شده است. این مدل یک مدل متخصص ترکیبی (MoE) با ۱۰۰ میلیارد پارامتر کل است که در هر توکن تنها ۶.۱ میلیارد پارامتر فعال میشوند (۴.۸ میلیارد غیر بردار کلمه). به عنوان یک مدل با پیکربندی سبک، Ling-flash-2.0 در چندین ارزیابی معتبر عملکردی برابر یا حتی فراتر از مدلهای متراکم ۴۰ میلیارد پارامتری و مدلهای MoE بزرگتر نشان داده است. هدف این مدل کشف مسیرهای کارآمد در چارچوب «مدل بزرگ برابر است با پارامتر بزرگ» از طریق طراحی معماری و استراتژیهای آموزش بهینه است."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 یک مدل زبان بزرگ کوچکحجم و با عملکرد بالا مبتنی بر معماری MoE است. این مدل دارای ۱۶ میلیارد پارامتر کل است اما در هر توکن تنها ۱.۴ میلیارد پارامتر فعال میشوند (۷۸۹ میلیون غیر بردار کلمه)، که سرعت تولید بسیار بالایی را فراهم میکند. به لطف طراحی کارآمد MoE و دادههای آموزشی بزرگ و با کیفیت، با وجود فعال بودن تنها ۱.۴ میلیارد پارامتر، Ling-mini-2.0 در وظایف پاییندستی عملکردی در سطح مدلهای متراکم زیر ۱۰ میلیارد و مدلهای MoE بزرگتر ارائه میدهد."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T یک مدل متنباز با مقیاس تریلیونی است که توسط تیم Bailing توسعه یافته است. این مدل بر پایه معماری Ling 2.0 و مدل پایه Ling-1T-base آموزش دیده و دارای یک تریلیون پارامتر کلی و ۵۰ میلیارد پارامتر فعال است. همچنین از پنجره متنی تا ۱۲۸ هزار توکن پشتیبانی میکند و با استفاده از یادگیری تقویتی مبتنی بر پاداشهای قابل تأیید در مقیاس وسیع بهینهسازی شده است."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 مدلی با عملکرد بالا برای تفکر است که بر پایه Ling-flash-2.0-base بهینهسازی عمیق شده است. این مدل از معماری متخصص ترکیبی (MoE) با ۱۰۰ میلیارد پارامتر کل بهره میبرد اما در هر استنتاج تنها ۶.۱ میلیارد پارامتر فعال میشوند. این مدل با الگوریتم ابتکاری icepop مشکل ناپایداری مدلهای بزرگ MoE در آموزش تقویتی (RL) را حل کرده و توانایی استنتاج پیچیده آن در طول آموزشهای بلندمدت بهبود مییابد. Ring-flash-2.0 در مسابقات ریاضی، تولید کد و استدلال منطقی در چندین بنچمارک دشوار پیشرفت قابل توجهی داشته است و عملکرد آن نه تنها از مدلهای متراکم برتر زیر ۴۰ میلیارد پارامتر فراتر رفته، بلکه با مدلهای MoE متنباز بزرگتر و مدلهای تفکر با عملکرد بالا و بسته رقابت میکند. اگرچه این مدل بر استنتاج پیچیده تمرکز دارد، در وظایف خلاقانه نوشتاری نیز عملکرد خوبی دارد. علاوه بر این، به لطف طراحی معماری کارآمد، Ring-flash-2.0 ضمن ارائه عملکرد قدرتمند، استنتاج سریع را ممکن ساخته و هزینه استقرار مدلهای تفکر در شرایط بار بالا را به طور قابل توجهی کاهش میدهد."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "مدل آموزشی لاما ۳.۳ برای صحنههای گفتوگو بهینهسازی شده است و در معیارهای صنعتی معمول، بسیاری از مدلهای چت منبع باز موجود را در برمیآید."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick: مدلی قدرتمند از سری Llama، مناسب برای استدلال پیشرفته، حل مسائل پیچیده و پیروی از دستورات."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout: مدلی قدرتمند از سری Llama، مناسب برای سناریوهایی با نیاز به بازدهی بالا و تأخیر پایین."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 یک مدل جدید نسل جدید با تواناییهای به طور قابل توجهی بهبود یافته است که در استدلال، عمومی، نمایندگی و چند زبانه در چندین توانایی کلیدی به سطح پیشرفته صنعت دست یافته و از جابجایی حالت تفکر پشتیبانی میکند."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "نسخه متنباز مدل کدنویسی Qwen. مدل جدید qwen3-coder-30b-a3b-instruct بر پایه Qwen3 ساخته شده و دارای تواناییهای قدرتمند در نقش عامل کدنویس (Coding Agent) است. این مدل در فراخوانی ابزارها و تعامل با محیط مهارت دارد و ضمن حفظ تواناییهای عمومی، قابلیت برنامهنویسی خودکار و تولید کد پیشرفته را ارائه میدهد."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "نسخه متنباز مدل کدنویسی Tongyi Qianwen. جدیدترین مدل qwen3-coder-480b-a35b-instruct مبتنی بر Qwen3 است و دارای تواناییهای قوی عامل کدنویسی، مهارت در فراخوانی ابزارها و تعامل با محیط است و قادر به برنامهنویسی خودکار با توانایی کدنویسی برجسته و همچنین تواناییهای عمومی است."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "مدل متنباز نسل جدید با حالت تفکر مبتنی بر Qwen3، که نسبت به نسخه قبلی (Tongyi Qianwen 3-235B-A22B-Thinking-2507) در پیروی از دستورات پیشرفت داشته و پاسخهای مدل خلاصهتر شدهاند."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "مدل Qwen-Omni قادر است ورودیهایی از انواع مختلف مانند متن، تصویر، صدا و ویدیو را دریافت کرده و پاسخهایی به صورت متن یا گفتار تولید کند. این مدل از صداهای شبهانسانی متنوع، چندزبانگی و گویشهای مختلف پشتیبانی میکند و در کاربردهایی مانند تولید محتوا، تشخیص بصری و دستیار صوتی قابل استفاده است."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B Instruct
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B در حالت غیرتفکری (Instruct) طراحی شده و برای سناریوهای دستورالعملی بدون نیاز به استدلال مناسب است، در حالی که توانایی قوی در درک بصری را حفظ میکند."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B در حالت تفکری (نسخه متنباز) برای سناریوهای پیچیده با نیاز به استدلال قوی و درک ویدیوهای طولانی طراحی شده و توانایی استدلال ترکیبی متن و تصویر در سطح بالا را ارائه میدهد."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B در حالت غیرتفکری (Instruct) برای سناریوهای معمول پیروی از دستورالعمل طراحی شده و توانایی درک و تولید چندرسانهای بالایی را حفظ میکند."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (نسخه متنباز) توانایی درک بصری و تولید متن را ارائه میدهد و از تعامل با عاملها، رمزگذاری بصری، درک فضایی، تحلیل ویدیوهای طولانی و تفکر عمیق پشتیبانی میکند. همچنین در سناریوهای پیچیده، توانایی تشخیص متن و پشتیبانی چندزبانه قویتری دارد."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B در حالت غیرتفکری (Instruct) برای وظایف معمول تولید و شناسایی چندرسانهای مناسب است."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B در حالت تفکری برای سناریوهای سبک استدلال چندرسانهای و تعامل طراحی شده و توانایی درک متون با زمینه طولانی را حفظ میکند."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash نسخهای سبک و با سرعت بالای استدلال است که برای سناریوهای حساس به تأخیر یا درخواستهای حجیم مناسب میباشد."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL مدلی برای تولید متن با قابلیت درک بصری (تصویر) است که نه تنها میتواند OCR (تشخیص متن در تصویر) انجام دهد، بلکه قادر به خلاصهسازی و استنتاج بیشتر نیز هست، مانند استخراج ویژگیها از عکس محصولات یا حل مسائل بر اساس تصاویر تمرین."
|
package/locales/fr-FR/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Suppression en masse",
|
|
32
32
|
"blog": "Blog des produits",
|
|
33
33
|
"branching": "Créer un sous-sujet",
|
|
34
|
-
"branchingDisable": "La fonction «
|
|
34
|
+
"branchingDisable": "La fonction « Sous-sujets » n’est pas disponible dans le mode actuel. Pour l’utiliser, veuillez passer en mode base de données Postgres/Pglite ou utiliser LobeHub Cloud.",
|
|
35
35
|
"branchingRequiresSavedTopic": "Le sujet actuel n'est pas enregistré, veuillez enregistrer avant d'utiliser la fonction de sous-sujet",
|
|
36
36
|
"cancel": "Annuler",
|
|
37
37
|
"changelog": "Journal des modifications",
|
|
@@ -767,6 +767,9 @@
|
|
|
767
767
|
"claude-3-sonnet-20240229": {
|
|
768
768
|
"description": "Claude 3 Sonnet offre un équilibre idéal entre intelligence et vitesse pour les charges de travail d'entreprise. Il fournit une utilité maximale à un coût inférieur, fiable et adapté à un déploiement à grande échelle."
|
|
769
769
|
},
|
|
770
|
+
"claude-haiku-4-5-20251001": {
|
|
771
|
+
"description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, offrant une vitesse fulgurante et des capacités de raisonnement étendues."
|
|
772
|
+
},
|
|
770
773
|
"claude-opus-4-1-20250805": {
|
|
771
774
|
"description": "Claude Opus 4.1 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il se distingue par ses performances, son intelligence, sa fluidité et sa capacité de compréhension exceptionnelles."
|
|
772
775
|
},
|
|
@@ -1148,6 +1151,9 @@
|
|
|
1148
1151
|
"doubao-seed-1.6-flash": {
|
|
1149
1152
|
"description": "Doubao-Seed-1.6-flash est un modèle multimodal de réflexion profonde à vitesse d'inférence extrême, avec un TPOT de seulement 10 ms ; il supporte à la fois la compréhension textuelle et visuelle, avec une capacité de compréhension textuelle supérieure à la génération lite précédente, et une compréhension visuelle comparable aux modèles pro des concurrents. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
|
|
1150
1153
|
},
|
|
1154
|
+
"doubao-seed-1.6-lite": {
|
|
1155
|
+
"description": "Doubao-Seed-1.6-lite est un tout nouveau modèle multimodal de raisonnement profond, avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé). Il offre un excellent rapport qualité-prix et constitue le meilleur choix pour les tâches courantes, avec une fenêtre de contexte allant jusqu'à 256k."
|
|
1156
|
+
},
|
|
1151
1157
|
"doubao-seed-1.6-thinking": {
|
|
1152
1158
|
"description": "Le modèle Doubao-Seed-1.6-thinking a une capacité de réflexion considérablement renforcée. Par rapport à Doubao-1.5-thinking-pro, il améliore davantage les compétences fondamentales telles que le codage, les mathématiques et le raisonnement logique, tout en supportant la compréhension visuelle. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
|
|
1153
1159
|
},
|
|
@@ -1541,9 +1547,6 @@
|
|
|
1541
1547
|
"glm-zero-preview": {
|
|
1542
1548
|
"description": "GLM-Zero-Preview possède de puissantes capacités de raisonnement complexe, se distinguant dans les domaines du raisonnement logique, des mathématiques et de la programmation."
|
|
1543
1549
|
},
|
|
1544
|
-
"glm4.6:355b": {
|
|
1545
|
-
"description": "Le tout dernier modèle phare de Zhipu, le GLM-4.6 (355B), surpasse largement ses prédécesseurs en matière de codage avancé, de traitement de longs textes, de raisonnement et de capacités d'agents intelligents. Il est particulièrement performant en programmation, atteignant le niveau de Claude Sonnet 4, ce qui en fait l’un des meilleurs modèles de codage en Chine."
|
|
1546
|
-
},
|
|
1547
1550
|
"google/gemini-2.0-flash": {
|
|
1548
1551
|
"description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
|
|
1549
1552
|
},
|
|
@@ -1934,12 +1937,18 @@
|
|
|
1934
1937
|
"inception/mercury-coder-small": {
|
|
1935
1938
|
"description": "Mercury Coder Small est idéal pour les tâches de génération, débogage et refactorisation de code, avec une latence minimale."
|
|
1936
1939
|
},
|
|
1940
|
+
"inclusionAI/Ling-1T": {
|
|
1941
|
+
"description": "Ling-1T est le premier modèle phare de la série \"Ling 2.0\", un modèle non-réfléchissant doté de 1 000 milliards de paramètres totaux et environ 50 milliards de paramètres actifs par token. Construit sur l'architecture Ling 2.0, Ling-1T vise à repousser les limites du raisonnement efficace et de la cognition évolutive. Ling-1T-base a été entraîné sur plus de 20 000 milliards de tokens de haute qualité et riches en raisonnement."
|
|
1942
|
+
},
|
|
1937
1943
|
"inclusionAI/Ling-flash-2.0": {
|
|
1938
1944
|
"description": "Ling-flash-2.0 est le troisième modèle de la série d'architectures Ling 2.0 publié par l'équipe Bailing du groupe Ant. C'est un modèle d'experts mixtes (MoE) avec un total de 100 milliards de paramètres, mais n'activant que 6,1 milliards de paramètres par token (dont 4,8 milliards hors embeddings). En tant que modèle léger, Ling-flash-2.0 affiche des performances comparables voire supérieures à celles des modèles denses de 40 milliards de paramètres et des modèles MoE de plus grande taille dans plusieurs évaluations de référence reconnues. Ce modèle vise à explorer des voies d'efficacité sous le consensus « grand modèle = grand nombre de paramètres » grâce à une conception d'architecture et des stratégies d'entraînement optimales."
|
|
1939
1945
|
},
|
|
1940
1946
|
"inclusionAI/Ling-mini-2.0": {
|
|
1941
1947
|
"description": "Ling-mini-2.0 est un modèle de langage de grande taille compact et performant basé sur l'architecture MoE. Il possède 16 milliards de paramètres au total, mais n'active que 1,4 milliard par token (789 millions hors embeddings), permettant une vitesse de génération très élevée. Grâce à une conception MoE efficace et à un entraînement massif sur des données de haute qualité, Ling-mini-2.0 offre des performances de pointe sur les tâches en aval, comparables à celles des modèles denses de moins de 10 milliards de paramètres et des modèles MoE plus grands."
|
|
1942
1948
|
},
|
|
1949
|
+
"inclusionAI/Ring-1T": {
|
|
1950
|
+
"description": "Ring-1T est un modèle open source à l’échelle du billion de paramètres, développé par l’équipe Bailing. Il est basé sur l’architecture Ling 2.0 et le modèle de base Ling-1T, avec un total de 1 000 milliards de paramètres et 50 milliards de paramètres actifs. Il prend en charge une fenêtre de contexte allant jusqu’à 128K et a été optimisé via un apprentissage par renforcement avec récompenses vérifiables à grande échelle."
|
|
1951
|
+
},
|
|
1943
1952
|
"inclusionAI/Ring-flash-2.0": {
|
|
1944
1953
|
"description": "Ring-flash-2.0 est un modèle de réflexion haute performance profondément optimisé à partir de Ling-flash-2.0-base. Il utilise une architecture d'experts mixtes (MoE) avec un total de 100 milliards de paramètres, mais n'active que 6,1 milliards de paramètres à chaque inférence. Ce modèle résout, grâce à l'algorithme innovant icepop, l'instabilité des grands modèles MoE lors de l'entraînement par apprentissage par renforcement (RL), permettant une amélioration continue des capacités de raisonnement complexe sur de longues périodes d'entraînement. Ring-flash-2.0 a réalisé des avancées significatives dans plusieurs benchmarks difficiles tels que les compétitions mathématiques, la génération de code et le raisonnement logique. Ses performances surpassent non seulement les meilleurs modèles denses de moins de 40 milliards de paramètres, mais rivalisent aussi avec des modèles MoE open source plus grands et des modèles de réflexion propriétaires haute performance. Bien que focalisé sur le raisonnement complexe, il excelle également dans les tâches de création littéraire. De plus, grâce à sa conception efficace, Ring-flash-2.0 offre des performances puissantes tout en assurant une inférence rapide, réduisant considérablement les coûts de déploiement dans des scénarios à forte concurrence."
|
|
1945
1954
|
},
|
|
@@ -2036,9 +2045,6 @@
|
|
|
2036
2045
|
"llama-3.3-instruct": {
|
|
2037
2046
|
"description": "Le modèle d'instructions affiné Llama 3.3 est optimisé pour les scénarios de dialogue, surpassant de nombreux modèles de chat open source existants dans les tests de référence courants de l'industrie."
|
|
2038
2047
|
},
|
|
2039
|
-
"llama-4-maverick-17b-128e-instruct": {
|
|
2040
|
-
"description": "Llama 4 Maverick : un modèle haute performance de la série Llama, idéal pour le raisonnement avancé, la résolution de problèmes complexes et les tâches de suivi d'instructions."
|
|
2041
|
-
},
|
|
2042
2048
|
"llama-4-scout-17b-16e-instruct": {
|
|
2043
2049
|
"description": "Llama 4 Scout : un modèle haute performance de la série Llama, conçu pour les scénarios nécessitant un haut débit et une faible latence."
|
|
2044
2050
|
},
|
|
@@ -2906,6 +2912,9 @@
|
|
|
2906
2912
|
"qwen3-8b": {
|
|
2907
2913
|
"description": "Qwen3 est un modèle de nouvelle génération avec des capacités considérablement améliorées, atteignant des niveaux de pointe dans plusieurs compétences clés telles que le raisonnement, l'universalité, l'agent et le multilingue, tout en prenant en charge le changement de mode de pensée."
|
|
2908
2914
|
},
|
|
2915
|
+
"qwen3-coder-30b-a3b-instruct": {
|
|
2916
|
+
"description": "Version open source du modèle de génération de code Qwen. Le dernier qwen3-coder-30b-a3b-instruct, basé sur Qwen3, est un modèle puissant de génération de code doté de capacités avancées d’agent de codage. Il excelle dans l’appel d’outils et l’interaction avec l’environnement, permettant une programmation autonome tout en conservant des compétences générales solides."
|
|
2917
|
+
},
|
|
2909
2918
|
"qwen3-coder-480b-a35b-instruct": {
|
|
2910
2919
|
"description": "Version open source du modèle de code Tongyi Qianwen. Le dernier qwen3-coder-480b-a35b-instruct est un modèle de génération de code basé sur Qwen3, doté de puissantes capacités d'agent de codage, expert en appels d'outils et interactions environnementales, capable de programmation autonome avec d'excellentes compétences en code tout en conservant des capacités générales."
|
|
2911
2920
|
},
|
|
@@ -2927,11 +2936,29 @@
|
|
|
2927
2936
|
"qwen3-next-80b-a3b-thinking": {
|
|
2928
2937
|
"description": "Modèle open source de nouvelle génération en mode réflexif basé sur Qwen3, avec une meilleure conformité aux instructions et des réponses plus concises dans les résumés par rapport à la version précédente (Tongyi Qianwen 3-235B-A22B-Thinking-2507)."
|
|
2929
2938
|
},
|
|
2939
|
+
"qwen3-omni-flash": {
|
|
2940
|
+
"description": "Le modèle Qwen-Omni accepte des entrées combinées de texte, image, audio et vidéo, et génère des réponses sous forme de texte ou de voix. Il propose plusieurs voix synthétiques réalistes, prend en charge plusieurs langues et dialectes, et peut être utilisé dans des scénarios tels que la création de contenu, la reconnaissance visuelle et les assistants vocaux."
|
|
2941
|
+
},
|
|
2930
2942
|
"qwen3-vl-235b-a22b-instruct": {
|
|
2931
|
-
"description": "Qwen3 VL 235B A22B
|
|
2943
|
+
"description": "Qwen3 VL 235B A22B en mode non-réfléchissant (Instruct), conçu pour les scénarios d'instructions simples tout en conservant de puissantes capacités de compréhension visuelle."
|
|
2932
2944
|
},
|
|
2933
2945
|
"qwen3-vl-235b-a22b-thinking": {
|
|
2934
|
-
"description": "Qwen3 VL 235B A22B
|
|
2946
|
+
"description": "Qwen3 VL 235B A22B en mode réfléchi (version open source), offre des capacités de raisonnement visuel et textuel de pointe pour les scénarios complexes nécessitant une compréhension approfondie et un raisonnement sur de longues vidéos."
|
|
2947
|
+
},
|
|
2948
|
+
"qwen3-vl-30b-a3b-instruct": {
|
|
2949
|
+
"description": "Qwen3 VL 30B en mode non-réfléchissant (Instruct), adapté aux scénarios d'instructions générales, avec de solides capacités de compréhension et de génération multimodales."
|
|
2950
|
+
},
|
|
2951
|
+
"qwen3-vl-30b-a3b-thinking": {
|
|
2952
|
+
"description": "Qwen-VL (version open source) offre des capacités de compréhension visuelle et de génération de texte, prenant en charge l’interaction avec des agents, l’encodage visuel, la perception spatiale, la compréhension de longues vidéos et le raisonnement approfondi. Il excelle également dans la reconnaissance de texte complexe et le support multilingue dans des contextes complexes."
|
|
2953
|
+
},
|
|
2954
|
+
"qwen3-vl-8b-instruct": {
|
|
2955
|
+
"description": "Qwen3 VL 8B en mode non-réfléchissant (Instruct), idéal pour les tâches courantes de génération et de reconnaissance multimodales."
|
|
2956
|
+
},
|
|
2957
|
+
"qwen3-vl-8b-thinking": {
|
|
2958
|
+
"description": "Qwen3 VL 8B en mode réfléchi, conçu pour des scénarios légers de raisonnement et d’interaction multimodale, tout en conservant une bonne compréhension des longs contextes."
|
|
2959
|
+
},
|
|
2960
|
+
"qwen3-vl-flash": {
|
|
2961
|
+
"description": "Qwen3 VL Flash : version allégée à inférence rapide, idéale pour les scénarios sensibles à la latence ou les requêtes en grand volume."
|
|
2935
2962
|
},
|
|
2936
2963
|
"qwen3-vl-plus": {
|
|
2937
2964
|
"description": "Tongyi Qianwen VL est un modèle de génération de texte doté de capacités de compréhension visuelle (images). Il peut non seulement effectuer de l'OCR (reconnaissance de texte sur images), mais aussi résumer et raisonner davantage, par exemple extraire des attributs à partir de photos de produits ou résoudre des exercices à partir d'images."
|
package/locales/it-IT/chat.json
CHANGED
|
@@ -31,7 +31,7 @@
|
|
|
31
31
|
"batchDelete": "Elimina in batch",
|
|
32
32
|
"blog": "Blog sui prodotti",
|
|
33
33
|
"branching": "Crea un sottotema",
|
|
34
|
-
"branchingDisable": "La funzione
|
|
34
|
+
"branchingDisable": "La funzione \"Sotto-argomenti\" non è disponibile nella modalità attuale. Per utilizzarla, passa alla modalità Postgres/Pglite DB oppure utilizza LobeHub Cloud.",
|
|
35
35
|
"branchingRequiresSavedTopic": "L'argomento corrente non è salvato, è necessario salvarlo prima di poter utilizzare la funzione di sottoargomento",
|
|
36
36
|
"cancel": "Annulla",
|
|
37
37
|
"changelog": "Registro modifiche",
|