@lobehub/chat 1.126.2 → 1.127.0

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (56) hide show
  1. package/CHANGELOG.md +59 -0
  2. package/changelog/v1.json +21 -0
  3. package/docs/self-hosting/environment-variables/model-provider.mdx +2 -2
  4. package/docs/self-hosting/environment-variables/model-provider.zh-CN.mdx +2 -2
  5. package/locales/ar/models.json +38 -11
  6. package/locales/bg-BG/models.json +38 -11
  7. package/locales/de-DE/models.json +38 -11
  8. package/locales/en-US/models.json +38 -11
  9. package/locales/es-ES/models.json +38 -11
  10. package/locales/fa-IR/models.json +38 -11
  11. package/locales/fr-FR/models.json +38 -11
  12. package/locales/it-IT/models.json +38 -11
  13. package/locales/ja-JP/models.json +38 -11
  14. package/locales/ko-KR/models.json +38 -11
  15. package/locales/nl-NL/models.json +38 -11
  16. package/locales/pl-PL/models.json +38 -11
  17. package/locales/pt-BR/models.json +38 -11
  18. package/locales/ru-RU/models.json +38 -11
  19. package/locales/tr-TR/models.json +38 -11
  20. package/locales/vi-VN/models.json +38 -11
  21. package/locales/zh-CN/image.json +3 -0
  22. package/locales/zh-CN/models.json +38 -11
  23. package/locales/zh-TW/models.json +38 -11
  24. package/package.json +3 -3
  25. package/packages/model-bank/package.json +1 -0
  26. package/packages/model-bank/src/aiModels/cometapi.ts +349 -0
  27. package/packages/model-bank/src/aiModels/fal.ts +46 -7
  28. package/packages/model-bank/src/aiModels/index.ts +3 -0
  29. package/packages/model-bank/src/aiModels/volcengine.ts +51 -21
  30. package/packages/model-bank/src/standard-parameters/index.ts +3 -0
  31. package/packages/model-runtime/src/cometapi/index.ts +49 -0
  32. package/packages/model-runtime/src/fal/index.test.ts +374 -0
  33. package/packages/model-runtime/src/fal/index.ts +23 -14
  34. package/packages/model-runtime/src/index.ts +1 -0
  35. package/packages/model-runtime/src/runtimeMap.ts +2 -0
  36. package/packages/model-runtime/src/types/type.ts +1 -0
  37. package/packages/model-runtime/src/volcengine/createImage.test.ts +522 -0
  38. package/packages/model-runtime/src/volcengine/createImage.ts +118 -0
  39. package/packages/model-runtime/src/volcengine/index.ts +2 -0
  40. package/packages/types/src/user/settings/keyVaults.ts +1 -0
  41. package/packages/utils/src/parseModels.test.ts +11 -8
  42. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/CfgSliderInput.tsx +11 -0
  43. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/components/StepsSliderInput.tsx +2 -2
  44. package/src/app/[variants]/(main)/image/@menu/features/ConfigPanel/index.tsx +9 -0
  45. package/src/config/llm.ts +6 -0
  46. package/src/config/modelProviders/cometapi.ts +24 -0
  47. package/src/config/modelProviders/index.ts +3 -0
  48. package/src/features/ChatInput/ActionBar/index.tsx +19 -1
  49. package/src/features/ChatInput/Desktop/index.tsx +7 -0
  50. package/src/features/ChatInput/InputEditor/index.tsx +4 -6
  51. package/src/features/ChatInput/TypoBar/index.tsx +116 -103
  52. package/src/locales/default/image.ts +3 -0
  53. package/src/server/routers/async/image.ts +6 -1
  54. package/src/store/global/actions/workspacePane.ts +7 -0
  55. package/src/store/global/initialState.ts +2 -0
  56. package/src/store/global/selectors/systemStatus.ts +2 -0
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "The leading model in the country, surpassing mainstream foreign models in Chinese tasks such as knowledge encyclopedias, long texts, and creative generation. It also possesses industry-leading multimodal capabilities, excelling in multiple authoritative evaluation benchmarks."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS is a series of open-source large language models developed by ByteDance's Seed team, designed specifically for powerful long-context processing, reasoning, agents, and general capabilities. The Seed-OSS-36B-Instruct in this series is an instruction-tuned model with 36 billion parameters, natively supporting ultra-long context lengths, enabling it to handle massive documents or complex codebases in a single pass. This model is specially optimized for reasoning, code generation, and agent tasks (such as tool usage), while maintaining balanced and excellent general capabilities. A key feature of this model is the \"Thinking Budget\" function, which allows users to flexibly adjust the reasoning length as needed, effectively improving reasoning efficiency in practical applications."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "A state-of-the-art efficient LLM, skilled in reasoning, mathematics, and programming."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Model provider: sophnet platform. DeepSeek V3 Fast is the high-TPS ultra-fast version of DeepSeek V3 0324, fully powered without quantization, featuring enhanced coding and mathematical capabilities for faster response!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 is a newly launched hybrid reasoning model by DeepSeek, supporting two reasoning modes: thinking and non-thinking. It offers higher thinking efficiency compared to DeepSeek-R1-0528. With post-training optimization, the use of Agent tools and agent task performance have been significantly enhanced."
87
+ "description": "DeepSeek-V3.1 - Non-Thinking Mode; DeepSeek-V3.1 is a newly launched hybrid reasoning model by DeepSeek, supporting both thinking and non-thinking reasoning modes, with higher thinking efficiency compared to DeepSeek-R1-0528. Post-training optimization significantly enhances agent tool usage and agent task performance."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast is the high-TPS, ultra-fast version of DeepSeek V3.1. Hybrid Thinking Mode: By changing the chat template, a single model can support both thinking and non-thinking modes simultaneously. Smarter Tool Invocation: Post-training optimization significantly improves the model's performance in tool usage and agent tasks."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - Thinking Mode; DeepSeek-V3.1 is a newly launched hybrid reasoning model by DeepSeek, supporting both thinking and non-thinking reasoning modes, with higher thinking efficiency compared to DeepSeek-R1-0528. Post-training optimization significantly enhances agent tool usage and agent task performance."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite offers ultra-fast response times and better cost-effectiveness, providing customers with more flexible options for different scenarios. Supports inference and fine-tuning with a 128k context window."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 is a compact and efficient updated version, released in December 2024. It excels in tasks requiring complex reasoning and multi-step processing, such as RAG, tool usage, and agent tasks."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta is a composite AI system supported by multiple publicly available models in GroqCloud, intelligently and selectively using tools to answer user queries."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini is a composite AI system supported by publicly available models in GroqCloud, intelligently and selectively using tools to answer user queries."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "The computer-use-preview model is a dedicated model designed for \"computer usage tools,\" trained to understand and execute computer-related tasks."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Doubao-Seed-1.6-thinking features greatly enhanced thinking capabilities. Compared to Doubao-1.5-thinking-pro, it further improves foundational skills such as coding, math, and logical reasoning, and supports visual understanding. It supports a 256k context window and output lengths up to 16k tokens."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision is a visual deep thinking model that demonstrates stronger general multimodal understanding and reasoning capabilities in scenarios such as education, image review, inspection and security, and AI search Q&A. It supports a 256k context window and an output length of up to 64k tokens."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Doubao image generation model developed by ByteDance Seed team supports both text and image inputs, providing a highly controllable and high-quality image generation experience based on text prompts."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Gemini 2.5 Flash experimental model, supporting image generation."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Gemini 2.5 Flash experimental model, supporting image generation."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in 'thinking' capabilities that allow it to provide responses with higher accuracy and detailed context handling.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly based on whether the thinking capability is activated. If you choose the standard variant (without the ':thinking' suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the ':thinking' variant, which will incur higher thinking output pricing.\n\nAdditionally, Gemini 2.5 Flash can be configured via the 'maximum tokens for reasoning' parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) provides basic instruction processing capabilities, suitable for lightweight applications."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B is an open-source language model from Google that sets new standards in efficiency and performance."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B is an open-source language model from Google that sets new standards in efficiency and performance."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "We are excited to introduce grok-code-fast-1, a fast and cost-effective inference model that excels in agent coding."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound is a composite AI system supported by multiple openly available models already supported in GroqCloud, capable of intelligently and selectively using tools to answer user queries."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini is a composite AI system supported by publicly available models already supported in GroqCloud, capable of intelligently and selectively using tools to answer user queries."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B is a language model that combines creativity and intelligence by merging multiple top models."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Significantly improves high-difficulty mathematics, logic, and coding capabilities, optimizes model output stability, and enhances long-text processing ability."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "The industry's first ultra-large-scale Hybrid-Transformer-Mamba inference model, enhancing reasoning capabilities with exceptional decoding speed, further aligning with human preferences."
1677
+ "description": "Significantly enhances the main model's slow-thinking capabilities in advanced mathematics, complex reasoning, difficult coding, instruction adherence, and text creation quality."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Hunyuan is a multimodal deep thinking model supporting native multimodal chain-of-thought reasoning, excelling in various image reasoning scenarios and significantly outperforming fast-thinking models on science problems."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 is a MoE architecture base model with powerful coding and agent capabilities, totaling 1 trillion parameters with 32 billion active parameters. In benchmark tests across general knowledge reasoning, programming, mathematics, and agent tasks, the K2 model outperforms other mainstream open-source models."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "Kimi-K2 is a Mixture-of-Experts (MoE) foundation model with exceptional coding and agent capabilities, featuring 1T total parameters and 32B activated parameters. In benchmark evaluations across core categories — general knowledge reasoning, programming, mathematics, and agent tasks — the K2 model outperforms other leading open-source models."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 is a MoE architecture base model with exceptional coding and agent capabilities, featuring 1 trillion total parameters and 32 billion activated parameters. In benchmark tests across general knowledge reasoning, programming, mathematics, and agent tasks, the K2 model outperforms other mainstream open-source models."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 is a MoE architecture base model with powerful coding and Agent capabilities, featuring a total of 1 trillion parameters and 32 billion active parameters. In benchmark tests across key categories such as general knowledge reasoning, programming, mathematics, and Agent tasks, the K2 model outperforms other mainstream open-source models."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B is an upgraded version of Nous Hermes 2, featuring the latest internally developed datasets."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Tongyi Qianwen code model. The latest Qwen3-Coder series models are code generation models based on Qwen3, equipped with powerful Coding Agent capabilities, proficient in tool invocation and environment interaction, enabling autonomous programming with excellent coding skills alongside general capabilities."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "The Qwen 3 series Max model preview version shows a significant overall improvement compared to the 2.5 series in general capabilities, including Chinese and English text understanding, complex instruction adherence, subjective open tasks, multilingual capabilities, and tool invocation. The model also exhibits fewer knowledge hallucinations."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ is an experimental research model focused on improving AI reasoning capabilities."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "El modelo más potente del país, superando a los modelos principales extranjeros en tareas en chino como enciclopedias, textos largos y creación generativa. También cuenta con capacidades multimodales líderes en la industria, destacándose en múltiples evaluaciones de referencia."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS es una serie de modelos de lenguaje grandes de código abierto desarrollados por el equipo Seed de ByteDance, diseñados específicamente para un potente manejo de contextos largos, razonamiento, agentes inteligentes y capacidades generales. Dentro de esta serie, Seed-OSS-36B-Instruct es un modelo afinado por instrucciones con 36 mil millones de parámetros, que soporta de forma nativa contextos ultra largos, permitiendo procesar grandes volúmenes de documentos o complejas bases de código de una sola vez. Este modelo está especialmente optimizado para tareas de razonamiento, generación de código y agentes (como el uso de herramientas), manteniendo un equilibrio y una capacidad general sobresaliente. Una característica destacada de este modelo es la función \"Presupuesto de Pensamiento\" (Thinking Budget), que permite a los usuarios ajustar de manera flexible la longitud del razonamiento según sus necesidades, mejorando así la eficiencia en aplicaciones prácticas."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "LLM eficiente de última generación, experto en razonamiento, matemáticas y programación."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Proveedor del modelo: plataforma sophnet. DeepSeek V3 Fast es la versión de alta velocidad y alto TPS de DeepSeek V3 0324, completamente sin cuantificación, con mayor capacidad en código y matemáticas, ¡y respuesta más rápida!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 es un nuevo modelo híbrido de razonamiento lanzado por DeepSeek, que soporta dos modos de razonamiento: con pensamiento y sin pensamiento, con una eficiencia de pensamiento superior a DeepSeek-R1-0528. Tras una optimización post-entrenamiento, el uso de herramientas Agent y el rendimiento en tareas inteligentes han mejorado significativamente."
87
+ "description": "DeepSeek-V3.1 en modo no reflexivo; DeepSeek-V3.1 es un nuevo modelo híbrido de razonamiento lanzado por DeepSeek, que soporta dos modos de razonamiento: reflexivo y no reflexivo, con una eficiencia de pensamiento superior a DeepSeek-R1-0528. Tras una optimización post-entrenamiento, el uso de herramientas por agentes y el desempeño en tareas de agentes inteligentes han mejorado significativamente."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast es la versión de alta TPS y alta velocidad del DeepSeek V3.1. Modo híbrido de pensamiento: mediante la modificación de la plantilla de chat, un solo modelo puede soportar simultáneamente modos reflexivo y no reflexivo. Llamadas a herramientas más inteligentes: gracias a la optimización post-entrenamiento, el modelo mejora notablemente su desempeño en el uso de herramientas y tareas de agentes."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 en modo reflexivo; DeepSeek-V3.1 es un nuevo modelo híbrido de razonamiento lanzado por DeepSeek, que soporta dos modos de razonamiento: reflexivo y no reflexivo, con una eficiencia de pensamiento superior a DeepSeek-R1-0528. Tras una optimización post-entrenamiento, el uso de herramientas por agentes y el desempeño en tareas de agentes inteligentes han mejorado significativamente."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite ofrece una velocidad de respuesta excepcional y una mejor relación calidad-precio, proporcionando opciones más flexibles para diferentes escenarios de los clientes. Soporta inferencia y ajuste fino con una ventana de contexto de 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 es una versión pequeña y eficiente, lanzada en diciembre de 2024. Destaca en tareas que requieren razonamiento complejo y procesamiento en múltiples pasos, como RAG, uso de herramientas y agentes."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta es un sistema de IA compuesto, respaldado por múltiples modelos de acceso abierto ya soportados en GroqCloud, que puede utilizar herramientas de manera inteligente y selectiva para responder a consultas de los usuarios."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini es un sistema de IA compuesto, respaldado por modelos de acceso abierto ya soportados en GroqCloud, que puede utilizar herramientas de manera inteligente y selectiva para responder a consultas de los usuarios."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "El modelo computer-use-preview está diseñado exclusivamente para \"herramientas de uso informático\", entrenado para comprender y ejecutar tareas relacionadas con computadoras."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "El modelo Doubao-Seed-1.6-thinking tiene una capacidad de pensamiento significativamente mejorada. En comparación con Doubao-1.5-thinking-pro, mejora aún más en habilidades básicas como programación, matemáticas y razonamiento lógico, y soporta comprensión visual. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 16k tokens."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision es un modelo de pensamiento profundo visual que demuestra una capacidad multimodal general más fuerte en escenarios como educación, revisión de imágenes, inspección y seguridad, y búsqueda y respuesta con IA. Soporta una ventana de contexto de 256k y una longitud máxima de salida de 64k tokens."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "El modelo de generación de imágenes Doubao fue desarrollado por el equipo Seed de ByteDance, soporta entrada de texto e imagen, y ofrece una experiencia de generación de imágenes altamente controlable y de alta calidad. Genera imágenes basadas en indicaciones textuales."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Modelo experimental Gemini 2.5 Flash, compatible con generación de imágenes."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Modelo experimental Gemini 2.5 Flash, compatible con generación de imágenes."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para razonamiento avanzado, codificación, matemáticas y tareas científicas. Incluye la capacidad de 'pensar' incorporada, lo que le permite proporcionar respuestas con mayor precisión y un manejo más detallado del contexto.\n\nNota: Este modelo tiene dos variantes: con pensamiento y sin pensamiento. La fijación de precios de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo ':thinking'), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe elegir la variante ':thinking', lo que resultará en un precio de salida de pensamiento más alto.\n\nAdemás, Gemini 2.5 Flash se puede configurar a través del parámetro 'número máximo de tokens de razonamiento', como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) ofrece capacidades básicas de procesamiento de instrucciones, adecuado para aplicaciones ligeras."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B es un modelo de lenguaje de código abierto de Google que establece nuevos estándares en eficiencia y rendimiento."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B es un modelo de lenguaje de código abierto de Google que establece nuevos estándares en eficiencia y rendimiento."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Nos complace presentar grok-code-fast-1, un modelo de inferencia rápido y económico que destaca en la codificación de agentes."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound es un sistema de IA compuesto, respaldado por múltiples modelos disponibles públicamente ya soportados en GroqCloud, que puede usar herramientas de manera inteligente y selectiva para responder consultas de usuarios."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini es un sistema de IA compuesto, respaldado por modelos disponibles públicamente ya soportados en GroqCloud, que puede usar herramientas de manera inteligente y selectiva para responder consultas de usuarios."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Mejora significativa en habilidades avanzadas de matemáticas, lógica y codificación, optimización de la estabilidad de salida del modelo y aumento de la capacidad para textos largos."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "El primer modelo de inferencia híbrido de gran escala Hybrid-Transformer-Mamba de la industria, que amplía la capacidad de inferencia, ofrece una velocidad de decodificación excepcional y alinea aún más con las preferencias humanas."
1677
+ "description": "Mejora significativamente las capacidades del modelo principal de pensamiento lento en matemáticas avanzadas, razonamiento complejo, código difícil, cumplimiento de instrucciones y calidad en la creación de textos."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Modelo de pensamiento profundo multimodal Hunyuan, que soporta cadenas de pensamiento nativas multimodales, sobresale en diversos escenarios de razonamiento con imágenes y mejora significativamente en problemas científicos en comparación con modelos de pensamiento rápido."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 es un modelo base con arquitectura MoE que posee capacidades excepcionales en código y agentes, con un total de 1T parámetros y 32B parámetros activados. En pruebas de rendimiento en categorías principales como razonamiento general, programación, matemáticas y agentes, el modelo K2 supera a otros modelos de código abierto populares."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 es un modelo base con arquitectura MoE que ofrece potentes capacidades para código y agentes, con 1T parámetros totales y 32B parámetros activados. En las pruebas de referencia en categorías principales como razonamiento de conocimiento general, programación, matemáticas y agentes, el rendimiento del modelo K2 supera al de otros modelos de código abierto más extendidos."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 es un modelo base con arquitectura MoE que posee capacidades avanzadas de codificación y agentes, con un total de 1 billón de parámetros y 32 mil millones de parámetros activados. En pruebas de referencia en categorías principales como razonamiento general, programación, matemáticas y agentes, el rendimiento del modelo K2 supera a otros modelos de código abierto populares."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 es un modelo base con arquitectura MoE que cuenta con capacidades avanzadas de código y agentes, con un total de 1T parámetros y 32B parámetros activados. En pruebas de referencia en categorías principales como razonamiento de conocimiento general, programación, matemáticas y agentes, el modelo K2 supera el rendimiento de otros modelos de código abierto populares."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B es una versión mejorada de Nous Hermes 2, que incluye los conjuntos de datos más recientes desarrollados internamente."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Modelo de código Tongyi Qianwen. La última serie de modelos Qwen3-Coder está basada en Qwen3 para generación de código, con una potente capacidad de agente de codificación, experta en llamadas a herramientas e interacción con el entorno, capaz de programación autónoma, combinando una excelente habilidad en código con capacidades generales."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Versión preliminar del modelo Max de la serie Qwen 3, que presenta una mejora significativa en la capacidad general en comparación con la serie 2.5, incluyendo comprensión de texto en chino e inglés, cumplimiento de instrucciones complejas, tareas abiertas subjetivas, capacidades multilingües y llamadas a herramientas; además, reduce notablemente las alucinaciones de conocimiento del modelo."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ es un modelo de investigación experimental que se centra en mejorar la capacidad de razonamiento de la IA."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "توانایی مدل در کشور اول است و در وظایف چینی مانند دانشنامه، متن‌های طولانی و تولید خلاقانه از مدل‌های اصلی خارجی پیشی می‌گیرد. همچنین دارای قابلیت‌های چندرسانه‌ای پیشرفته در صنعت است و در چندین معیار ارزیابی معتبر عملکرد عالی دارد."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS مجموعه‌ای از مدل‌های زبان بزرگ متن‌باز است که توسط تیم Seed شرکت بایت‌دنس توسعه یافته‌اند و به‌طور خاص برای پردازش متن‌های طولانی، استدلال، عامل‌ها (agent) و قابلیت‌های عمومی طراحی شده‌اند. مدل Seed-OSS-36B-Instruct در این مجموعه، یک مدل تنظیم‌شده با ۳۶ میلیارد پارامتر است که به‌طور بومی از طول متن بسیار طولانی پشتیبانی می‌کند و قادر است حجم عظیمی از اسناد یا کدهای پیچیده را به‌صورت یکجا پردازش کند. این مدل به‌طور ویژه برای استدلال، تولید کد و وظایف عامل (مانند استفاده از ابزارها) بهینه شده و در عین حال تعادل و توانایی عمومی برجسته‌ای را حفظ می‌کند. یکی از ویژگی‌های برجسته این مدل، قابلیت «بودجه تفکر» است که به کاربران اجازه می‌دهد طول استدلال را به‌صورت انعطاف‌پذیر تنظیم کنند و بدین ترتیب کارایی استدلال در کاربردهای عملی به‌طور مؤثری افزایش یابد."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "مدل LLM پیشرفته و کارآمد که در استدلال، ریاضیات و برنامه‌نویسی تخصص دارد."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "تأمین‌کننده مدل: پلتفرم sophnet. DeepSeek V3 Fast نسخه‌ای با TPS بالا و سرعت بسیار زیاد از نسخه DeepSeek V3 0324 است، بدون کمیت‌سازی، با توانایی‌های کد و ریاضی قوی‌تر و پاسخ‌دهی سریع‌تر!"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی می‌کند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای Agent و عملکرد وظایف هوشمند به طور قابل توجهی بهبود یافته است."
87
+ "description": "DeepSeek-V3.1 حالت غیرتفکری؛ DeepSeek-V3.1 مدل استدلال ترکیبی جدیدی از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی می‌کند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای عامل و عملکرد در وظایف عامل به‌طور قابل توجهی بهبود یافته است."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast نسخه پرسرعت و با TPS بالا از نسخه DeepSeek V3.1 است. حالت استدلال ترکیبی: با تغییر قالب گفتگو، یک مدل می‌تواند همزمان از حالت تفکری و غیرتفکری پشتیبانی کند. فراخوانی هوشمندتر ابزارها: با بهینه‌سازی پس از آموزش، عملکرد مدل در استفاده از ابزارها و وظایف عامل به‌طور چشمگیری بهبود یافته است."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 حالت تفکری؛ DeepSeek-V3.1 مدل استدلال ترکیبی جدیدی از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی می‌کند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای عامل و عملکرد در وظایف عامل به‌طور قابل توجهی بهبود یافته است."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite دارای سرعت پاسخگویی بی‌نظیر و نسبت قیمت به کارایی بهتر است و گزینه‌های انعطاف‌پذیرتری را برای سناریوهای مختلف مشتریان ارائه می‌دهد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی می‌کند."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 یک نسخه کوچک و کارآمد به‌روزرسانی شده است که در دسامبر 2024 منتشر شد. این مدل در RAG، استفاده از ابزارها، نمایندگی و سایر وظایفی که نیاز به استدلال پیچیده و پردازش چند مرحله‌ای دارند، عملکرد فوق‌العاده‌ای دارد."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta یک سیستم هوش مصنوعی ترکیبی است که توسط چندین مدل قابل دسترس و پشتیبانی شده در GroqCloud پشتیبانی می‌شود و می‌تواند به‌طور هوشمند و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده کند."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini یک سیستم هوش مصنوعی ترکیبی است که توسط مدل‌های عمومی قابل دسترس در GroqCloud پشتیبانی می‌شود و می‌تواند به‌طور هوشمند و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده کند."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "مدل computer-use-preview به‌طور اختصاصی برای «ابزارهای استفاده از کامپیوتر» طراحی شده و آموزش دیده است تا وظایف مرتبط با کامپیوتر را درک و اجرا کند."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "مدل Doubao-Seed-1.6-thinking با توانایی تفکر به‌طور قابل توجهی تقویت شده است، نسبت به Doubao-1.5-thinking-pro در مهارت‌های پایه‌ای مانند برنامه‌نویسی، ریاضیات و استدلال منطقی پیشرفت داشته و از درک تصویری پشتیبانی می‌کند. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی می‌کند و طول خروجی تا ۱۶ هزار توکن را امکان‌پذیر می‌سازد."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "مدل تفکر عمیق بصری Doubao-Seed-1.6-vision در زمینه‌هایی مانند آموزش، بازبینی تصاویر، بازرسی و امنیت و پرسش و پاسخ جستجوی هوش مصنوعی، توانایی درک و استدلال چندرسانه‌ای عمومی قوی‌تری را نشان می‌دهد. از پنجره متنی ۲۵۶ هزار توکنی پشتیبانی می‌کند و طول خروجی تا ۶۴ هزار توکن قابل افزایش است."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "مدل تولید تصویر Doubao توسط تیم Seed شرکت بایت‌دنس توسعه یافته است و از ورودی‌های متن و تصویر پشتیبانی می‌کند و تجربه تولید تصویر با کنترل بالا و کیفیت عالی را ارائه می‌دهد. تصاویر بر اساس متن توصیفی تولید می‌شوند."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه می‌دهد پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمت‌گذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکن‌های تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکن‌های تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمت‌گذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash می‌تواند از طریق پارامتر «حداکثر تعداد توکن‌های استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) توانایی پردازش دستورات پایه را فراهم می‌کند و برای برنامه‌های سبک مناسب است."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B یک مدل زبان متن‌باز از گوگل است که استانداردهای جدیدی در زمینه کارایی و عملکرد ایجاد کرده است."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B یک مدل زبان متن‌باز از گوگل است که استانداردهای جدیدی در کارایی و عملکرد ایجاد کرده است."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "ما خوشحالیم که grok-code-fast-1 را معرفی کنیم، مدلی سریع و مقرون‌به‌صرفه برای استنتاج که در کدگذاری نماینده عملکرد برجسته‌ای دارد."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound یک سیستم هوش مصنوعی ترکیبی است که توسط چندین مدل متن‌باز موجود در GroqCloud پشتیبانی می‌شود و می‌تواند به‌صورت هوشمند و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده کند."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini یک سیستم هوش مصنوعی ترکیبی است که توسط مدل‌های متن‌باز موجود در GroqCloud پشتیبانی می‌شود و می‌تواند به‌صورت هوشمند و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده کند."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند می‌دهد."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "افزایش قابل توجه در توانایی‌های ریاضی، منطقی و کدنویسی پیچیده، بهینه‌سازی پایداری خروجی مدل و ارتقاء توانایی مدل در پردازش متون طولانی."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "اولین مدل استدلال هیبریدی-ترنسفورمر-مامبا با مقیاس فوق‌العاده بزرگ در صنعت، که توانایی استدلال را گسترش می‌دهد و سرعت رمزگشایی فوق‌العاده‌ای دارد و به طور بیشتری با ترجیحات انسانی هم‌راستا می‌شود."
1677
+ "description": "توانایی‌های مدل اصلی تفکر کند به‌طور قابل توجهی در زمینه‌های ریاضیات پیشرفته، استدلال پیچیده، کدهای دشوار، پیروی از دستورالعمل‌ها و کیفیت تولید متن بهبود یافته است."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "مدل تفکر عمیق چندرسانه‌ای Hunyuan که از زنجیره تفکر بلند بومی چندرسانه‌ای پشتیبانی می‌کند، در پردازش انواع سناریوهای استدلال تصویری مهارت دارد و در مسائل علمی نسبت به مدل تفکر سریع بهبود قابل توجهی دارد."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل‌سازی است، با مجموع یک تریلیون پارامتر و 32 میلیارد پارامتر فعال. در تست‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل‌ها، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانمندی‌های بسیار قوی در حوزهٔ برنامه‌نویسی و عامل‌ها (Agent) می‌باشد. مجموع پارامترها 1T و پارامترهای فعال‌شده 32B است. در آزمون‌های بنچمارک در دسته‌های اصلی مانند استدلال دانش عمومی، برنامه‌نویسی، ریاضیات و Agent، عملکرد مدل K2 از سایر مدل‌های متن‌باز مرسوم پیشی گرفته است."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل است، با 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال. در آزمون‌های معیار عملکرد در حوزه‌های دانش عمومی، برنامه‌نویسی، ریاضیات و عامل، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز اصلی دارد."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 یک مدل پایه با معماری MoE است که دارای توانایی‌های بسیار قوی در کدنویسی و عامل‌ها می‌باشد، با مجموع پارامتر ۱ تریلیون و پارامترهای فعال ۳۲ میلیارد. در آزمون‌های معیار عملکرد در دسته‌های اصلی مانند استدلال دانش عمومی، برنامه‌نویسی، ریاضیات و عامل‌ها، مدل K2 عملکردی فراتر از سایر مدل‌های متن‌باز رایج دارد."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه داده‌های توسعه‌یافته داخلی می‌باشد."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "مدل کد نویسی Tongyi Qianwen. جدیدترین مدل‌های سری Qwen3-Coder بر پایه Qwen3 ساخته شده‌اند و دارای توانایی‌های قدرتمند Coding Agent هستند، در فراخوانی ابزارها و تعامل با محیط مهارت دارند، قادر به برنامه‌نویسی خودکار هستند و در کنار توانایی‌های کدنویسی برجسته، قابلیت‌های عمومی نیز دارند."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "نسخه پیش‌نمایش مدل Max از سری Qwen 3، نسبت به سری 2.5 بهبود قابل توجهی در توانایی‌های عمومی، درک متن‌های چندزبانه چینی و انگلیسی، پیروی از دستورات پیچیده، انجام وظایف باز و ذهنی، پشتیبانی چندزبانه و فراخوانی ابزارها دارد؛ همچنین خطاهای دانش مدل کاهش یافته است."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ یک مدل تحقیقاتی تجربی است که بر بهبود توانایی استدلال AI تمرکز دارد."
2554
2581
  },
@@ -53,6 +53,9 @@
53
53
  "Baichuan4-Turbo": {
54
54
  "description": "Le modèle le plus performant en Chine, surpassant les modèles dominants étrangers dans les tâches en chinois telles que les encyclopédies, les longs textes et la création. Il possède également des capacités multimodales de pointe, avec d'excellentes performances dans plusieurs évaluations de référence."
55
55
  },
56
+ "ByteDance-Seed/Seed-OSS-36B-Instruct": {
57
+ "description": "Seed-OSS est une série de grands modèles de langage open source développée par l'équipe Seed de ByteDance, conçue pour une gestion puissante des contextes longs, le raisonnement, les agents intelligents et les capacités générales. Le modèle Seed-OSS-36B-Instruct de cette série est un modèle affiné par instruction avec 36 milliards de paramètres, prenant en charge nativement des contextes ultra-longs, ce qui lui permet de traiter en une seule fois d'énormes documents ou des bases de code complexes. Ce modèle est spécialement optimisé pour le raisonnement, la génération de code et les tâches d'agents (comme l'utilisation d'outils), tout en maintenant un équilibre et une excellente capacité générale. Une caractéristique majeure de ce modèle est la fonction « budget de réflexion » (Thinking Budget), qui permet aux utilisateurs d'ajuster de manière flexible la longueur du raisonnement selon leurs besoins, améliorant ainsi efficacement l'efficacité du raisonnement en application pratique."
58
+ },
56
59
  "DeepSeek-R1": {
57
60
  "description": "LLM efficace à la pointe de la technologie, spécialisé dans le raisonnement, les mathématiques et la programmation."
58
61
  },
@@ -81,7 +84,13 @@
81
84
  "description": "Fournisseur du modèle : plateforme sophnet. DeepSeek V3 Fast est la version ultra-rapide à TPS élevé de DeepSeek V3 0324, entièrement non quantifiée, avec des capacités de code et mathématiques renforcées, offrant une réactivité accrue !"
82
85
  },
83
86
  "DeepSeek-V3.1": {
84
- "description": "DeepSeek-V3.1 est un nouveau modèle d'inférence hybride lancé par DeepSeek, prenant en charge deux modes d'inférence : réfléchi et non réfléchi, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances des tâches des agents ont été grandement améliorées."
87
+ "description": "DeepSeek-V3.1 - mode sans réflexion ; DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride lancé par DeepSeek, supportant deux modes de raisonnement : avec et sans réflexion, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances dans les tâches d'agents ont été grandement améliorées."
88
+ },
89
+ "DeepSeek-V3.1-Fast": {
90
+ "description": "DeepSeek V3.1 Fast est la version ultra-rapide à TPS élevé de DeepSeek V3.1. Mode de réflexion hybride : en modifiant le modèle de conversation, un seul modèle peut supporter à la fois les modes avec et sans réflexion. Appel d'outils plus intelligent : grâce à l'optimisation post-entraînement, les performances du modèle dans l'utilisation des outils et les tâches d'agents sont significativement améliorées."
91
+ },
92
+ "DeepSeek-V3.1-Think": {
93
+ "description": "DeepSeek-V3.1 - mode réflexion ; DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride lancé par DeepSeek, supportant deux modes de raisonnement : avec et sans réflexion, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances dans les tâches d'agents ont été grandement améliorées."
85
94
  },
86
95
  "Doubao-lite-128k": {
87
96
  "description": "Doubao-lite offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 128k."
@@ -809,12 +818,6 @@
809
818
  "command-r7b-12-2024": {
810
819
  "description": "command-r7b-12-2024 est une version mise à jour, petite et efficace, publiée en décembre 2024. Il excelle dans les tâches nécessitant un raisonnement complexe et un traitement en plusieurs étapes, comme RAG, l'utilisation d'outils et l'agent."
811
820
  },
812
- "compound-beta": {
813
- "description": "Compound-beta est un système d'IA composite, soutenu par plusieurs modèles disponibles en open source dans GroqCloud, capable d'utiliser intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs."
814
- },
815
- "compound-beta-mini": {
816
- "description": "Compound-beta-mini est un système d'IA composite, soutenu par des modèles disponibles en open source dans GroqCloud, capable d'utiliser intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs."
817
- },
818
821
  "computer-use-preview": {
819
822
  "description": "Le modèle computer-use-preview est un modèle dédié conçu pour les « outils d'utilisation informatique », entraîné pour comprendre et exécuter des tâches liées à l'informatique."
820
823
  },
@@ -1055,6 +1058,9 @@
1055
1058
  "doubao-seed-1.6-thinking": {
1056
1059
  "description": "Le modèle Doubao-Seed-1.6-thinking a une capacité de réflexion considérablement renforcée. Par rapport à Doubao-1.5-thinking-pro, il améliore davantage les compétences fondamentales telles que le codage, les mathématiques et le raisonnement logique, tout en supportant la compréhension visuelle. Il prend en charge une fenêtre contextuelle de 256k et une longueur de sortie maximale de 16k tokens."
1057
1060
  },
1061
+ "doubao-seed-1.6-vision": {
1062
+ "description": "Doubao-Seed-1.6-vision est un modèle de réflexion profonde visuelle, démontrant une compréhension multimodale générale et des capacités de raisonnement renforcées dans des scénarios tels que l'éducation, la modération d'images, l'inspection, la sécurité et la recherche de questions-réponses AI. Il supporte une fenêtre contextuelle de 256k et une longueur de sortie maximale de 64k tokens."
1063
+ },
1058
1064
  "doubao-seedream-3-0-t2i-250415": {
1059
1065
  "description": "Le modèle de génération d'images Doubao développé par l'équipe Seed de ByteDance supporte les entrées texte et image, offrant une expérience de génération d'images hautement contrôlable et de haute qualité. Il génère des images à partir d'invites textuelles."
1060
1066
  },
@@ -1400,9 +1406,6 @@
1400
1406
  "google/gemini-2.5-flash-image-preview": {
1401
1407
  "description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
1402
1408
  },
1403
- "google/gemini-2.5-flash-image-preview:free": {
1404
- "description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
1405
- },
1406
1409
  "google/gemini-2.5-flash-preview": {
1407
1410
  "description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
1408
1411
  },
@@ -1442,6 +1445,9 @@
1442
1445
  "google/gemma-2b-it": {
1443
1446
  "description": "Gemma Instruct (2B) offre des capacités de traitement d'instructions de base, adapté aux applications légères."
1444
1447
  },
1448
+ "google/gemma-3-12b-it": {
1449
+ "description": "Gemma 3 12B est un modèle de langage open source de Google, établissant de nouvelles normes en matière d'efficacité et de performance."
1450
+ },
1445
1451
  "google/gemma-3-1b-it": {
1446
1452
  "description": "Gemma 3 1B est un modèle de langage open source de Google, établissant de nouvelles normes en matière d'efficacité et de performance."
1447
1453
  },
@@ -1607,6 +1613,12 @@
1607
1613
  "grok-code-fast-1": {
1608
1614
  "description": "Nous sommes ravis de présenter grok-code-fast-1, un modèle d'inférence rapide et économique, excellent dans le codage des agents."
1609
1615
  },
1616
+ "groq/compound": {
1617
+ "description": "Compound est un système d'IA composite, soutenu par plusieurs modèles ouverts déjà disponibles dans GroqCloud, capable d'utiliser intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs."
1618
+ },
1619
+ "groq/compound-mini": {
1620
+ "description": "Compound-mini est un système d'IA composite, soutenu par des modèles publics déjà disponibles dans GroqCloud, capable d'utiliser intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs."
1621
+ },
1610
1622
  "gryphe/mythomax-l2-13b": {
1611
1623
  "description": "MythoMax l2 13B est un modèle linguistique combinant créativité et intelligence, intégrant plusieurs modèles de pointe."
1612
1624
  },
@@ -1662,7 +1674,7 @@
1662
1674
  "description": "Amélioration significative des capacités en mathématiques complexes, logique et codage, optimisation de la stabilité des sorties du modèle et amélioration des capacités de traitement de longs textes."
1663
1675
  },
1664
1676
  "hunyuan-t1-latest": {
1665
- "description": "Le premier modèle d'inférence Hybrid-Transformer-Mamba à grande échelle de l'industrie, qui étend les capacités d'inférence, offre une vitesse de décodage exceptionnelle et aligne davantage les préférences humaines."
1677
+ "description": "Amélioration significative des capacités du modèle principal de réflexion lente dans les domaines des mathématiques avancées, du raisonnement complexe, du code difficile, du respect des instructions et de la qualité de la création textuelle."
1666
1678
  },
1667
1679
  "hunyuan-t1-vision": {
1668
1680
  "description": "Modèle de réflexion profonde multimodal Hunyuan, supportant des chaînes de pensée natives multimodales longues, excellent dans divers scénarios d'inférence d'images, avec une amélioration globale par rapport aux modèles de pensée rapide dans les problèmes scientifiques."
@@ -1766,6 +1778,9 @@
1766
1778
  "kimi-k2-0711-preview": {
1767
1779
  "description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités exceptionnelles en code et Agent, avec un total de 1T de paramètres et 32B de paramètres activés. Dans les tests de performance sur les principales catégories telles que le raisonnement général, la programmation, les mathématiques et les Agents, le modèle K2 surpasse les autres modèles open source majeurs."
1768
1780
  },
1781
+ "kimi-k2-0905-preview": {
1782
+ "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
1783
+ },
1769
1784
  "kimi-k2-turbo-preview": {
1770
1785
  "description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités remarquables en programmation et en agents autonomes, avec 1T de paramètres au total et 32B de paramètres activés. Dans les principaux tests de référence couvrant le raisonnement général, la programmation, les mathématiques et les agents, le modèle K2 surpasse les autres modèles open source majeurs."
1771
1786
  },
@@ -2165,9 +2180,18 @@
2165
2180
  "moonshotai/Kimi-K2-Instruct": {
2166
2181
  "description": "Kimi K2 est un modèle de base à architecture MoE doté de capacités exceptionnelles en codage et agents, avec 1 000 milliards de paramètres au total et 32 milliards activés. Il surpasse les autres modèles open source majeurs dans les tests de performance sur les connaissances générales, la programmation, les mathématiques et les agents."
2167
2182
  },
2183
+ "moonshotai/Kimi-K2-Instruct-0905": {
2184
+ "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2185
+ },
2186
+ "moonshotai/kimi-k2-0905": {
2187
+ "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2188
+ },
2168
2189
  "moonshotai/kimi-k2-instruct": {
2169
2190
  "description": "kimi-k2 est un modèle de base à architecture MoE doté de capacités exceptionnelles en code et Agent, avec un total de 1T paramètres et 32B paramètres activés. Dans les tests de performance de référence couvrant les principales catégories telles que le raisonnement général, la programmation, les mathématiques et les Agents, le modèle K2 surpasse les autres modèles open source majeurs."
2170
2191
  },
2192
+ "moonshotai/kimi-k2-instruct-0905": {
2193
+ "description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
2194
+ },
2171
2195
  "nousresearch/hermes-2-pro-llama-3-8b": {
2172
2196
  "description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
2173
2197
  },
@@ -2549,6 +2573,9 @@
2549
2573
  "qwen3-coder-plus": {
2550
2574
  "description": "Modèle de code Tongyi Qianwen. La dernière série de modèles Qwen3-Coder est basée sur Qwen3 pour la génération de code, avec une puissante capacité d'agent de codage, maîtrisant l'appel d'outils et l'interaction avec l'environnement, capable de programmation autonome, alliant excellence en codage et polyvalence."
2551
2575
  },
2576
+ "qwen3-max-preview": {
2577
+ "description": "Version Preview du modèle Max de la série Qwen 3, avec une amélioration significative des capacités générales par rapport à la série 2.5, notamment en compréhension de texte général bilingue (chinois et anglais), respect des instructions complexes, tâches ouvertes subjectives, capacités multilingues et appels d'outils ; le modèle présente également moins d'hallucinations de connaissances."
2578
+ },
2552
2579
  "qwq": {
2553
2580
  "description": "QwQ est un modèle de recherche expérimental, axé sur l'amélioration des capacités de raisonnement de l'IA."
2554
2581
  },