@lobehub/chat 1.134.0 → 1.134.1
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/CHANGELOG.md +25 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/models.json +43 -4
- package/locales/bg-BG/models.json +43 -4
- package/locales/de-DE/models.json +43 -4
- package/locales/en-US/models.json +43 -4
- package/locales/es-ES/models.json +43 -4
- package/locales/fa-IR/models.json +43 -4
- package/locales/fr-FR/models.json +43 -4
- package/locales/it-IT/models.json +43 -4
- package/locales/ja-JP/models.json +43 -4
- package/locales/ko-KR/models.json +43 -4
- package/locales/nl-NL/models.json +43 -4
- package/locales/pl-PL/models.json +43 -4
- package/locales/pt-BR/models.json +43 -4
- package/locales/ru-RU/models.json +43 -4
- package/locales/tr-TR/models.json +43 -4
- package/locales/vi-VN/models.json +43 -4
- package/locales/zh-CN/models.json +43 -4
- package/locales/zh-TW/models.json +43 -4
- package/package.json +2 -2
|
@@ -92,6 +92,12 @@
|
|
|
92
92
|
"DeepSeek-V3.1-Think": {
|
|
93
93
|
"description": "DeepSeek-V3.1 - Thinking Mode; DeepSeek-V3.1 is a newly launched hybrid reasoning model by DeepSeek, supporting both thinking and non-thinking reasoning modes, with higher thinking efficiency compared to DeepSeek-R1-0528. Post-training optimization significantly enhances agent tool usage and agent task performance."
|
|
94
94
|
},
|
|
95
|
+
"DeepSeek-V3.2-Exp": {
|
|
96
|
+
"description": "DeepSeek V3.2 is the latest general-purpose large model released by DeepSeek, supporting a hybrid inference architecture and featuring enhanced Agent capabilities."
|
|
97
|
+
},
|
|
98
|
+
"DeepSeek-V3.2-Exp-Think": {
|
|
99
|
+
"description": "DeepSeek V3.2 Thinking Mode. Before outputting the final answer, the model first generates a chain of thought to improve the accuracy of the final response."
|
|
100
|
+
},
|
|
95
101
|
"Doubao-lite-128k": {
|
|
96
102
|
"description": "Doubao-lite offers ultra-fast response times and better cost-effectiveness, providing customers with more flexible options for different scenarios. Supports inference and fine-tuning with a 128k context window."
|
|
97
103
|
},
|
|
@@ -287,6 +293,9 @@
|
|
|
287
293
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
294
|
"description": "DeepSeek-V3.1 is a hybrid large language model released by DeepSeek AI, featuring multiple significant upgrades over its predecessor. A key innovation of this model is the integration of both \"Thinking Mode\" and \"Non-thinking Mode,\" allowing users to flexibly switch between modes by adjusting chat templates to suit different task requirements. Through dedicated post-training optimization, V3.1 significantly enhances performance in tool invocation and Agent tasks, better supporting external search tools and executing complex multi-step tasks. Based on DeepSeek-V3.1-Base, it employs a two-stage long-text extension method to greatly increase training data volume, improving its handling of long documents and extensive code. As an open-source model, DeepSeek-V3.1 demonstrates capabilities comparable to top closed-source models across benchmarks in coding, mathematics, and reasoning. Its Mixture of Experts (MoE) architecture maintains a massive model capacity while effectively reducing inference costs."
|
|
289
295
|
},
|
|
296
|
+
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
297
|
+
"description": "DeepSeek-V3.1-Terminus is an updated version of the V3.1 model released by DeepSeek, positioned as a hybrid agent large language model. This update focuses on fixing user-reported issues and improving stability while maintaining the model's original capabilities. It significantly enhances language consistency, reducing the mixing of Chinese and English and the occurrence of abnormal characters. The model integrates both \"Thinking Mode\" and \"Non-thinking Mode,\" allowing users to switch flexibly between chat templates to suit different tasks. As a key optimization, V3.1-Terminus improves the performance of the Code Agent and Search Agent, making tool invocation and multi-step complex task execution more reliable."
|
|
298
|
+
},
|
|
290
299
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
291
300
|
"description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
|
|
292
301
|
},
|
|
@@ -926,6 +935,9 @@
|
|
|
926
935
|
"deepseek-ai/DeepSeek-V3.1": {
|
|
927
936
|
"description": "DeepSeek-V3.1 is a hybrid large language model released by DeepSeek AI, featuring multiple significant upgrades over its predecessor. A key innovation of this model is the integration of both \"Thinking Mode\" and \"Non-thinking Mode,\" allowing users to flexibly switch between modes by adjusting chat templates to suit different task requirements. Through dedicated post-training optimization, V3.1 significantly enhances performance in tool invocation and Agent tasks, better supporting external search tools and executing complex multi-step tasks. Based on DeepSeek-V3.1-Base, it employs a two-stage long-text extension method to greatly increase training data volume, improving its handling of long documents and extensive code. As an open-source model, DeepSeek-V3.1 demonstrates capabilities comparable to top closed-source models across benchmarks in coding, mathematics, and reasoning. Its Mixture of Experts (MoE) architecture maintains a massive model capacity while effectively reducing inference costs."
|
|
928
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
|
+
"description": "DeepSeek-V3.1-Terminus is an updated version of the V3.1 model released by DeepSeek, positioned as a hybrid agent large language model. This update focuses on fixing user-reported issues and improving stability while maintaining the model's original capabilities. It significantly enhances language consistency, reducing the mixing of Chinese and English and the occurrence of abnormal characters. The model integrates both \"Thinking Mode\" and \"Non-thinking Mode,\" allowing users to switch flexibly between chat templates to suit different tasks. As a key optimization, V3.1-Terminus improves the performance of the Code Agent and Search Agent, making tool invocation and multi-step complex task execution more reliable."
|
|
940
|
+
},
|
|
929
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
930
942
|
"description": "DeepSeek 67B is an advanced model trained for highly complex conversations."
|
|
931
943
|
},
|
|
@@ -999,7 +1011,7 @@
|
|
|
999
1011
|
"description": "DeepSeek R1 full version, with 671B parameters, supporting real-time online search, offering enhanced understanding and generation capabilities."
|
|
1000
1012
|
},
|
|
1001
1013
|
"deepseek-reasoner": {
|
|
1002
|
-
"description": "DeepSeek V3.
|
|
1014
|
+
"description": "DeepSeek V3.2 Thinking Mode. Before outputting the final answer, the model first generates a chain of thought to improve the accuracy of the final response."
|
|
1003
1015
|
},
|
|
1004
1016
|
"deepseek-v2": {
|
|
1005
1017
|
"description": "DeepSeek V2 is an efficient Mixture-of-Experts language model, suitable for cost-effective processing needs."
|
|
@@ -1352,24 +1364,36 @@
|
|
|
1352
1364
|
"gemini-2.5-flash": {
|
|
1353
1365
|
"description": "Gemini 2.5 Flash is Google's most cost-effective model, offering comprehensive capabilities."
|
|
1354
1366
|
},
|
|
1367
|
+
"gemini-2.5-flash-image": {
|
|
1368
|
+
"description": "Nano Banana is Google's latest, fastest, and most efficient native multimodal model, allowing you to generate and edit images through conversation."
|
|
1369
|
+
},
|
|
1355
1370
|
"gemini-2.5-flash-image-preview": {
|
|
1356
1371
|
"description": "Nano Banana is Google's latest, fastest, and most efficient native multimodal model, enabling you to generate and edit images through conversation."
|
|
1357
1372
|
},
|
|
1358
1373
|
"gemini-2.5-flash-image-preview:image": {
|
|
1359
1374
|
"description": "Nano Banana is Google's latest, fastest, and most efficient native multimodal model, enabling you to generate and edit images through conversation."
|
|
1360
1375
|
},
|
|
1376
|
+
"gemini-2.5-flash-image:image": {
|
|
1377
|
+
"description": "Nano Banana is Google's latest, fastest, and most efficient native multimodal model, allowing you to generate and edit images through conversation."
|
|
1378
|
+
},
|
|
1361
1379
|
"gemini-2.5-flash-lite": {
|
|
1362
1380
|
"description": "Gemini 2.5 Flash-Lite is Google's smallest and most cost-effective model, designed for large-scale use."
|
|
1363
1381
|
},
|
|
1364
1382
|
"gemini-2.5-flash-lite-preview-06-17": {
|
|
1365
1383
|
"description": "Gemini 2.5 Flash-Lite Preview is Google's smallest and most cost-efficient model, designed for large-scale usage."
|
|
1366
1384
|
},
|
|
1385
|
+
"gemini-2.5-flash-lite-preview-09-2025": {
|
|
1386
|
+
"description": "Preview release (September 25th, 2025) of Gemini 2.5 Flash-Lite"
|
|
1387
|
+
},
|
|
1367
1388
|
"gemini-2.5-flash-preview-04-17": {
|
|
1368
1389
|
"description": "Gemini 2.5 Flash Preview is Google's most cost-effective model, offering a comprehensive set of features."
|
|
1369
1390
|
},
|
|
1370
1391
|
"gemini-2.5-flash-preview-05-20": {
|
|
1371
1392
|
"description": "Gemini 2.5 Flash Preview is Google's most cost-effective model, offering comprehensive capabilities."
|
|
1372
1393
|
},
|
|
1394
|
+
"gemini-2.5-flash-preview-09-2025": {
|
|
1395
|
+
"description": "Preview release (September 25th, 2025) of Gemini 2.5 Flash"
|
|
1396
|
+
},
|
|
1373
1397
|
"gemini-2.5-pro": {
|
|
1374
1398
|
"description": "Gemini 2.5 Pro is Google's most advanced reasoning model, capable of tackling complex problems in coding, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long-context processing."
|
|
1375
1399
|
},
|
|
@@ -1382,6 +1406,15 @@
|
|
|
1382
1406
|
"gemini-2.5-pro-preview-06-05": {
|
|
1383
1407
|
"description": "Gemini 2.5 Pro Preview is Google's most advanced cognitive model, capable of reasoning through complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long-context understanding."
|
|
1384
1408
|
},
|
|
1409
|
+
"gemini-flash-latest": {
|
|
1410
|
+
"description": "Latest release of Gemini Flash"
|
|
1411
|
+
},
|
|
1412
|
+
"gemini-flash-lite-latest": {
|
|
1413
|
+
"description": "Latest release of Gemini Flash-Lite"
|
|
1414
|
+
},
|
|
1415
|
+
"gemini-pro-latest": {
|
|
1416
|
+
"description": "Latest release of Gemini Pro"
|
|
1417
|
+
},
|
|
1385
1418
|
"gemma-7b-it": {
|
|
1386
1419
|
"description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness."
|
|
1387
1420
|
},
|
|
@@ -1811,12 +1844,12 @@
|
|
|
1811
1844
|
"hunyuan-t1-latest": {
|
|
1812
1845
|
"description": "Significantly enhances the main model's slow-thinking capabilities in advanced mathematics, complex reasoning, difficult coding, instruction adherence, and text creation quality."
|
|
1813
1846
|
},
|
|
1814
|
-
"hunyuan-t1-vision": {
|
|
1815
|
-
"description": "Hunyuan is a multimodal deep thinking model supporting native multimodal chain-of-thought reasoning, excelling in various image reasoning scenarios and significantly outperforming fast-thinking models on science problems."
|
|
1816
|
-
},
|
|
1817
1847
|
"hunyuan-t1-vision-20250619": {
|
|
1818
1848
|
"description": "The latest Hunyuan t1-vision multimodal deep thinking model supports native long Chain-of-Thought reasoning across modalities, comprehensively improving over the previous default version."
|
|
1819
1849
|
},
|
|
1850
|
+
"hunyuan-t1-vision-20250916": {
|
|
1851
|
+
"description": "Hunyuan multimodal deep reasoning model supporting native long chains of thought across modalities, excelling in various image reasoning scenarios and significantly improving performance on science problems compared to fast thinking models."
|
|
1852
|
+
},
|
|
1820
1853
|
"hunyuan-turbo": {
|
|
1821
1854
|
"description": "The preview version of the next-generation Hunyuan large language model, featuring a brand-new mixed expert model (MoE) structure, which offers faster inference efficiency and stronger performance compared to Hunyuan Pro."
|
|
1822
1855
|
},
|
|
@@ -1838,6 +1871,9 @@
|
|
|
1838
1871
|
"hunyuan-turbos-20250604": {
|
|
1839
1872
|
"description": "Upgraded pretraining foundation with improved writing and reading comprehension skills, significantly enhanced coding and STEM abilities, and continuous improvements in following complex instructions."
|
|
1840
1873
|
},
|
|
1874
|
+
"hunyuan-turbos-20250926": {
|
|
1875
|
+
"description": "Pre-training base data quality upgrade. Optimized post-training phase strategies to continuously enhance Agent capabilities, English and minor language proficiency, instruction compliance, coding, and scientific reasoning."
|
|
1876
|
+
},
|
|
1841
1877
|
"hunyuan-turbos-latest": {
|
|
1842
1878
|
"description": "The latest version of hunyuan-TurboS, the flagship model of Hunyuan, features enhanced reasoning capabilities and improved user experience."
|
|
1843
1879
|
},
|
|
@@ -3146,6 +3182,9 @@
|
|
|
3146
3182
|
"zai-org/GLM-4.5V": {
|
|
3147
3183
|
"description": "GLM-4.5V is the latest-generation vision-language model (VLM) released by Zhipu AI. It is built on the flagship text model GLM-4.5-Air, which has 106B total parameters and 12B active parameters, and adopts a Mixture-of-Experts (MoE) architecture to deliver outstanding performance at reduced inference cost. Technically, GLM-4.5V continues the trajectory of GLM-4.1V-Thinking and introduces innovations such as three-dimensional rotary position encoding (3D-RoPE), significantly improving perception and reasoning of three-dimensional spatial relationships. Through optimizations across pretraining, supervised fine-tuning, and reinforcement learning stages, the model can handle a wide range of visual content including images, video, and long documents, and has achieved top-tier performance among comparable open-source models across 41 public multimodal benchmarks. The model also adds a \"Thinking Mode\" toggle that lets users flexibly choose between fast responses and deep reasoning to balance efficiency and effectiveness."
|
|
3148
3184
|
},
|
|
3185
|
+
"zai-org/GLM-4.6": {
|
|
3186
|
+
"description": "Compared to GLM-4.5, GLM-4.6 introduces several key improvements. Its context window expands from 128K to 200K tokens, enabling the model to handle more complex agent tasks. The model achieves higher scores on code benchmarks and demonstrates stronger real-world performance in applications such as Claude Code, Cline, Roo Code, and Kilo Code, including improvements in generating visually refined front-end pages. GLM-4.6 shows significant enhancements in inference performance and supports tool usage during inference, resulting in stronger overall capabilities. It excels in tool utilization and search-based agents and integrates more effectively into agent frameworks. In writing, the model better aligns with human preferences in style and readability and performs more naturally in role-playing scenarios."
|
|
3187
|
+
},
|
|
3149
3188
|
"zai/glm-4.5": {
|
|
3150
3189
|
"description": "The GLM-4.5 series models are foundational models specifically designed for agents. The flagship GLM-4.5 integrates 355 billion total parameters (32 billion active), unifying reasoning, coding, and agent capabilities to address complex application needs. As a hybrid reasoning system, it offers dual operating modes."
|
|
3151
3190
|
},
|
|
@@ -92,6 +92,12 @@
|
|
|
92
92
|
"DeepSeek-V3.1-Think": {
|
|
93
93
|
"description": "DeepSeek-V3.1 en modo reflexivo; DeepSeek-V3.1 es un nuevo modelo híbrido de razonamiento lanzado por DeepSeek, que soporta dos modos de razonamiento: reflexivo y no reflexivo, con una eficiencia de pensamiento superior a DeepSeek-R1-0528. Tras una optimización post-entrenamiento, el uso de herramientas por agentes y el desempeño en tareas de agentes inteligentes han mejorado significativamente."
|
|
94
94
|
},
|
|
95
|
+
"DeepSeek-V3.2-Exp": {
|
|
96
|
+
"description": "DeepSeek V3.2 es el último modelo general lanzado por DeepSeek, que soporta una arquitectura de inferencia híbrida y cuenta con capacidades de agente más potentes."
|
|
97
|
+
},
|
|
98
|
+
"DeepSeek-V3.2-Exp-Think": {
|
|
99
|
+
"description": "Modo de pensamiento de DeepSeek V3.2. Antes de proporcionar la respuesta final, el modelo genera una cadena de razonamiento para mejorar la precisión de la respuesta."
|
|
100
|
+
},
|
|
95
101
|
"Doubao-lite-128k": {
|
|
96
102
|
"description": "Doubao-lite ofrece una velocidad de respuesta excepcional y una mejor relación calidad-precio, proporcionando opciones más flexibles para diferentes escenarios de los clientes. Soporta inferencia y ajuste fino con una ventana de contexto de 128k."
|
|
97
103
|
},
|
|
@@ -287,6 +293,9 @@
|
|
|
287
293
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
294
|
"description": "DeepSeek-V3.1 es un modelo de lenguaje grande híbrido lanzado por DeepSeek AI, que incorpora múltiples mejoras importantes sobre su predecesor. Una innovación clave es la integración de los modos \"Pensamiento\" y \"No pensamiento\" en un solo modelo, permitiendo a los usuarios alternar flexiblemente mediante la configuración de plantillas de chat para adaptarse a diferentes tareas. Gracias a una optimización post-entrenamiento especializada, V3.1 mejora significativamente el rendimiento en llamadas a herramientas y tareas Agent, soportando mejor herramientas de búsqueda externas y la ejecución de tareas complejas en múltiples pasos. Basado en DeepSeek-V3.1-Base, se amplió considerablemente la cantidad de datos de entrenamiento mediante un método de extensión de texto largo en dos fases, mejorando su desempeño en documentos extensos y código largo. Como modelo de código abierto, DeepSeek-V3.1 demuestra capacidades comparables a los mejores modelos cerrados en benchmarks de codificación, matemáticas y razonamiento, y gracias a su arquitectura de expertos mixtos (MoE), mantiene una gran capacidad de modelo mientras reduce eficazmente los costos de inferencia."
|
|
289
295
|
},
|
|
296
|
+
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
297
|
+
"description": "DeepSeek-V3.1-Terminus es una versión actualizada del modelo V3.1 lanzado por DeepSeek, posicionada como un modelo de lenguaje grande con agentes híbridos. Esta actualización mantiene las capacidades originales del modelo, enfocándose en corregir problemas reportados por los usuarios y mejorar la estabilidad. Mejora significativamente la coherencia del lenguaje, reduciendo la mezcla de chino e inglés y la aparición de caracteres anómalos. El modelo integra el “Modo de pensamiento” y el “Modo sin pensamiento”, permitiendo a los usuarios cambiar flexiblemente mediante plantillas de chat para adaptarse a diferentes tareas. Como optimización importante, V3.1-Terminus mejora el rendimiento del agente de código y del agente de búsqueda, haciéndolos más confiables en la invocación de herramientas y en la ejecución de tareas complejas de múltiples pasos."
|
|
298
|
+
},
|
|
290
299
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
291
300
|
"description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
|
|
292
301
|
},
|
|
@@ -926,6 +935,9 @@
|
|
|
926
935
|
"deepseek-ai/DeepSeek-V3.1": {
|
|
927
936
|
"description": "DeepSeek-V3.1 es un modelo de lenguaje grande híbrido lanzado por DeepSeek AI, que incorpora múltiples mejoras importantes sobre su predecesor. Una innovación clave es la integración de los modos \"Pensamiento\" y \"No pensamiento\" en un solo modelo, permitiendo a los usuarios alternar flexiblemente mediante la configuración de plantillas de chat para adaptarse a diferentes tareas. Gracias a una optimización post-entrenamiento especializada, V3.1 mejora significativamente el rendimiento en llamadas a herramientas y tareas Agent, soportando mejor herramientas de búsqueda externas y la ejecución de tareas complejas en múltiples pasos. Basado en DeepSeek-V3.1-Base, se amplió considerablemente la cantidad de datos de entrenamiento mediante un método de extensión de texto largo en dos fases, mejorando su desempeño en documentos extensos y código largo. Como modelo de código abierto, DeepSeek-V3.1 demuestra capacidades comparables a los mejores modelos cerrados en benchmarks de codificación, matemáticas y razonamiento, y gracias a su arquitectura de expertos mixtos (MoE), mantiene una gran capacidad de modelo mientras reduce eficazmente los costos de inferencia."
|
|
928
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
|
+
"description": "DeepSeek-V3.1-Terminus es una versión actualizada del modelo V3.1 lanzado por DeepSeek, posicionada como un modelo de lenguaje grande con agentes híbridos. Esta actualización mantiene las capacidades originales del modelo, enfocándose en corregir problemas reportados por los usuarios y mejorar la estabilidad. Mejora significativamente la coherencia del lenguaje, reduciendo la mezcla de chino e inglés y la aparición de caracteres anómalos. El modelo integra el “Modo de pensamiento” y el “Modo sin pensamiento”, permitiendo a los usuarios cambiar flexiblemente mediante plantillas de chat para adaptarse a diferentes tareas. Como optimización importante, V3.1-Terminus mejora el rendimiento del agente de código y del agente de búsqueda, haciéndolos más confiables en la invocación de herramientas y en la ejecución de tareas complejas de múltiples pasos."
|
|
940
|
+
},
|
|
929
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
930
942
|
"description": "DeepSeek 67B es un modelo avanzado entrenado para diálogos de alta complejidad."
|
|
931
943
|
},
|
|
@@ -999,7 +1011,7 @@
|
|
|
999
1011
|
"description": "DeepSeek R1 versión completa, con 671B de parámetros, que soporta búsqueda en línea en tiempo real, con una capacidad de comprensión y generación más potente."
|
|
1000
1012
|
},
|
|
1001
1013
|
"deepseek-reasoner": {
|
|
1002
|
-
"description": "Modo de pensamiento DeepSeek V3.
|
|
1014
|
+
"description": "Modo de pensamiento de DeepSeek V3.2. Antes de proporcionar la respuesta final, el modelo genera una cadena de razonamiento para mejorar la precisión de la respuesta."
|
|
1003
1015
|
},
|
|
1004
1016
|
"deepseek-v2": {
|
|
1005
1017
|
"description": "DeepSeek V2 es un modelo de lenguaje Mixture-of-Experts eficiente, adecuado para necesidades de procesamiento económico."
|
|
@@ -1352,24 +1364,36 @@
|
|
|
1352
1364
|
"gemini-2.5-flash": {
|
|
1353
1365
|
"description": "Gemini 2.5 Flash es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
|
|
1354
1366
|
},
|
|
1367
|
+
"gemini-2.5-flash-image": {
|
|
1368
|
+
"description": "Nano Banana es el modelo multimodal nativo más reciente, rápido y eficiente de Google, que permite generar y editar imágenes mediante diálogo."
|
|
1369
|
+
},
|
|
1355
1370
|
"gemini-2.5-flash-image-preview": {
|
|
1356
1371
|
"description": "Nano Banana es el modelo multimodal nativo más reciente, rápido y eficiente de Google, que permite generar y editar imágenes mediante diálogo."
|
|
1357
1372
|
},
|
|
1358
1373
|
"gemini-2.5-flash-image-preview:image": {
|
|
1359
1374
|
"description": "Nano Banana es el modelo multimodal nativo más reciente, rápido y eficiente de Google, que permite generar y editar imágenes mediante diálogo."
|
|
1360
1375
|
},
|
|
1376
|
+
"gemini-2.5-flash-image:image": {
|
|
1377
|
+
"description": "Nano Banana es el modelo multimodal nativo más reciente, rápido y eficiente de Google, que permite generar y editar imágenes mediante diálogo."
|
|
1378
|
+
},
|
|
1361
1379
|
"gemini-2.5-flash-lite": {
|
|
1362
1380
|
"description": "Gemini 2.5 Flash-Lite es el modelo más pequeño y rentable de Google, diseñado para un uso a gran escala."
|
|
1363
1381
|
},
|
|
1364
1382
|
"gemini-2.5-flash-lite-preview-06-17": {
|
|
1365
1383
|
"description": "Gemini 2.5 Flash-Lite Preview es el modelo más pequeño y con mejor relación calidad-precio de Google, diseñado para un uso a gran escala."
|
|
1366
1384
|
},
|
|
1385
|
+
"gemini-2.5-flash-lite-preview-09-2025": {
|
|
1386
|
+
"description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash-Lite"
|
|
1387
|
+
},
|
|
1367
1388
|
"gemini-2.5-flash-preview-04-17": {
|
|
1368
1389
|
"description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google, que ofrece una funcionalidad completa."
|
|
1369
1390
|
},
|
|
1370
1391
|
"gemini-2.5-flash-preview-05-20": {
|
|
1371
1392
|
"description": "Gemini 2.5 Flash Preview es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
|
|
1372
1393
|
},
|
|
1394
|
+
"gemini-2.5-flash-preview-09-2025": {
|
|
1395
|
+
"description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash"
|
|
1396
|
+
},
|
|
1373
1397
|
"gemini-2.5-pro": {
|
|
1374
1398
|
"description": "Gemini 2.5 Pro es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como de analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos largos."
|
|
1375
1399
|
},
|
|
@@ -1382,6 +1406,15 @@
|
|
|
1382
1406
|
"gemini-2.5-pro-preview-06-05": {
|
|
1383
1407
|
"description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos extensos."
|
|
1384
1408
|
},
|
|
1409
|
+
"gemini-flash-latest": {
|
|
1410
|
+
"description": "Última versión de Gemini Flash"
|
|
1411
|
+
},
|
|
1412
|
+
"gemini-flash-lite-latest": {
|
|
1413
|
+
"description": "Última versión de Gemini Flash-Lite"
|
|
1414
|
+
},
|
|
1415
|
+
"gemini-pro-latest": {
|
|
1416
|
+
"description": "Última versión de Gemini Pro"
|
|
1417
|
+
},
|
|
1385
1418
|
"gemma-7b-it": {
|
|
1386
1419
|
"description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
|
|
1387
1420
|
},
|
|
@@ -1811,12 +1844,12 @@
|
|
|
1811
1844
|
"hunyuan-t1-latest": {
|
|
1812
1845
|
"description": "Mejora significativamente las capacidades del modelo principal de pensamiento lento en matemáticas avanzadas, razonamiento complejo, código difícil, cumplimiento de instrucciones y calidad en la creación de textos."
|
|
1813
1846
|
},
|
|
1814
|
-
"hunyuan-t1-vision": {
|
|
1815
|
-
"description": "Modelo de pensamiento profundo multimodal Hunyuan, que soporta cadenas de pensamiento nativas multimodales, sobresale en diversos escenarios de razonamiento con imágenes y mejora significativamente en problemas científicos en comparación con modelos de pensamiento rápido."
|
|
1816
|
-
},
|
|
1817
1847
|
"hunyuan-t1-vision-20250619": {
|
|
1818
1848
|
"description": "La última versión del modelo de pensamiento profundo multimodal t1-vision de Hunyuan, que soporta cadenas de pensamiento nativas multimodales, con mejoras integrales respecto a la versión predeterminada anterior."
|
|
1819
1849
|
},
|
|
1850
|
+
"hunyuan-t1-vision-20250916": {
|
|
1851
|
+
"description": "Modelo de pensamiento profundo multimodal Hunyuan, que soporta cadenas de pensamiento nativas multimodales prolongadas, especializado en diversos escenarios de razonamiento con imágenes, y que mejora integralmente el rendimiento en problemas científicos en comparación con el modelo de pensamiento rápido."
|
|
1852
|
+
},
|
|
1820
1853
|
"hunyuan-turbo": {
|
|
1821
1854
|
"description": "Versión preliminar de la nueva generación del modelo de lenguaje de Hunyuan, que utiliza una nueva estructura de modelo de expertos mixtos (MoE), con una eficiencia de inferencia más rápida y un rendimiento más fuerte en comparación con Hunyuan-Pro."
|
|
1822
1855
|
},
|
|
@@ -1838,6 +1871,9 @@
|
|
|
1838
1871
|
"hunyuan-turbos-20250604": {
|
|
1839
1872
|
"description": "Actualización de la base de preentrenamiento, mejora en la escritura y comprensión lectora, aumento significativo en habilidades de programación y ciencias, y progreso continuo en el seguimiento de instrucciones complejas."
|
|
1840
1873
|
},
|
|
1874
|
+
"hunyuan-turbos-20250926": {
|
|
1875
|
+
"description": "Mejora en la calidad de los datos base de preentrenamiento. Optimización de la estrategia de entrenamiento en la fase postentrenamiento, con mejoras continuas en capacidades de agente, idiomas menores en inglés, cumplimiento de instrucciones, código y ciencias."
|
|
1876
|
+
},
|
|
1841
1877
|
"hunyuan-turbos-latest": {
|
|
1842
1878
|
"description": "hunyuan-TurboS es la última versión del modelo insignia Hunyuan, con una mayor capacidad de pensamiento y una mejor experiencia."
|
|
1843
1879
|
},
|
|
@@ -3146,6 +3182,9 @@
|
|
|
3146
3182
|
"zai-org/GLM-4.5V": {
|
|
3147
3183
|
"description": "GLM-4.5V es la última generación de modelo de lenguaje visual (VLM) publicada por Zhipu AI. Este modelo se basa en el modelo de texto insignia GLM-4.5-Air, que cuenta con 106.000 millones de parámetros totales y 12.000 millones de parámetros de activación, y emplea una arquitectura de expertos mixtos (MoE) para lograr un rendimiento excelente con un coste de inferencia reducido. Técnicamente, GLM-4.5V continúa la línea de GLM-4.1V-Thinking e introduce innovaciones como el codificado rotacional de posiciones en 3D (3D-RoPE), que mejora de forma notable la percepción y el razonamiento sobre las relaciones en el espacio tridimensional. Gracias a optimizaciones en preentrenamiento, ajuste supervisado y aprendizaje por refuerzo, este modelo es capaz de procesar diversos tipos de contenido visual, como imágenes, vídeo y documentos largos, y ha alcanzado niveles punteros entre los modelos open source de su categoría en 41 benchmarks multimodales públicos. Además, el modelo incorpora un interruptor de 'modo de pensamiento' que permite a los usuarios alternar entre respuestas rápidas y razonamiento profundo para equilibrar eficiencia y rendimiento."
|
|
3148
3184
|
},
|
|
3185
|
+
"zai-org/GLM-4.6": {
|
|
3186
|
+
"description": "En comparación con GLM-4.5, GLM-4.6 presenta varias mejoras clave. Su ventana de contexto se amplió de 128K a 200K tokens, permitiendo al modelo manejar tareas de agente más complejas. El modelo obtuvo puntuaciones más altas en pruebas de referencia de código y mostró un rendimiento superior en aplicaciones como Claude Code, Cline, Roo Code y Kilo Code, incluyendo mejoras en la generación de interfaces front-end visualmente refinadas. GLM-4.6 exhibe un rendimiento de inferencia notablemente mejorado y soporta el uso de herramientas durante la inferencia, lo que aporta una capacidad integral más fuerte. Destaca en el uso de herramientas y agentes basados en búsqueda, y se integra de manera más efectiva en marcos de agentes. En escritura, el modelo se ajusta mejor a las preferencias humanas en estilo y legibilidad, y se comporta de forma más natural en escenarios de juego de roles."
|
|
3187
|
+
},
|
|
3149
3188
|
"zai/glm-4.5": {
|
|
3150
3189
|
"description": "La serie de modelos GLM-4.5 está diseñada específicamente como modelos base para agentes inteligentes. El modelo insignia GLM-4.5 integra 355 mil millones de parámetros totales (32 mil millones activos), unificando razonamiento, codificación y capacidades de agente para abordar demandas complejas de aplicaciones. Como sistema de razonamiento híbrido, ofrece modos de operación dual."
|
|
3151
3190
|
},
|
|
@@ -92,6 +92,12 @@
|
|
|
92
92
|
"DeepSeek-V3.1-Think": {
|
|
93
93
|
"description": "DeepSeek-V3.1 حالت تفکری؛ DeepSeek-V3.1 مدل استدلال ترکیبی جدیدی از DeepSeek است که از دو حالت استدلال تفکری و غیرتفکری پشتیبانی میکند و نسبت به DeepSeek-R1-0528 در حالت تفکری کارایی بالاتری دارد. پس از آموزش تکمیلی، استفاده از ابزارهای عامل و عملکرد در وظایف عامل بهطور قابل توجهی بهبود یافته است."
|
|
94
94
|
},
|
|
95
|
+
"DeepSeek-V3.2-Exp": {
|
|
96
|
+
"description": "DeepSeek V3.2 جدیدترین مدل عمومی منتشر شده توسط DeepSeek است که از معماری استنتاج ترکیبی پشتیبانی میکند و دارای قابلیتهای پیشرفتهتر عامل (Agent) میباشد."
|
|
97
|
+
},
|
|
98
|
+
"DeepSeek-V3.2-Exp-Think": {
|
|
99
|
+
"description": "حالت تفکر DeepSeek V3.2. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید میکند تا دقت پاسخ نهایی را افزایش دهد."
|
|
100
|
+
},
|
|
95
101
|
"Doubao-lite-128k": {
|
|
96
102
|
"description": "Doubao-lite دارای سرعت پاسخگویی بینظیر و نسبت قیمت به کارایی بهتر است و گزینههای انعطافپذیرتری را برای سناریوهای مختلف مشتریان ارائه میدهد. از پنجره متنی 128k برای استدلال و تنظیم دقیق پشتیبانی میکند."
|
|
97
103
|
},
|
|
@@ -287,6 +293,9 @@
|
|
|
287
293
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
294
|
"description": "DeepSeek-V3.1 یک مدل زبان بزرگ با حالت ترکیبی است که توسط DeepSeek AI منتشر شده و در مقایسه با نسخههای قبلی خود بهروزرسانیهای مهمی را تجربه کرده است. نوآوری اصلی این مدل ادغام «حالت تفکر» و «حالت غیرتفکر» در یک مدل است که کاربران میتوانند با تنظیم قالب گفتگو به صورت انعطافپذیر بین آنها جابجا شوند تا نیازهای مختلف وظایف را برآورده کنند. با بهینهسازی پس از آموزش تخصصی، عملکرد V3.1 در فراخوانی ابزارها و وظایف Agent به طور قابل توجهی افزایش یافته و پشتیبانی بهتری از ابزارهای جستجوی خارجی و اجرای وظایف پیچیده چندمرحلهای ارائه میدهد. این مدل بر پایه DeepSeek-V3.1-Base آموزش داده شده و با روش توسعه متن بلند دو مرحلهای، حجم دادههای آموزشی را به طور چشمگیری افزایش داده است که باعث بهبود عملکرد در پردازش اسناد طولانی و کدهای بلند میشود. به عنوان یک مدل متنباز، DeepSeek-V3.1 در آزمونهای معیار مختلفی مانند کدنویسی، ریاضیات و استدلال تواناییهایی در حد مدلهای بسته پیشرفته نشان میدهد و با معماری متخصص ترکیبی (MoE) خود، ضمن حفظ ظرفیت عظیم مدل، هزینههای استدلال را به طور موثری کاهش میدهد."
|
|
289
295
|
},
|
|
296
|
+
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
297
|
+
"description": "DeepSeek-V3.1-Terminus نسخه بهروزرسانی شده مدل V3.1 منتشر شده توسط DeepSeek است که به عنوان یک مدل زبان بزرگ با عامل ترکیبی شناخته میشود. این بهروزرسانی ضمن حفظ قابلیتهای اصلی مدل، بر رفع مشکلات گزارش شده توسط کاربران و افزایش پایداری تمرکز دارد. این نسخه به طور قابل توجهی انسجام زبانی را بهبود بخشیده و از بروز ترکیب زبان چینی و انگلیسی و کاراکترهای نامتعارف کاسته است. مدل شامل حالت «تفکر» (Thinking Mode) و «غیرتفکر» (Non-thinking Mode) است که کاربران میتوانند از طریق قالبهای گفتگو به صورت انعطافپذیر بین آنها جابجا شوند تا با وظایف مختلف سازگار شوند. به عنوان یک بهینهسازی مهم، V3.1-Terminus عملکرد عامل کد (Code Agent) و عامل جستجو (Search Agent) را تقویت کرده است تا در فراخوانی ابزارها و اجرای وظایف پیچیده چندمرحلهای قابل اعتمادتر باشد."
|
|
298
|
+
},
|
|
290
299
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
291
300
|
"description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال میباشد. ویژگیهای اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمونهای معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان میدهد؛ تجربه کدگذاری فرانتاند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامهنویسی فرانتاند پیشرفت داشته است."
|
|
292
301
|
},
|
|
@@ -926,6 +935,9 @@
|
|
|
926
935
|
"deepseek-ai/DeepSeek-V3.1": {
|
|
927
936
|
"description": "DeepSeek-V3.1 یک مدل زبان بزرگ با حالت ترکیبی است که توسط DeepSeek AI منتشر شده و در مقایسه با نسخههای قبلی خود بهروزرسانیهای مهمی را تجربه کرده است. نوآوری اصلی این مدل ادغام «حالت تفکر» و «حالت غیرتفکر» در یک مدل است که کاربران میتوانند با تنظیم قالب گفتگو به صورت انعطافپذیر بین آنها جابجا شوند تا نیازهای مختلف وظایف را برآورده کنند. با بهینهسازی پس از آموزش تخصصی، عملکرد V3.1 در فراخوانی ابزارها و وظایف Agent به طور قابل توجهی افزایش یافته و پشتیبانی بهتری از ابزارهای جستجوی خارجی و اجرای وظایف پیچیده چندمرحلهای ارائه میدهد. این مدل بر پایه DeepSeek-V3.1-Base آموزش داده شده و با روش توسعه متن بلند دو مرحلهای، حجم دادههای آموزشی را به طور چشمگیری افزایش داده است که باعث بهبود عملکرد در پردازش اسناد طولانی و کدهای بلند میشود. به عنوان یک مدل متنباز، DeepSeek-V3.1 در آزمونهای معیار مختلفی مانند کدنویسی، ریاضیات و استدلال تواناییهایی در حد مدلهای بسته پیشرفته نشان میدهد و با معماری متخصص ترکیبی (MoE) خود، ضمن حفظ ظرفیت عظیم مدل، هزینههای استدلال را به طور موثری کاهش میدهد."
|
|
928
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
|
+
"description": "DeepSeek-V3.1-Terminus نسخه بهروزرسانی شده مدل V3.1 منتشر شده توسط DeepSeek است که به عنوان یک مدل زبان بزرگ با عامل ترکیبی شناخته میشود. این بهروزرسانی ضمن حفظ قابلیتهای اصلی مدل، بر رفع مشکلات گزارش شده توسط کاربران و افزایش پایداری تمرکز دارد. این نسخه به طور قابل توجهی انسجام زبانی را بهبود بخشیده و از بروز ترکیب زبان چینی و انگلیسی و کاراکترهای نامتعارف کاسته است. مدل شامل حالت «تفکر» (Thinking Mode) و «غیرتفکر» (Non-thinking Mode) است که کاربران میتوانند از طریق قالبهای گفتگو به صورت انعطافپذیر بین آنها جابجا شوند تا با وظایف مختلف سازگار شوند. به عنوان یک بهینهسازی مهم، V3.1-Terminus عملکرد عامل کد (Code Agent) و عامل جستجو (Search Agent) را تقویت کرده است تا در فراخوانی ابزارها و اجرای وظایف پیچیده چندمرحلهای قابل اعتمادتر باشد."
|
|
940
|
+
},
|
|
929
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
930
942
|
"description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه هوش مصنوعی است که توانایی درک عمیق زبان و تعامل را فراهم میکند."
|
|
931
943
|
},
|
|
@@ -999,7 +1011,7 @@
|
|
|
999
1011
|
"description": "DeepSeek R1 نسخه کامل است که دارای 671B پارامتر است و از جستجوی آنلاین زنده پشتیبانی میکند و دارای تواناییهای درک و تولید قویتری است."
|
|
1000
1012
|
},
|
|
1001
1013
|
"deepseek-reasoner": {
|
|
1002
|
-
"description": "حالت تفکر DeepSeek V3.
|
|
1014
|
+
"description": "حالت تفکر DeepSeek V3.2. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید میکند تا دقت پاسخ نهایی را افزایش دهد."
|
|
1003
1015
|
},
|
|
1004
1016
|
"deepseek-v2": {
|
|
1005
1017
|
"description": "DeepSeek V2 یک مدل زبانی Mixture-of-Experts کارآمد است که برای پردازش نیازهای اقتصادی و کارآمد مناسب میباشد."
|
|
@@ -1352,24 +1364,36 @@
|
|
|
1352
1364
|
"gemini-2.5-flash": {
|
|
1353
1365
|
"description": "Gemini 2.5 Flash مدل با بهترین نسبت قیمت به کارایی گوگل است که امکانات جامع را ارائه میدهد."
|
|
1354
1366
|
},
|
|
1367
|
+
"gemini-2.5-flash-image": {
|
|
1368
|
+
"description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندرسانهای بومی گوگل است که به شما امکان میدهد از طریق گفتگو تصاویر را تولید و ویرایش کنید."
|
|
1369
|
+
},
|
|
1355
1370
|
"gemini-2.5-flash-image-preview": {
|
|
1356
1371
|
"description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندرسانهای بومی گوگل است که به شما امکان میدهد از طریق گفتگو تصاویر را تولید و ویرایش کنید."
|
|
1357
1372
|
},
|
|
1358
1373
|
"gemini-2.5-flash-image-preview:image": {
|
|
1359
1374
|
"description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندرسانهای بومی گوگل است که به شما امکان میدهد از طریق گفتگو تصاویر را تولید و ویرایش کنید."
|
|
1360
1375
|
},
|
|
1376
|
+
"gemini-2.5-flash-image:image": {
|
|
1377
|
+
"description": "Nano Banana جدیدترین، سریعترین و کارآمدترین مدل چندرسانهای بومی گوگل است که به شما امکان میدهد از طریق گفتگو تصاویر را تولید و ویرایش کنید."
|
|
1378
|
+
},
|
|
1361
1379
|
"gemini-2.5-flash-lite": {
|
|
1362
1380
|
"description": "Gemini 2.5 Flash-Lite کوچکترین و مقرونبهصرفهترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است."
|
|
1363
1381
|
},
|
|
1364
1382
|
"gemini-2.5-flash-lite-preview-06-17": {
|
|
1365
1383
|
"description": "Gemini 2.5 Flash-Lite Preview کوچکترین و مقرونبهصرفهترین مدل گوگل است که برای استفاده در مقیاس بزرگ طراحی شده است."
|
|
1366
1384
|
},
|
|
1385
|
+
"gemini-2.5-flash-lite-preview-09-2025": {
|
|
1386
|
+
"description": "نسخه پیشنمایش (25 سپتامبر 2025) از Gemini 2.5 Flash-Lite"
|
|
1387
|
+
},
|
|
1367
1388
|
"gemini-2.5-flash-preview-04-17": {
|
|
1368
1389
|
"description": "پیشنمایش فلش Gemini 2.5 مدل با بهترین قیمت و کیفیت گوگل است که امکانات جامع و کاملی را ارائه میدهد."
|
|
1369
1390
|
},
|
|
1370
1391
|
"gemini-2.5-flash-preview-05-20": {
|
|
1371
1392
|
"description": "Gemini 2.5 Flash Preview مقرونبهصرفهترین مدل گوگل است که امکانات جامع ارائه میدهد."
|
|
1372
1393
|
},
|
|
1394
|
+
"gemini-2.5-flash-preview-09-2025": {
|
|
1395
|
+
"description": "نسخه پیشنمایش (25 سپتامبر 2025) از Gemini 2.5 Flash"
|
|
1396
|
+
},
|
|
1373
1397
|
"gemini-2.5-pro": {
|
|
1374
1398
|
"description": "Gemini 2.5 Pro پیشرفتهترین مدل تفکر گوگل است که قادر به استنتاج مسائل پیچیده در حوزه کد، ریاضیات و STEM بوده و با استفاده از زمینه طولانی، تحلیل مجموعه دادهها، کدها و مستندات بزرگ را انجام میدهد."
|
|
1375
1399
|
},
|
|
@@ -1382,6 +1406,15 @@
|
|
|
1382
1406
|
"gemini-2.5-pro-preview-06-05": {
|
|
1383
1407
|
"description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل تفکر گوگل است که قادر به استدلال درباره مسائل پیچیده در حوزه کد، ریاضیات و STEM است و میتواند با استفاده از زمینه طولانی، دادههای بزرگ، مخازن کد و مستندات را تحلیل کند."
|
|
1384
1408
|
},
|
|
1409
|
+
"gemini-flash-latest": {
|
|
1410
|
+
"description": "جدیدترین نسخه Gemini Flash"
|
|
1411
|
+
},
|
|
1412
|
+
"gemini-flash-lite-latest": {
|
|
1413
|
+
"description": "جدیدترین نسخه Gemini Flash-Lite"
|
|
1414
|
+
},
|
|
1415
|
+
"gemini-pro-latest": {
|
|
1416
|
+
"description": "جدیدترین نسخه Gemini Pro"
|
|
1417
|
+
},
|
|
1385
1418
|
"gemma-7b-it": {
|
|
1386
1419
|
"description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
|
|
1387
1420
|
},
|
|
@@ -1811,12 +1844,12 @@
|
|
|
1811
1844
|
"hunyuan-t1-latest": {
|
|
1812
1845
|
"description": "تواناییهای مدل اصلی تفکر کند بهطور قابل توجهی در زمینههای ریاضیات پیشرفته، استدلال پیچیده، کدهای دشوار، پیروی از دستورالعملها و کیفیت تولید متن بهبود یافته است."
|
|
1813
1846
|
},
|
|
1814
|
-
"hunyuan-t1-vision": {
|
|
1815
|
-
"description": "مدل تفکر عمیق چندرسانهای Hunyuan که از زنجیره تفکر بلند بومی چندرسانهای پشتیبانی میکند، در پردازش انواع سناریوهای استدلال تصویری مهارت دارد و در مسائل علمی نسبت به مدل تفکر سریع بهبود قابل توجهی دارد."
|
|
1816
|
-
},
|
|
1817
1847
|
"hunyuan-t1-vision-20250619": {
|
|
1818
1848
|
"description": "جدیدترین مدل تفکر عمیق چندرسانهای t1-vision از Hunyuan که از زنجیره تفکر بلند چندرسانهای بومی پشتیبانی میکند و نسبت به نسخه پیشفرض نسل قبلی به طور کامل بهبود یافته است."
|
|
1819
1849
|
},
|
|
1850
|
+
"hunyuan-t1-vision-20250916": {
|
|
1851
|
+
"description": "مدل تفکر عمیق چندرسانهای Hunyuan که از زنجیرههای فکری بومی چندرسانهای پشتیبانی میکند و در پردازش انواع سناریوهای استنتاج تصویری مهارت دارد، در حل مسائل علمی نسبت به مدل تفکر سریع بهبود قابل توجهی یافته است."
|
|
1852
|
+
},
|
|
1820
1853
|
"hunyuan-turbo": {
|
|
1821
1854
|
"description": "نسخه پیشنمایش مدل زبان بزرگ نسل جدید HunYuan که از ساختار مدل متخصص ترکیبی (MoE) جدید استفاده میکند. در مقایسه با hunyuan-pro، کارایی استنتاج سریعتر و عملکرد بهتری دارد."
|
|
1822
1855
|
},
|
|
@@ -1838,6 +1871,9 @@
|
|
|
1838
1871
|
"hunyuan-turbos-20250604": {
|
|
1839
1872
|
"description": "ارتقاء پایه پیشآموزش، بهبود تواناییهای نوشتن و درک مطلب، افزایش قابل توجه تواناییهای کدنویسی و علوم پایه، و بهبود مستمر در پیروی از دستورات پیچیده."
|
|
1840
1873
|
},
|
|
1874
|
+
"hunyuan-turbos-20250926": {
|
|
1875
|
+
"description": "ارتقاء کیفیت دادههای پایه پیشآموزش. بهینهسازی استراتژی آموزش در مرحله پسآموزش، با هدف بهبود مستمر قابلیتهای عامل، زبانهای کوچک انگلیسی، پیروی از دستورات، کدنویسی و علوم پایه."
|
|
1876
|
+
},
|
|
1841
1877
|
"hunyuan-turbos-latest": {
|
|
1842
1878
|
"description": "hunyuan-TurboS آخرین نسخه مدل بزرگ پرچمدار مختلط است که دارای توانایی تفکر قویتر و تجربه بهتری است."
|
|
1843
1879
|
},
|
|
@@ -3146,6 +3182,9 @@
|
|
|
3146
3182
|
"zai-org/GLM-4.5V": {
|
|
3147
3183
|
"description": "GLM-4.5V نسل جدیدی از مدلهای زبان-بینایی (VLM) است که توسط Zhipu AI (智谱 AI) منتشر شده. این مدل بر پایهٔ مدل متنی پرچمدار GLM-4.5-Air ساخته شده که دارای 106 میلیارد پارامتر کل و 12 میلیارد پارامتر فعالسازی است؛ از معماری متخصصان ترکیبی (MoE) بهره میبرد و هدفش ارائهٔ عملکرد برجسته با هزینهٔ استدلال کمتر است. از منظر فناوری، GLM-4.5V راهبرد GLM-4.1V-Thinking را ادامه میدهد و نوآوریهایی مانند کدگذاری موقعیت چرخشی سهبعدی (3D-RoPE) را معرفی کرده که بهطور چشمگیری درک و استدلال نسبتهای فضایی سهبعدی را تقویت میکند. با بهینهسازی در مراحل پیشآموزش، ریزتنظیم نظارتی و یادگیری تقویتی، این مدل قادر به پردازش انواع محتواهای بصری از جمله تصویر، ویدیو و اسناد بلند شده و در 41 معیار چندوجهی عمومی به سطح برتر مدلهای متنباز همرده دست یافته است. علاوه بر این، یک سوئیچ «حالت تفکر» به مدل افزوده شده که به کاربران اجازه میدهد بین پاسخدهی سریع و استدلال عمیق بهصورت انعطافپذیر انتخاب کنند تا تعادل بین کارایی و کیفیت برقرار شود."
|
|
3148
3184
|
},
|
|
3185
|
+
"zai-org/GLM-4.6": {
|
|
3186
|
+
"description": "در مقایسه با GLM-4.5، GLM-4.6 چندین بهبود کلیدی را به همراه دارد. پنجره متنی آن از 128K به 200K توکن افزایش یافته است که امکان پردازش وظایف پیچیدهتر عامل را فراهم میکند. مدل در آزمونهای معیار کد امتیاز بالاتری کسب کرده و در برنامههایی مانند Claude Code، Cline، Roo Code و Kilo Code عملکرد واقعی بهتری نشان داده است، از جمله بهبود در تولید صفحات فرانتاند با جلوههای بصری دقیق. GLM-4.6 در عملکرد استنتاج پیشرفت قابل توجهی داشته و از استفاده از ابزارها در حین استنتاج پشتیبانی میکند که منجر به توانمندی جامعتر شده است. این مدل در استفاده از ابزارها و عاملهای مبتنی بر جستجو قویتر است و میتواند به طور مؤثرتری در چارچوبهای عامل ادغام شود. در زمینه نگارش، این مدل سبک و خوانایی بهتری دارد که با ترجیحات انسانی همخوانی دارد و در سناریوهای نقشآفرینی طبیعیتر عمل میکند."
|
|
3187
|
+
},
|
|
3149
3188
|
"zai/glm-4.5": {
|
|
3150
3189
|
"description": "مجموعه مدلهای GLM-4.5 مدلهای پایه طراحی شده برای نمایندگان هوشمند هستند. مدل پرچمدار GLM-4.5 با 355 میلیارد پارامتر کل (32 میلیارد فعال) یکپارچهسازی استدلال، کدنویسی و تواناییهای نمایندگی را برای حل نیازهای پیچیده برنامهها ارائه میدهد. به عنوان یک سیستم استدلال ترکیبی، دو حالت عملیاتی دارد."
|
|
3151
3190
|
},
|
|
@@ -92,6 +92,12 @@
|
|
|
92
92
|
"DeepSeek-V3.1-Think": {
|
|
93
93
|
"description": "DeepSeek-V3.1 - mode réflexion ; DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride lancé par DeepSeek, supportant deux modes de raisonnement : avec et sans réflexion, avec une efficacité de réflexion supérieure à celle de DeepSeek-R1-0528. Optimisé par post-entraînement, l'utilisation des outils Agent et les performances dans les tâches d'agents ont été grandement améliorées."
|
|
94
94
|
},
|
|
95
|
+
"DeepSeek-V3.2-Exp": {
|
|
96
|
+
"description": "DeepSeek V3.2 est le dernier modèle universel publié par DeepSeek, prenant en charge une architecture d'inférence hybride et offrant des capacités d'agent renforcées."
|
|
97
|
+
},
|
|
98
|
+
"DeepSeek-V3.2-Exp-Think": {
|
|
99
|
+
"description": "Mode de réflexion DeepSeek V3.2. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
|
|
100
|
+
},
|
|
95
101
|
"Doubao-lite-128k": {
|
|
96
102
|
"description": "Doubao-lite offre une vitesse de réponse exceptionnelle et un excellent rapport qualité-prix, offrant aux clients une flexibilité accrue pour différents scénarios. Prend en charge l'inférence et le fine-tuning avec une fenêtre contextuelle de 128k."
|
|
97
103
|
},
|
|
@@ -287,6 +293,9 @@
|
|
|
287
293
|
"Pro/deepseek-ai/DeepSeek-V3.1": {
|
|
288
294
|
"description": "DeepSeek-V3.1 est un grand modèle de langage hybride publié par DeepSeek AI, intégrant de nombreuses améliorations majeures par rapport à la génération précédente. Une innovation clé de ce modèle est l'intégration des modes « réflexion » (Thinking Mode) et « non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre eux via des modèles de conversation adaptés aux différents besoins. Grâce à une optimisation post-entraînement spécifique, la version V3.1 améliore significativement les performances dans l'appel d'outils et les tâches d'agent, supportant mieux les outils de recherche externes et l'exécution de tâches complexes en plusieurs étapes. Basé sur DeepSeek-V3.1-Base, il bénéficie d'un entraînement supplémentaire avec une méthode d'extension de texte long en deux phases, augmentant considérablement la quantité de données d'entraînement pour une meilleure gestion des documents longs et des codes étendus. En tant que modèle open source, DeepSeek-V3.1 démontre des capacités comparables aux meilleurs modèles propriétaires dans plusieurs benchmarks en codage, mathématiques et raisonnement, tout en réduisant efficacement les coûts d'inférence grâce à son architecture à experts mixtes (MoE) qui maintient une grande capacité de modèle."
|
|
289
295
|
},
|
|
296
|
+
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
297
|
+
"description": "DeepSeek-V3.1-Terminus est une version mise à jour du modèle V3.1 publiée par DeepSeek, positionnée comme un grand modèle de langage hybride pour agents intelligents. Cette mise à jour conserve les capacités originales du modèle tout en se concentrant sur la correction des problèmes signalés par les utilisateurs et l'amélioration de la stabilité. Elle améliore significativement la cohérence linguistique, réduisant le mélange de chinois et d'anglais ainsi que l'apparition de caractères anormaux. Le modèle intègre un « mode réflexion » (Thinking Mode) et un « mode non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre ces modes via des modèles de conversation adaptés à différentes tâches. En tant qu'optimisation majeure, V3.1-Terminus renforce les performances des agents de code (Code Agent) et de recherche (Search Agent), rendant leur appel d'outils et l'exécution de tâches complexes en plusieurs étapes plus fiables."
|
|
298
|
+
},
|
|
290
299
|
"Pro/moonshotai/Kimi-K2-Instruct-0905": {
|
|
291
300
|
"description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
|
|
292
301
|
},
|
|
@@ -926,6 +935,9 @@
|
|
|
926
935
|
"deepseek-ai/DeepSeek-V3.1": {
|
|
927
936
|
"description": "DeepSeek-V3.1 est un grand modèle de langage hybride publié par DeepSeek AI, intégrant de nombreuses améliorations majeures par rapport à la génération précédente. Une innovation clé de ce modèle est l'intégration des modes « réflexion » (Thinking Mode) et « non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre eux via des modèles de conversation adaptés aux différents besoins. Grâce à une optimisation post-entraînement spécifique, la version V3.1 améliore significativement les performances dans l'appel d'outils et les tâches d'agent, supportant mieux les outils de recherche externes et l'exécution de tâches complexes en plusieurs étapes. Basé sur DeepSeek-V3.1-Base, il bénéficie d'un entraînement supplémentaire avec une méthode d'extension de texte long en deux phases, augmentant considérablement la quantité de données d'entraînement pour une meilleure gestion des documents longs et des codes étendus. En tant que modèle open source, DeepSeek-V3.1 démontre des capacités comparables aux meilleurs modèles propriétaires dans plusieurs benchmarks en codage, mathématiques et raisonnement, tout en réduisant efficacement les coûts d'inférence grâce à son architecture à experts mixtes (MoE) qui maintient une grande capacité de modèle."
|
|
928
937
|
},
|
|
938
|
+
"deepseek-ai/DeepSeek-V3.1-Terminus": {
|
|
939
|
+
"description": "DeepSeek-V3.1-Terminus est une version mise à jour du modèle V3.1 publiée par DeepSeek, positionnée comme un grand modèle de langage hybride pour agents intelligents. Cette mise à jour conserve les capacités originales du modèle tout en se concentrant sur la correction des problèmes signalés par les utilisateurs et l'amélioration de la stabilité. Elle améliore significativement la cohérence linguistique, réduisant le mélange de chinois et d'anglais ainsi que l'apparition de caractères anormaux. Le modèle intègre un « mode réflexion » (Thinking Mode) et un « mode non-réflexion » (Non-thinking Mode), permettant aux utilisateurs de basculer facilement entre ces modes via des modèles de conversation adaptés à différentes tâches. En tant qu'optimisation majeure, V3.1-Terminus renforce les performances des agents de code (Code Agent) et de recherche (Search Agent), rendant leur appel d'outils et l'exécution de tâches complexes en plusieurs étapes plus fiables."
|
|
940
|
+
},
|
|
929
941
|
"deepseek-ai/deepseek-llm-67b-chat": {
|
|
930
942
|
"description": "DeepSeek 67B est un modèle avancé formé pour des dialogues de haute complexité."
|
|
931
943
|
},
|
|
@@ -999,7 +1011,7 @@
|
|
|
999
1011
|
"description": "DeepSeek R1 version complète, avec 671B de paramètres, prenant en charge la recherche en ligne en temps réel, offrant des capacités de compréhension et de génération plus puissantes."
|
|
1000
1012
|
},
|
|
1001
1013
|
"deepseek-reasoner": {
|
|
1002
|
-
"description": "
|
|
1014
|
+
"description": "Mode de réflexion DeepSeek V3.2. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
|
|
1003
1015
|
},
|
|
1004
1016
|
"deepseek-v2": {
|
|
1005
1017
|
"description": "DeepSeek V2 est un modèle de langage Mixture-of-Experts efficace, adapté aux besoins de traitement économique."
|
|
@@ -1352,24 +1364,36 @@
|
|
|
1352
1364
|
"gemini-2.5-flash": {
|
|
1353
1365
|
"description": "Gemini 2.5 Flash est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
|
|
1354
1366
|
},
|
|
1367
|
+
"gemini-2.5-flash-image": {
|
|
1368
|
+
"description": "Nano Banana est le dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, permettant de générer et d’éditer des images par conversation."
|
|
1369
|
+
},
|
|
1355
1370
|
"gemini-2.5-flash-image-preview": {
|
|
1356
1371
|
"description": "Nano Banana est le tout dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, qui vous permet de générer et d'éditer des images par conversation."
|
|
1357
1372
|
},
|
|
1358
1373
|
"gemini-2.5-flash-image-preview:image": {
|
|
1359
1374
|
"description": "Nano Banana est le tout dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, qui vous permet de générer et d'éditer des images par conversation."
|
|
1360
1375
|
},
|
|
1376
|
+
"gemini-2.5-flash-image:image": {
|
|
1377
|
+
"description": "Nano Banana est le dernier modèle multimodal natif de Google, le plus rapide et le plus efficace, permettant de générer et d’éditer des images par conversation."
|
|
1378
|
+
},
|
|
1361
1379
|
"gemini-2.5-flash-lite": {
|
|
1362
1380
|
"description": "Gemini 2.5 Flash-Lite est le modèle le plus petit et le plus rentable de Google, conçu pour une utilisation à grande échelle."
|
|
1363
1381
|
},
|
|
1364
1382
|
"gemini-2.5-flash-lite-preview-06-17": {
|
|
1365
1383
|
"description": "Gemini 2.5 Flash-Lite Preview est le modèle le plus compact et rentable de Google, conçu pour une utilisation à grande échelle."
|
|
1366
1384
|
},
|
|
1385
|
+
"gemini-2.5-flash-lite-preview-09-2025": {
|
|
1386
|
+
"description": "Version de prévisualisation (25 septembre 2025) de Gemini 2.5 Flash-Lite"
|
|
1387
|
+
},
|
|
1367
1388
|
"gemini-2.5-flash-preview-04-17": {
|
|
1368
1389
|
"description": "Gemini 2.5 Flash Preview est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
|
|
1369
1390
|
},
|
|
1370
1391
|
"gemini-2.5-flash-preview-05-20": {
|
|
1371
1392
|
"description": "Gemini 2.5 Flash Preview est le modèle le plus rentable de Google, offrant des fonctionnalités complètes."
|
|
1372
1393
|
},
|
|
1394
|
+
"gemini-2.5-flash-preview-09-2025": {
|
|
1395
|
+
"description": "Version de prévisualisation (25 septembre 2025) de Gemini 2.5 Flash"
|
|
1396
|
+
},
|
|
1373
1397
|
"gemini-2.5-pro": {
|
|
1374
1398
|
"description": "Gemini 2.5 Pro est le modèle de raisonnement le plus avancé de Google, capable de traiter des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents avec un contexte étendu."
|
|
1375
1399
|
},
|
|
@@ -1382,6 +1406,15 @@
|
|
|
1382
1406
|
"gemini-2.5-pro-preview-06-05": {
|
|
1383
1407
|
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, bibliothèques de code et documents avec un contexte étendu."
|
|
1384
1408
|
},
|
|
1409
|
+
"gemini-flash-latest": {
|
|
1410
|
+
"description": "Dernière version de Gemini Flash"
|
|
1411
|
+
},
|
|
1412
|
+
"gemini-flash-lite-latest": {
|
|
1413
|
+
"description": "Dernière version de Gemini Flash-Lite"
|
|
1414
|
+
},
|
|
1415
|
+
"gemini-pro-latest": {
|
|
1416
|
+
"description": "Dernière version de Gemini Pro"
|
|
1417
|
+
},
|
|
1385
1418
|
"gemma-7b-it": {
|
|
1386
1419
|
"description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
|
|
1387
1420
|
},
|
|
@@ -1811,12 +1844,12 @@
|
|
|
1811
1844
|
"hunyuan-t1-latest": {
|
|
1812
1845
|
"description": "Amélioration significative des capacités du modèle principal de réflexion lente dans les domaines des mathématiques avancées, du raisonnement complexe, du code difficile, du respect des instructions et de la qualité de la création textuelle."
|
|
1813
1846
|
},
|
|
1814
|
-
"hunyuan-t1-vision": {
|
|
1815
|
-
"description": "Modèle de réflexion profonde multimodal Hunyuan, supportant des chaînes de pensée natives multimodales longues, excellent dans divers scénarios d'inférence d'images, avec une amélioration globale par rapport aux modèles de pensée rapide dans les problèmes scientifiques."
|
|
1816
|
-
},
|
|
1817
1847
|
"hunyuan-t1-vision-20250619": {
|
|
1818
1848
|
"description": "La dernière version du modèle de réflexion profonde multimodale t1-vision de Hunyuan, supportant une chaîne de pensée native multimodale, avec des améliorations globales par rapport à la version par défaut précédente."
|
|
1819
1849
|
},
|
|
1850
|
+
"hunyuan-t1-vision-20250916": {
|
|
1851
|
+
"description": "Modèle de réflexion profonde multimodal Hunyuan, supportant des chaînes de pensée natives multimodales longues, excellent pour divers scénarios de raisonnement d’images, avec une amélioration globale par rapport au modèle Quick Think pour les problèmes scientifiques."
|
|
1852
|
+
},
|
|
1820
1853
|
"hunyuan-turbo": {
|
|
1821
1854
|
"description": "Version préliminaire du nouveau modèle de langage de génération Hunyuan, utilisant une nouvelle structure de modèle d'experts mixtes (MoE), offrant une efficacité d'inférence plus rapide et de meilleures performances par rapport à Hunyuan-Pro."
|
|
1822
1855
|
},
|
|
@@ -1838,6 +1871,9 @@
|
|
|
1838
1871
|
"hunyuan-turbos-20250604": {
|
|
1839
1872
|
"description": "Mise à niveau de la base pré-entraînée, amélioration des capacités d'écriture et de compréhension de lecture, augmentation significative des compétences en codage et en sciences, avec un suivi continu des instructions complexes."
|
|
1840
1873
|
},
|
|
1874
|
+
"hunyuan-turbos-20250926": {
|
|
1875
|
+
"description": "Amélioration de la qualité des données de base pour la pré-formation. Optimisation de la stratégie d’entraînement post-formation, avec une amélioration continue des capacités des agents, des langues anglaises et petites langues, de la conformité aux instructions, du code et des sciences."
|
|
1876
|
+
},
|
|
1841
1877
|
"hunyuan-turbos-latest": {
|
|
1842
1878
|
"description": "hunyuan-TurboS est la dernière version du modèle phare Hunyuan, offrant une capacité de réflexion améliorée et une expérience utilisateur optimisée."
|
|
1843
1879
|
},
|
|
@@ -3146,6 +3182,9 @@
|
|
|
3146
3182
|
"zai-org/GLM-4.5V": {
|
|
3147
3183
|
"description": "GLM-4.5V est la dernière génération de modèle langage-visuel (VLM) publiée par Zhipu AI. Ce modèle est construit sur le modèle texte phare GLM-4.5-Air, qui compte 106 milliards de paramètres au total et 12 milliards de paramètres d'activation, et adopte une architecture de mixture d'experts (MoE) afin d'obtenir des performances excellentes à un coût d'inférence réduit. Sur le plan technique, GLM-4.5V prolonge la lignée de GLM-4.1V-Thinking et introduit des innovations telles que l'encodage de position rotatif en 3D (3D-RoPE), renforçant de façon significative la perception et le raisonnement des relations spatiales tridimensionnelles. Grâce aux optimisations apportées lors des phases de pré-entraînement, d'affinage supervisé et d'apprentissage par renforcement, ce modèle est capable de traiter divers contenus visuels, notamment des images, des vidéos et des documents longs, et atteint un niveau de pointe parmi les modèles open source de la même catégorie sur 41 benchmarks multimodaux publics. De plus, le modèle intègre un interrupteur « mode réflexion » permettant aux utilisateurs de choisir de manière flexible entre réponses rapides et raisonnement approfondi, pour équilibrer efficacité et qualité."
|
|
3148
3184
|
},
|
|
3185
|
+
"zai-org/GLM-4.6": {
|
|
3186
|
+
"description": "Par rapport à GLM-4.5, GLM-4.6 apporte plusieurs améliorations clés. Sa fenêtre contextuelle s’étend de 128K à 200K tokens, permettant au modèle de gérer des tâches d’agents plus complexes. Le modèle obtient de meilleurs scores aux benchmarks de code et montre des performances renforcées dans des applications telles que Claude Code, Cline, Roo Code et Kilo Code, notamment dans la génération de pages frontales visuellement raffinées. GLM-4.6 améliore nettement les performances d’inférence et supporte l’utilisation d’outils durant l’inférence, offrant ainsi une capacité globale renforcée. Il excelle dans l’utilisation d’outils et les agents basés sur la recherche, et s’intègre plus efficacement dans les cadres d’agents. En écriture, ce modèle correspond davantage aux préférences humaines en termes de style et de lisibilité, et se comporte de manière plus naturelle dans les scénarios de jeu de rôle."
|
|
3187
|
+
},
|
|
3149
3188
|
"zai/glm-4.5": {
|
|
3150
3189
|
"description": "La série de modèles GLM-4.5 est conçue spécifiquement pour les agents. Le modèle phare GLM-4.5 intègre 355 milliards de paramètres totaux (32 milliards actifs), unifiant raisonnement, codage et capacités d'agent pour répondre à des besoins applicatifs complexes. En tant que système de raisonnement hybride, il offre deux modes d'opération."
|
|
3151
3190
|
},
|