@lobehub/chat 1.88.20 → 1.88.21
This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
- package/.i18nrc.js +1 -1
- package/CHANGELOG.md +26 -0
- package/changelog/v1.json +9 -0
- package/locales/ar/chat.json +3 -0
- package/locales/ar/models.json +92 -17
- package/locales/ar/setting.json +0 -12
- package/locales/bg-BG/chat.json +3 -0
- package/locales/bg-BG/models.json +92 -17
- package/locales/bg-BG/setting.json +0 -12
- package/locales/de-DE/chat.json +3 -0
- package/locales/de-DE/models.json +92 -17
- package/locales/de-DE/setting.json +0 -12
- package/locales/en-US/chat.json +3 -0
- package/locales/en-US/models.json +92 -17
- package/locales/en-US/setting.json +0 -12
- package/locales/es-ES/chat.json +3 -0
- package/locales/es-ES/models.json +92 -17
- package/locales/es-ES/setting.json +0 -12
- package/locales/fa-IR/chat.json +3 -0
- package/locales/fa-IR/models.json +92 -17
- package/locales/fa-IR/setting.json +0 -12
- package/locales/fr-FR/chat.json +3 -0
- package/locales/fr-FR/models.json +92 -17
- package/locales/fr-FR/setting.json +0 -12
- package/locales/it-IT/chat.json +3 -0
- package/locales/it-IT/models.json +92 -17
- package/locales/it-IT/setting.json +0 -12
- package/locales/ja-JP/chat.json +3 -0
- package/locales/ja-JP/models.json +92 -17
- package/locales/ja-JP/setting.json +0 -12
- package/locales/ko-KR/chat.json +3 -0
- package/locales/ko-KR/models.json +92 -17
- package/locales/ko-KR/setting.json +0 -12
- package/locales/nl-NL/chat.json +3 -0
- package/locales/nl-NL/models.json +92 -17
- package/locales/nl-NL/setting.json +0 -12
- package/locales/pl-PL/chat.json +3 -0
- package/locales/pl-PL/models.json +92 -17
- package/locales/pl-PL/setting.json +0 -12
- package/locales/pt-BR/chat.json +3 -0
- package/locales/pt-BR/models.json +92 -17
- package/locales/pt-BR/setting.json +0 -12
- package/locales/ru-RU/chat.json +3 -0
- package/locales/ru-RU/models.json +92 -17
- package/locales/ru-RU/setting.json +0 -12
- package/locales/tr-TR/chat.json +3 -0
- package/locales/tr-TR/models.json +92 -17
- package/locales/tr-TR/setting.json +0 -12
- package/locales/vi-VN/chat.json +3 -0
- package/locales/vi-VN/models.json +92 -17
- package/locales/vi-VN/setting.json +0 -12
- package/locales/zh-CN/chat.json +3 -0
- package/locales/zh-CN/models.json +89 -14
- package/locales/zh-CN/setting.json +0 -12
- package/locales/zh-TW/chat.json +3 -0
- package/locales/zh-TW/models.json +92 -17
- package/locales/zh-TW/setting.json +0 -12
- package/package.json +1 -1
- package/src/config/aiModels/deepseek.ts +5 -3
- package/src/config/aiModels/groq.ts +16 -29
- package/src/config/aiModels/hunyuan.ts +104 -82
- package/src/config/aiModels/novita.ts +27 -121
- package/src/config/aiModels/openai.ts +19 -2
- package/src/config/aiModels/openrouter.ts +59 -47
- package/src/config/aiModels/siliconcloud.ts +73 -39
- package/src/config/aiModels/volcengine.ts +3 -3
- package/src/config/aiModels/xai.ts +2 -0
- package/src/features/AgentSetting/AgentModal/index.tsx +1 -26
- package/src/features/ChatInput/ActionBar/Model/ControlsForm.tsx +12 -0
- package/src/features/ChatInput/ActionBar/Model/ReasoningEffortSlider.tsx +57 -0
- package/src/libs/model-runtime/novita/__snapshots__/index.test.ts.snap +1 -1
- package/src/locales/default/chat.ts +3 -0
- package/src/locales/default/setting.ts +0 -12
- package/src/services/chat.ts +5 -1
- package/src/store/chat/slices/aiChat/actions/generateAIChat.ts +0 -5
- package/src/types/agent/chatConfig.ts +1 -0
- package/src/types/aiModel.ts +5 -1
@@ -341,9 +341,6 @@
|
|
341
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
342
342
|
"description": "Qwen2.5-Coder-32B-Instruct es un modelo de lenguaje grande diseñado específicamente para la generación de código, comprensión de código y escenarios de desarrollo eficiente, con una escala de 32B parámetros, líder en la industria, capaz de satisfacer diversas necesidades de programación."
|
343
343
|
},
|
344
|
-
"SenseCat-5-1202": {
|
345
|
-
"description": "Es la última versión basada en V5.5, que ha mostrado mejoras significativas en varios aspectos en comparación con la versión anterior, incluyendo habilidades básicas en chino e inglés, conversación, conocimientos de ciencias, conocimientos de humanidades, escritura, lógica matemática y control de palabras."
|
346
|
-
},
|
347
344
|
"SenseChat": {
|
348
345
|
"description": "Modelo de versión básica (V4), longitud de contexto de 4K, con potentes capacidades generales."
|
349
346
|
},
|
@@ -356,6 +353,9 @@
|
|
356
353
|
"SenseChat-5": {
|
357
354
|
"description": "Modelo de última versión (V5.5), longitud de contexto de 128K, con capacidades significativamente mejoradas en razonamiento matemático, diálogos en inglés, seguimiento de instrucciones y comprensión de textos largos, comparable a GPT-4o."
|
358
355
|
},
|
356
|
+
"SenseChat-5-1202": {
|
357
|
+
"description": "Basado en la versión más reciente V5.5, con mejoras significativas en capacidades básicas en chino e inglés, chat, conocimientos científicos y humanísticos, redacción, lógica matemática y control de longitud de texto."
|
358
|
+
},
|
359
359
|
"SenseChat-5-Cantonese": {
|
360
360
|
"description": "Longitud de contexto de 32K, supera a GPT-4 en la comprensión de diálogos en cantonés, siendo comparable a GPT-4 Turbo en múltiples áreas como conocimiento, razonamiento, matemáticas y programación."
|
361
361
|
},
|
@@ -515,6 +515,12 @@
|
|
515
515
|
"ai21-jamba-1.5-mini": {
|
516
516
|
"description": "Un modelo multilingüe de 52B parámetros (12B activos), que ofrece una ventana de contexto larga de 256K, llamada a funciones, salida estructurada y generación fundamentada."
|
517
517
|
},
|
518
|
+
"ai21-labs/AI21-Jamba-1.5-Large": {
|
519
|
+
"description": "Un modelo multilingüe de 398 mil millones de parámetros (94 mil millones activos), que ofrece una ventana de contexto larga de 256K, llamadas a funciones, salida estructurada y generación basada en hechos."
|
520
|
+
},
|
521
|
+
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
522
|
+
"description": "Un modelo multilingüe de 52 mil millones de parámetros (12 mil millones activos), que ofrece una ventana de contexto larga de 256K, llamadas a funciones, salida estructurada y generación basada en hechos."
|
523
|
+
},
|
518
524
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
519
525
|
"description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
|
520
526
|
},
|
@@ -668,6 +674,12 @@
|
|
668
674
|
"cohere-command-r-plus": {
|
669
675
|
"description": "Command R+ es un modelo optimizado para RAG de última generación diseñado para abordar cargas de trabajo de nivel empresarial."
|
670
676
|
},
|
677
|
+
"cohere/Cohere-command-r": {
|
678
|
+
"description": "Command R es un modelo generativo escalable diseñado para su uso con RAG y herramientas, que permite a las empresas implementar IA de nivel productivo."
|
679
|
+
},
|
680
|
+
"cohere/Cohere-command-r-plus": {
|
681
|
+
"description": "Command R+ es un modelo optimizado de última generación para RAG, diseñado para manejar cargas de trabajo empresariales."
|
682
|
+
},
|
671
683
|
"command": {
|
672
684
|
"description": "Un modelo de conversación que sigue instrucciones, ofreciendo alta calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que nuestros modelos de generación básicos."
|
673
685
|
},
|
@@ -1028,6 +1040,12 @@
|
|
1028
1040
|
"gemini-2.5-flash-preview-04-17": {
|
1029
1041
|
"description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google, que ofrece una funcionalidad completa."
|
1030
1042
|
},
|
1043
|
+
"gemini-2.5-flash-preview-04-17-thinking": {
|
1044
|
+
"description": "Gemini 2.5 Flash Preview es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
|
1045
|
+
},
|
1046
|
+
"gemini-2.5-flash-preview-05-20": {
|
1047
|
+
"description": "Gemini 2.5 Flash Preview es el modelo de mejor relación calidad-precio de Google, que ofrece funcionalidades completas."
|
1048
|
+
},
|
1031
1049
|
"gemini-2.5-pro-exp-03-25": {
|
1032
1050
|
"description": "Gemini 2.5 Pro Experimental es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, además de utilizar contextos largos para analizar grandes conjuntos de datos, bibliotecas de código y documentos."
|
1033
1051
|
},
|
@@ -1262,23 +1280,17 @@
|
|
1262
1280
|
"grok-2-vision-1212": {
|
1263
1281
|
"description": "Este modelo ha mejorado en precisión, cumplimiento de instrucciones y capacidades multilingües."
|
1264
1282
|
},
|
1265
|
-
"grok-3
|
1266
|
-
"description": "Modelo insignia, experto en extracción de datos, programación y
|
1267
|
-
},
|
1268
|
-
"grok-3-fast-beta": {
|
1269
|
-
"description": "Modelo insignia, experto en extracción de datos, programación y resúmenes de texto para aplicaciones empresariales, con un profundo conocimiento en campos como finanzas, salud, derecho y ciencia."
|
1283
|
+
"grok-3": {
|
1284
|
+
"description": "Modelo insignia, experto en extracción de datos, programación y resumen de texto para aplicaciones empresariales, con profundo conocimiento en finanzas, medicina, derecho y ciencias."
|
1270
1285
|
},
|
1271
|
-
"grok-3-
|
1272
|
-
"description": "Modelo
|
1286
|
+
"grok-3-fast": {
|
1287
|
+
"description": "Modelo insignia, experto en extracción de datos, programación y resumen de texto para aplicaciones empresariales, con profundo conocimiento en finanzas, medicina, derecho y ciencias."
|
1273
1288
|
},
|
1274
|
-
"grok-3-mini
|
1275
|
-
"description": "Modelo ligero
|
1289
|
+
"grok-3-mini": {
|
1290
|
+
"description": "Modelo ligero que piensa antes de responder. Rápido e inteligente, adecuado para tareas lógicas que no requieren conocimientos profundos de dominio y capaz de proporcionar la trayectoria original del pensamiento."
|
1276
1291
|
},
|
1277
|
-
"grok-
|
1278
|
-
"description": "
|
1279
|
-
},
|
1280
|
-
"grok-vision-beta": {
|
1281
|
-
"description": "El último modelo de comprensión de imágenes, capaz de manejar una amplia variedad de información visual, incluyendo documentos, gráficos, capturas de pantalla y fotos."
|
1292
|
+
"grok-3-mini-fast": {
|
1293
|
+
"description": "Modelo ligero que piensa antes de responder. Rápido e inteligente, adecuado para tareas lógicas que no requieren conocimientos profundos de dominio y capaz de proporcionar la trayectoria original del pensamiento."
|
1282
1294
|
},
|
1283
1295
|
"gryphe/mythomax-l2-13b": {
|
1284
1296
|
"description": "MythoMax l2 13B es un modelo de lenguaje que combina creatividad e inteligencia, fusionando múltiples modelos de vanguardia."
|
@@ -1322,6 +1334,9 @@
|
|
1322
1334
|
"hunyuan-t1-latest": {
|
1323
1335
|
"description": "El primer modelo de inferencia híbrido de gran escala Hybrid-Transformer-Mamba de la industria, que amplía la capacidad de inferencia, ofrece una velocidad de decodificación excepcional y alinea aún más con las preferencias humanas."
|
1324
1336
|
},
|
1337
|
+
"hunyuan-t1-vision": {
|
1338
|
+
"description": "Modelo de pensamiento profundo multimodal Hunyuan, que soporta cadenas de pensamiento nativas multimodales, sobresale en diversos escenarios de razonamiento con imágenes y mejora significativamente en problemas científicos en comparación con modelos de pensamiento rápido."
|
1339
|
+
},
|
1325
1340
|
"hunyuan-translation": {
|
1326
1341
|
"description": "Soporta la traducción entre 15 idiomas, incluyendo chino, inglés, japonés, francés, portugués, español, turco, ruso, árabe, coreano, italiano, alemán, vietnamita, malayo e indonesio, con evaluación automatizada basada en el conjunto de evaluación de traducción en múltiples escenarios y puntuación COMET, superando en general a modelos de tamaño similar en la capacidad de traducción entre idiomas comunes."
|
1327
1342
|
},
|
@@ -1586,6 +1601,30 @@
|
|
1586
1601
|
"meta.llama3-8b-instruct-v1:0": {
|
1587
1602
|
"description": "Meta Llama 3 es un modelo de lenguaje de gran tamaño (LLM) abierto dirigido a desarrolladores, investigadores y empresas, diseñado para ayudarles a construir, experimentar y escalar de manera responsable sus ideas de IA generativa. Como parte de un sistema base para la innovación de la comunidad global, es ideal para dispositivos de borde con recursos y capacidades computacionales limitadas, así como para tiempos de entrenamiento más rápidos."
|
1588
1603
|
},
|
1604
|
+
"meta/Llama-3.2-11B-Vision-Instruct": {
|
1605
|
+
"description": "Destaca en razonamiento de imágenes de alta resolución, ideal para aplicaciones de comprensión visual."
|
1606
|
+
},
|
1607
|
+
"meta/Llama-3.2-90B-Vision-Instruct": {
|
1608
|
+
"description": "Capacidades avanzadas de razonamiento de imágenes para aplicaciones de agentes de comprensión visual."
|
1609
|
+
},
|
1610
|
+
"meta/Llama-3.3-70B-Instruct": {
|
1611
|
+
"description": "Llama 3.3 es el modelo de lenguaje grande multilingüe de código abierto más avanzado de la serie Llama, que ofrece un rendimiento comparable a modelos de 405 mil millones de parámetros a un costo muy bajo. Basado en la arquitectura Transformer, mejorado mediante ajuste fino supervisado (SFT) y aprendizaje por refuerzo con retroalimentación humana (RLHF) para mejorar su utilidad y seguridad. Su versión ajustada por instrucciones está optimizada para diálogos multilingües y supera a muchos modelos de chat abiertos y cerrados en varios puntos de referencia industriales. Fecha de corte de conocimiento: diciembre de 2023."
|
1612
|
+
},
|
1613
|
+
"meta/Meta-Llama-3-70B-Instruct": {
|
1614
|
+
"description": "Un potente modelo de 70 mil millones de parámetros, que destaca en razonamiento, codificación y aplicaciones lingüísticas amplias."
|
1615
|
+
},
|
1616
|
+
"meta/Meta-Llama-3-8B-Instruct": {
|
1617
|
+
"description": "Un modelo versátil de 8 mil millones de parámetros, optimizado para tareas de diálogo y generación de texto."
|
1618
|
+
},
|
1619
|
+
"meta/Meta-Llama-3.1-405B-Instruct": {
|
1620
|
+
"description": "Modelo de texto ajustado por instrucciones Llama 3.1, optimizado para casos de uso de diálogo multilingüe, con un rendimiento destacado en muchos modelos de chat abiertos y cerrados disponibles y en puntos de referencia industriales comunes."
|
1621
|
+
},
|
1622
|
+
"meta/Meta-Llama-3.1-70B-Instruct": {
|
1623
|
+
"description": "Modelo de texto ajustado por instrucciones Llama 3.1, optimizado para casos de uso de diálogo multilingüe, con un rendimiento destacado en muchos modelos de chat abiertos y cerrados disponibles y en puntos de referencia industriales comunes."
|
1624
|
+
},
|
1625
|
+
"meta/Meta-Llama-3.1-8B-Instruct": {
|
1626
|
+
"description": "Modelo de texto ajustado por instrucciones Llama 3.1, optimizado para casos de uso de diálogo multilingüe, con un rendimiento destacado en muchos modelos de chat abiertos y cerrados disponibles y en puntos de referencia industriales comunes."
|
1627
|
+
},
|
1589
1628
|
"meta/llama-3.1-405b-instruct": {
|
1590
1629
|
"description": "LLM avanzado, que soporta generación de datos sintéticos, destilación de conocimiento y razonamiento, adecuado para chatbots, programación y tareas de dominio específico."
|
1591
1630
|
},
|
@@ -1610,6 +1649,30 @@
|
|
1610
1649
|
"meta/llama-3.3-70b-instruct": {
|
1611
1650
|
"description": "Modelo LLM avanzado, experto en razonamiento, matemáticas, sentido común y llamadas a funciones."
|
1612
1651
|
},
|
1652
|
+
"microsoft/Phi-3-medium-128k-instruct": {
|
1653
|
+
"description": "El mismo modelo Phi-3-medium, pero con un tamaño de contexto mayor, adecuado para RAG o indicaciones breves."
|
1654
|
+
},
|
1655
|
+
"microsoft/Phi-3-medium-4k-instruct": {
|
1656
|
+
"description": "Un modelo de 14 mil millones de parámetros, con mejor calidad que Phi-3-mini, enfocado en datos de alta calidad y razonamiento intensivo."
|
1657
|
+
},
|
1658
|
+
"microsoft/Phi-3-mini-128k-instruct": {
|
1659
|
+
"description": "El mismo modelo Phi-3-mini, pero con un tamaño de contexto mayor, adecuado para RAG o indicaciones breves."
|
1660
|
+
},
|
1661
|
+
"microsoft/Phi-3-mini-4k-instruct": {
|
1662
|
+
"description": "El miembro más pequeño de la familia Phi-3, optimizado para calidad y baja latencia."
|
1663
|
+
},
|
1664
|
+
"microsoft/Phi-3-small-128k-instruct": {
|
1665
|
+
"description": "El mismo modelo Phi-3-small, pero con un tamaño de contexto mayor, adecuado para RAG o indicaciones breves."
|
1666
|
+
},
|
1667
|
+
"microsoft/Phi-3-small-8k-instruct": {
|
1668
|
+
"description": "Un modelo de 7 mil millones de parámetros, con mejor calidad que Phi-3-mini, enfocado en datos de alta calidad y razonamiento intensivo."
|
1669
|
+
},
|
1670
|
+
"microsoft/Phi-3.5-mini-instruct": {
|
1671
|
+
"description": "Versión actualizada del modelo Phi-3-mini."
|
1672
|
+
},
|
1673
|
+
"microsoft/Phi-3.5-vision-instruct": {
|
1674
|
+
"description": "Versión actualizada del modelo Phi-3-vision."
|
1675
|
+
},
|
1613
1676
|
"microsoft/WizardLM-2-8x22B": {
|
1614
1677
|
"description": "WizardLM 2 es un modelo de lenguaje proporcionado por Microsoft AI, que destaca en diálogos complejos, multilingüismo, razonamiento y asistentes inteligentes."
|
1615
1678
|
},
|
@@ -1628,6 +1691,15 @@
|
|
1628
1691
|
"mistral": {
|
1629
1692
|
"description": "Mistral es un modelo de 7B lanzado por Mistral AI, adecuado para necesidades de procesamiento de lenguaje variables."
|
1630
1693
|
},
|
1694
|
+
"mistral-ai/Mistral-Large-2411": {
|
1695
|
+
"description": "El modelo insignia de Mistral, adecuado para tareas complejas que requieren capacidades de razonamiento a gran escala o alta especialización (generación de texto sintético, generación de código, RAG o agentes)."
|
1696
|
+
},
|
1697
|
+
"mistral-ai/Mistral-Nemo": {
|
1698
|
+
"description": "Mistral Nemo es un modelo de lenguaje avanzado (LLM) que ofrece capacidades de razonamiento, conocimiento mundial y codificación líderes en su categoría de tamaño."
|
1699
|
+
},
|
1700
|
+
"mistral-ai/mistral-small-2503": {
|
1701
|
+
"description": "Mistral Small está disponible para cualquier tarea basada en lenguaje que requiera alta eficiencia y baja latencia."
|
1702
|
+
},
|
1631
1703
|
"mistral-large": {
|
1632
1704
|
"description": "Mixtral Large es el modelo insignia de Mistral, combinando capacidades de generación de código, matemáticas y razonamiento, soportando una ventana de contexto de 128k."
|
1633
1705
|
},
|
@@ -1769,6 +1841,9 @@
|
|
1769
1841
|
"openai/gpt-4o-mini": {
|
1770
1842
|
"description": "GPT-4o mini es el modelo más reciente de OpenAI, lanzado después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de tamaño pequeño, es mucho más económico que otros modelos de vanguardia recientes y más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio notable. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat."
|
1771
1843
|
},
|
1844
|
+
"openai/o1": {
|
1845
|
+
"description": "o1 es el nuevo modelo de razonamiento de OpenAI, que admite entradas de texto e imagen y produce texto, adecuado para tareas complejas que requieren un conocimiento general amplio. Este modelo cuenta con un contexto de 200K y una fecha de corte de conocimiento en octubre de 2023."
|
1846
|
+
},
|
1772
1847
|
"openai/o1-mini": {
|
1773
1848
|
"description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
|
1774
1849
|
},
|
@@ -259,9 +259,6 @@
|
|
259
259
|
"enableMaxTokens": {
|
260
260
|
"title": "Activar límite de tokens por respuesta"
|
261
261
|
},
|
262
|
-
"enableReasoningEffort": {
|
263
|
-
"title": "Activar ajuste de intensidad de razonamiento"
|
264
|
-
},
|
265
262
|
"frequencyPenalty": {
|
266
263
|
"desc": "Cuanto mayor sea el valor, más rica y variada será la elección de palabras; cuanto menor sea el valor, más simples y directas serán las palabras.",
|
267
264
|
"title": "Riqueza del vocabulario"
|
@@ -281,15 +278,6 @@
|
|
281
278
|
"desc": "Cuanto mayor sea el valor, más se inclinará hacia diferentes formas de expresión, evitando la repetición de conceptos; cuanto menor sea el valor, más se inclinará hacia el uso de conceptos o narrativas repetidas, expresando mayor consistencia.",
|
282
279
|
"title": "Diversidad de expresión"
|
283
280
|
},
|
284
|
-
"reasoningEffort": {
|
285
|
-
"desc": "Cuanto mayor sea el valor, más fuerte será la capacidad de razonamiento, pero puede aumentar el tiempo de respuesta y el consumo de tokens.",
|
286
|
-
"options": {
|
287
|
-
"high": "Alto",
|
288
|
-
"low": "Bajo",
|
289
|
-
"medium": "Medio"
|
290
|
-
},
|
291
|
-
"title": "Intensidad de razonamiento"
|
292
|
-
},
|
293
281
|
"submit": "Actualizar configuración del modelo",
|
294
282
|
"temperature": {
|
295
283
|
"desc": "Cuanto mayor sea el valor, más creativas e imaginativas serán las respuestas; cuanto menor sea el valor, más rigurosas serán las respuestas",
|
package/locales/fa-IR/chat.json
CHANGED
@@ -341,9 +341,6 @@
|
|
341
341
|
"Qwen2.5-Coder-32B-Instruct": {
|
342
342
|
"description": "Qwen2.5-Coder-32B-Instruct یک مدل زبان بزرگ است که به طور خاص برای تولید کد، درک کد و سناریوهای توسعه کارآمد طراحی شده است و از مقیاس 32B پارامتر پیشرفته در صنعت بهره میبرد و میتواند نیازهای متنوع برنامهنویسی را برآورده کند."
|
343
343
|
},
|
344
|
-
"SenseCat-5-1202": {
|
345
|
-
"description": "نسخه جدیدترین بر اساس V5.5 است که در مقایسه با نسخه قبلی در تواناییهای پایه چینی و انگلیسی، چت، دانش علوم، دانش انسانی، نوشتن، منطق ریاضی و کنترل تعداد کلمات به طور قابل توجهی بهبود یافته است."
|
346
|
-
},
|
347
344
|
"SenseChat": {
|
348
345
|
"description": "نسخه پایه مدل (V4)، طول متن ۴K، با تواناییهای عمومی قوی"
|
349
346
|
},
|
@@ -356,6 +353,9 @@
|
|
356
353
|
"SenseChat-5": {
|
357
354
|
"description": "جدیدترین نسخه مدل (V5.5)، با طول زمینه 128K، بهبود قابل توجه در زمینههای استدلال ریاضی، مکالمه انگلیسی، پیروی از دستورات و درک متون طولانی، قابل مقایسه با GPT-4o"
|
358
355
|
},
|
356
|
+
"SenseChat-5-1202": {
|
357
|
+
"description": "نسخه جدید مبتنی بر V5.5 که نسبت به نسخه قبلی در تواناییهای پایهای زبانهای چینی و انگلیسی، گفتگو، دانش علوم پایه، دانش علوم انسانی، نوشتار، منطق ریاضی و کنترل تعداد کلمات بهبود قابل توجهی داشته است."
|
358
|
+
},
|
359
359
|
"SenseChat-5-Cantonese": {
|
360
360
|
"description": "طول متن 32K، در درک مکالمات به زبان کانتونی از GPT-4 پیشی میگیرد و در زمینههای مختلفی مانند دانش، استدلال، ریاضیات و برنامهنویسی با GPT-4 Turbo قابل مقایسه است."
|
361
361
|
},
|
@@ -515,6 +515,12 @@
|
|
515
515
|
"ai21-jamba-1.5-mini": {
|
516
516
|
"description": "یک مدل چندزبانه با 52 میلیارد پارامتر (12 میلیارد فعال) که پنجره متنی طولانی 256K، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
|
517
517
|
},
|
518
|
+
"ai21-labs/AI21-Jamba-1.5-Large": {
|
519
|
+
"description": "یک مدل چندزبانه با ۳۹۸ میلیارد پارامتر (۹۴ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
|
520
|
+
},
|
521
|
+
"ai21-labs/AI21-Jamba-1.5-Mini": {
|
522
|
+
"description": "یک مدل چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه میدهد."
|
523
|
+
},
|
518
524
|
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
|
519
525
|
"description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدلهای رقیب و Claude 3 Opus دارد، در ارزیابیهای گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدلهای سطح متوسط ما را حفظ میکند."
|
520
526
|
},
|
@@ -668,6 +674,12 @@
|
|
668
674
|
"cohere-command-r-plus": {
|
669
675
|
"description": "Command R+ یک مدل پیشرفته بهینهسازی RAG است که برای مدیریت بارهای کاری در سطح سازمانی طراحی شده است."
|
670
676
|
},
|
677
|
+
"cohere/Cohere-command-r": {
|
678
|
+
"description": "Command R یک مدل تولیدی مقیاسپذیر است که برای استفاده در RAG و ابزارها طراحی شده است تا به کسبوکارها امکان پیادهسازی هوش مصنوعی در سطح تولید را بدهد."
|
679
|
+
},
|
680
|
+
"cohere/Cohere-command-r-plus": {
|
681
|
+
"description": "Command R+ یک مدل بهینهسازی شده پیشرفته برای RAG است که برای بارهای کاری سازمانی طراحی شده است."
|
682
|
+
},
|
671
683
|
"command": {
|
672
684
|
"description": "یک مدل گفتگوی پیروی از دستور که در وظایف زبانی کیفیت بالاتر و قابلیت اطمینان بیشتری را ارائه میدهد و نسبت به مدلهای تولید پایه ما دارای طول زمینه بیشتری است."
|
673
685
|
},
|
@@ -1028,6 +1040,12 @@
|
|
1028
1040
|
"gemini-2.5-flash-preview-04-17": {
|
1029
1041
|
"description": "پیشنمایش فلش Gemini 2.5 مدل با بهترین قیمت و کیفیت گوگل است که امکانات جامع و کاملی را ارائه میدهد."
|
1030
1042
|
},
|
1043
|
+
"gemini-2.5-flash-preview-04-17-thinking": {
|
1044
|
+
"description": "Gemini 2.5 Flash Preview مقرونبهصرفهترین مدل گوگل است که امکانات جامع ارائه میدهد."
|
1045
|
+
},
|
1046
|
+
"gemini-2.5-flash-preview-05-20": {
|
1047
|
+
"description": "Gemini 2.5 Flash Preview مقرونبهصرفهترین مدل گوگل است که امکانات جامع ارائه میدهد."
|
1048
|
+
},
|
1031
1049
|
"gemini-2.5-pro-exp-03-25": {
|
1032
1050
|
"description": "Gemini 2.5 Pro Experimental پیشرفتهترین مدل تفکر گوگل است که قادر به استدلال در مورد مسائل پیچیده در زمینههای کد، ریاضیات و STEM میباشد و همچنین میتواند با استفاده از زمینههای طولانی، مجموعههای داده بزرگ، کتابخانههای کد و مستندات را تحلیل کند."
|
1033
1051
|
},
|
@@ -1262,23 +1280,17 @@
|
|
1262
1280
|
"grok-2-vision-1212": {
|
1263
1281
|
"description": "این مدل در دقت، پیروی از دستورات و توانایی چند زبانه بهبود یافته است."
|
1264
1282
|
},
|
1265
|
-
"grok-3
|
1266
|
-
"description": "مدل
|
1283
|
+
"grok-3": {
|
1284
|
+
"description": "مدل پرچمدار که در استخراج داده، برنامهنویسی و خلاصهسازی متن برای کاربردهای سازمانی مهارت دارد و دانش عمیقی در حوزههای مالی، پزشکی، حقوقی و علمی دارد."
|
1267
1285
|
},
|
1268
|
-
"grok-3-fast
|
1269
|
-
"description": "مدل
|
1286
|
+
"grok-3-fast": {
|
1287
|
+
"description": "مدل پرچمدار که در استخراج داده، برنامهنویسی و خلاصهسازی متن برای کاربردهای سازمانی مهارت دارد و دانش عمیقی در حوزههای مالی، پزشکی، حقوقی و علمی دارد."
|
1270
1288
|
},
|
1271
|
-
"grok-3-mini
|
1272
|
-
"description": "مدل
|
1289
|
+
"grok-3-mini": {
|
1290
|
+
"description": "مدل سبکوزن که قبل از پاسخگویی تفکر میکند. سریع و هوشمند اجرا میشود، مناسب برای وظایف منطقی که نیاز به دانش عمیق حوزه ندارند و میتواند مسیر تفکر اصلی را ارائه دهد."
|
1273
1291
|
},
|
1274
|
-
"grok-3-mini-fast
|
1275
|
-
"description": "مدل
|
1276
|
-
},
|
1277
|
-
"grok-beta": {
|
1278
|
-
"description": "عملکردی معادل Grok 2 دارد، اما با کارایی، سرعت و قابلیتهای بالاتر."
|
1279
|
-
},
|
1280
|
-
"grok-vision-beta": {
|
1281
|
-
"description": "جدیدترین مدل درک تصویر که میتواند انواع مختلف اطلاعات بصری از جمله اسناد، نمودارها، اسکرینشاتها و عکسها را پردازش کند."
|
1292
|
+
"grok-3-mini-fast": {
|
1293
|
+
"description": "مدل سبکوزن که قبل از پاسخگویی تفکر میکند. سریع و هوشمند اجرا میشود، مناسب برای وظایف منطقی که نیاز به دانش عمیق حوزه ندارند و میتواند مسیر تفکر اصلی را ارائه دهد."
|
1282
1294
|
},
|
1283
1295
|
"gryphe/mythomax-l2-13b": {
|
1284
1296
|
"description": "MythoMax l2 13B یک مدل زبانی است که خلاقیت و هوش را با ترکیب چندین مدل برتر به هم پیوند میدهد."
|
@@ -1322,6 +1334,9 @@
|
|
1322
1334
|
"hunyuan-t1-latest": {
|
1323
1335
|
"description": "اولین مدل استدلال هیبریدی-ترنسفورمر-مامبا با مقیاس فوقالعاده بزرگ در صنعت، که توانایی استدلال را گسترش میدهد و سرعت رمزگشایی فوقالعادهای دارد و به طور بیشتری با ترجیحات انسانی همراستا میشود."
|
1324
1336
|
},
|
1337
|
+
"hunyuan-t1-vision": {
|
1338
|
+
"description": "مدل تفکر عمیق چندرسانهای Hunyuan که از زنجیره تفکر بلند بومی چندرسانهای پشتیبانی میکند، در پردازش انواع سناریوهای استدلال تصویری مهارت دارد و در مسائل علمی نسبت به مدل تفکر سریع بهبود قابل توجهی دارد."
|
1339
|
+
},
|
1325
1340
|
"hunyuan-translation": {
|
1326
1341
|
"description": "از ۱۵ زبان شامل چینی، انگلیسی، ژاپنی، فرانسوی، پرتغالی، اسپانیایی، ترکی، روسی، عربی، کرهای، ایتالیایی، آلمانی، ویتنامی، مالایی و اندونزیایی پشتیبانی میکند و به طور خودکار با استفاده از مجموعه ارزیابی ترجمه چند صحنهای، امتیاز COMET را ارزیابی میکند. در توانایی ترجمه متقابل در بیش از ده زبان رایج، به طور کلی از مدلهای هممقیاس در بازار برتر است."
|
1327
1342
|
},
|
@@ -1586,6 +1601,30 @@
|
|
1586
1601
|
"meta.llama3-8b-instruct-v1:0": {
|
1587
1602
|
"description": "Meta Llama 3 یک مدل زبان بزرگ باز (LLM) است که برای توسعهدهندگان، پژوهشگران و شرکتها طراحی شده است تا به آنها در ساخت، آزمایش و گسترش مسئولانه ایدههای هوش مصنوعی مولد کمک کند. به عنوان بخشی از سیستم پایه نوآوری جامعه جهانی، این مدل برای دستگاههای با توان محاسباتی و منابع محدود، دستگاههای لبه و زمانهای آموزش سریعتر بسیار مناسب است."
|
1588
1603
|
},
|
1604
|
+
"meta/Llama-3.2-11B-Vision-Instruct": {
|
1605
|
+
"description": "توانایی استدلال تصویری برجسته در تصاویر با وضوح بالا، مناسب برای برنامههای درک بصری."
|
1606
|
+
},
|
1607
|
+
"meta/Llama-3.2-90B-Vision-Instruct": {
|
1608
|
+
"description": "توانایی استدلال تصویری پیشرفته برای برنامههای عامل درک بصری."
|
1609
|
+
},
|
1610
|
+
"meta/Llama-3.3-70B-Instruct": {
|
1611
|
+
"description": "Llama 3.3 پیشرفتهترین مدل زبان بزرگ چندزبانه متنباز در سری Llama است که عملکردی مشابه مدل ۴۰۵ میلیارد پارامتری را با هزینه بسیار پایین ارائه میدهد. مبتنی بر ساختار ترنسفورمر و با بهبودهای نظارت شده (SFT) و یادگیری تقویتی با بازخورد انسانی (RLHF) برای افزایش کارایی و ایمنی. نسخه تنظیم شده برای دستورالعمل بهینه شده برای گفتگوهای چندزبانه است و در معیارهای صنعتی متعدد از بسیاری از مدلهای چت متنباز و بسته بهتر عمل میکند. تاریخ قطع دانش: دسامبر ۲۰۲۳."
|
1612
|
+
},
|
1613
|
+
"meta/Meta-Llama-3-70B-Instruct": {
|
1614
|
+
"description": "یک مدل قدرتمند با ۷۰ میلیارد پارامتر که در استدلال، کدنویسی و کاربردهای گسترده زبانی عملکرد برجستهای دارد."
|
1615
|
+
},
|
1616
|
+
"meta/Meta-Llama-3-8B-Instruct": {
|
1617
|
+
"description": "یک مدل چندمنظوره با ۸ میلیارد پارامتر که برای وظایف گفتگو و تولید متن بهینه شده است."
|
1618
|
+
},
|
1619
|
+
"meta/Meta-Llama-3.1-405B-Instruct": {
|
1620
|
+
"description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدلهای چت متنباز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجستهای دارد."
|
1621
|
+
},
|
1622
|
+
"meta/Meta-Llama-3.1-70B-Instruct": {
|
1623
|
+
"description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدلهای چت متنباز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجستهای دارد."
|
1624
|
+
},
|
1625
|
+
"meta/Meta-Llama-3.1-8B-Instruct": {
|
1626
|
+
"description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدلهای چت متنباز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجستهای دارد."
|
1627
|
+
},
|
1589
1628
|
"meta/llama-3.1-405b-instruct": {
|
1590
1629
|
"description": "مدل LLM پیشرفته که از تولید دادههای ترکیبی، تقطیر دانش و استدلال پشتیبانی میکند و برای رباتهای چت، برنامهنویسی و وظایف خاص مناسب است."
|
1591
1630
|
},
|
@@ -1610,6 +1649,30 @@
|
|
1610
1649
|
"meta/llama-3.3-70b-instruct": {
|
1611
1650
|
"description": "مدل LLM پیشرفته که در استدلال، ریاضیات، دانش عمومی و فراخوانی توابع مهارت دارد."
|
1612
1651
|
},
|
1652
|
+
"microsoft/Phi-3-medium-128k-instruct": {
|
1653
|
+
"description": "همان مدل Phi-3-medium با اندازه زمینه بزرگتر، مناسب برای RAG یا تعداد کمی از پرامپتها."
|
1654
|
+
},
|
1655
|
+
"microsoft/Phi-3-medium-4k-instruct": {
|
1656
|
+
"description": "مدلی با ۱۴ میلیارد پارامتر که کیفیت آن از Phi-3-mini بالاتر است و تمرکز بر دادههای با کیفیت و استدلالی دارد."
|
1657
|
+
},
|
1658
|
+
"microsoft/Phi-3-mini-128k-instruct": {
|
1659
|
+
"description": "همان مدل Phi-3-mini با اندازه زمینه بزرگتر، مناسب برای RAG یا تعداد کمی از پرامپتها."
|
1660
|
+
},
|
1661
|
+
"microsoft/Phi-3-mini-4k-instruct": {
|
1662
|
+
"description": "کوچکترین عضو خانواده Phi-3 که برای کیفیت و تأخیر کم بهینه شده است."
|
1663
|
+
},
|
1664
|
+
"microsoft/Phi-3-small-128k-instruct": {
|
1665
|
+
"description": "همان مدل Phi-3-small با اندازه زمینه بزرگتر، مناسب برای RAG یا تعداد کمی از پرامپتها."
|
1666
|
+
},
|
1667
|
+
"microsoft/Phi-3-small-8k-instruct": {
|
1668
|
+
"description": "مدلی با ۷ میلیارد پارامتر که کیفیت آن از Phi-3-mini بالاتر است و تمرکز بر دادههای با کیفیت و استدلالی دارد."
|
1669
|
+
},
|
1670
|
+
"microsoft/Phi-3.5-mini-instruct": {
|
1671
|
+
"description": "نسخه بهروزشده مدل Phi-3-mini."
|
1672
|
+
},
|
1673
|
+
"microsoft/Phi-3.5-vision-instruct": {
|
1674
|
+
"description": "نسخه بهروزشده مدل Phi-3-vision."
|
1675
|
+
},
|
1613
1676
|
"microsoft/WizardLM-2-8x22B": {
|
1614
1677
|
"description": "WizardLM 2 یک مدل زبانی است که توسط AI مایکروسافت ارائه شده و در زمینههای گفتگوی پیچیده، چند زبانه، استدلال و دستیار هوشمند به ویژه عملکرد خوبی دارد."
|
1615
1678
|
},
|
@@ -1628,6 +1691,15 @@
|
|
1628
1691
|
"mistral": {
|
1629
1692
|
"description": "Mistral یک مدل 7B است که توسط Mistral AI منتشر شده و برای نیازهای متنوع پردازش زبان مناسب است."
|
1630
1693
|
},
|
1694
|
+
"mistral-ai/Mistral-Large-2411": {
|
1695
|
+
"description": "مدل پرچمدار Mistral که برای وظایف پیچیدهای که نیاز به توان استدلال در مقیاس بزرگ یا تخصصی بالا دارند (تولید متن ترکیبی، تولید کد، RAG یا عاملها) مناسب است."
|
1696
|
+
},
|
1697
|
+
"mistral-ai/Mistral-Nemo": {
|
1698
|
+
"description": "Mistral Nemo یک مدل زبان پیشرفته (LLM) است که در دسته اندازه خود دارای بهترین تواناییهای استدلال، دانش جهانی و کدنویسی است."
|
1699
|
+
},
|
1700
|
+
"mistral-ai/mistral-small-2503": {
|
1701
|
+
"description": "Mistral Small برای هر وظیفه مبتنی بر زبان که نیاز به کارایی بالا و تأخیر کم دارد، قابل استفاده است."
|
1702
|
+
},
|
1631
1703
|
"mistral-large": {
|
1632
1704
|
"description": "Mixtral Large مدل پرچمدار Mistral است که توانایی تولید کد، ریاضیات و استدلال را ترکیب میکند و از پنجره متنی ۱۲۸k پشتیبانی میکند."
|
1633
1705
|
},
|
@@ -1769,6 +1841,9 @@
|
|
1769
1841
|
"openai/gpt-4o-mini": {
|
1770
1842
|
"description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودیهای تصویری و متنی پشتیبانی میکند و خروجی متنی ارائه میدهد. به عنوان پیشرفتهترین مدل کوچک آنها، این مدل بسیار ارزانتر از سایر مدلهای پیشرفته اخیر است و بیش از ۶۰٪ ارزانتر از GPT-3.5 Turbo میباشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبهبندی شده است."
|
1771
1843
|
},
|
1844
|
+
"openai/o1": {
|
1845
|
+
"description": "o1 مدل استدلال جدید OpenAI است که از ورودیهای تصویری و متنی پشتیبانی میکند و خروجی متنی ارائه میدهد، مناسب برای وظایف پیچیدهای که نیاز به دانش عمومی گسترده دارند. این مدل دارای زمینه ۲۰۰ هزار توکنی و تاریخ قطع دانش در اکتبر ۲۰۲۳ است."
|
1846
|
+
},
|
1772
1847
|
"openai/o1-mini": {
|
1773
1848
|
"description": "o1-mini یک مدل استنتاج سریع و مقرونبهصرفه است که برای برنامهنویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ میباشد."
|
1774
1849
|
},
|
@@ -259,9 +259,6 @@
|
|
259
259
|
"enableMaxTokens": {
|
260
260
|
"title": "فعالسازی محدودیت پاسخ"
|
261
261
|
},
|
262
|
-
"enableReasoningEffort": {
|
263
|
-
"title": "فعالسازی تنظیم شدت استدلال"
|
264
|
-
},
|
265
262
|
"frequencyPenalty": {
|
266
263
|
"desc": "هر چه مقدار بزرگتر باشد، واژگان متنوعتر و غنیتری استفاده میشود؛ هر چه مقدار کوچکتر باشد، واژگان سادهتر و عادیتر خواهند بود.",
|
267
264
|
"title": "تنوع واژگان"
|
@@ -281,15 +278,6 @@
|
|
281
278
|
"desc": "هر چه مقدار بزرگتر باشد، تمایل به استفاده از عبارات مختلف بیشتر میشود و از تکرار مفاهیم جلوگیری میکند؛ هر چه مقدار کوچکتر باشد، تمایل به استفاده از مفاهیم یا روایتهای تکراری بیشتر میشود و بیان یکدستتری خواهد داشت.",
|
282
279
|
"title": "گستردگی بیان"
|
283
280
|
},
|
284
|
-
"reasoningEffort": {
|
285
|
-
"desc": "هرچه مقدار بیشتر باشد، توانایی استدلال قویتر است، اما ممکن است زمان پاسخ و مصرف توکن را افزایش دهد",
|
286
|
-
"options": {
|
287
|
-
"high": "بالا",
|
288
|
-
"low": "پایین",
|
289
|
-
"medium": "متوسط"
|
290
|
-
},
|
291
|
-
"title": "شدت استدلال"
|
292
|
-
},
|
293
281
|
"submit": "بهروزرسانی تنظیمات مدل",
|
294
282
|
"temperature": {
|
295
283
|
"desc": "هر چه عدد بزرگتر باشد، پاسخها خلاقانهتر و تخیلیتر خواهند بود؛ هر چه عدد کوچکتر باشد، پاسخها دقیقتر خواهند بود",
|
package/locales/fr-FR/chat.json
CHANGED